skip to Main Content

Jak nejlépe využít robots.txt pro SEO?

Soubor robots.txt patří mezi další, neméně důležité části on-page optimalizace pro vyhledávače. Je to soubor, který vyhledávačům říká, jaké stránky vašeho webu mají procházet a jaké mají vynechat.

Webmasteři mohou využít tří způsobů, jak vyhledávačům sdělit, kam nemohou chodit. Kromě souboru robots.txt, který je vhodný pro nastavení restrikcí pro celý web najednou, můžete použít meta tag v hlavičce stránky nebo chcete-li informovat vyhledávače, aby nenásledovaly konkrétní odkaz, tak mu přidejte atribut rel=“nofollow“. V tomto článku ale zůstaneme u robots.txt, takže se pojďme tomuto souboru podrobněji podívat na zoubek.

Přečíst celý článek
Back To Top

Na těchto stránkách užíváme cookies. Proti jejich sběru na základě oprávněného zájmu se můžete odvolat na info@vceliste.cz, nebo budeme rádi, když nám jejich užívání odsouhlasíte. Více informací

Nastavení cookie na tomto webu je nastaveno pro "povoleno cookies", aby vám poskytlo nejlepší možné prohlížení stránek. Pokud budete nadále používat tento web bez změny nastavení cookie nebo klepnete na tlačítko "Souhlasím" souhlasíte s podmínkami použití cookie.

Zavřít