Относительно того, что должно быть внутри файла robots.txt
до сих пор возникает куча споров. Вообще, на мой взгляд, этот файл должен содержать две обязательные вещи:
Sitemap: https://misha.agency/sitemap.xml
Некоторые плагины вставляют эту директиву автоматически.
Host: truemisha.ru
Скрывать в нём все функциональные PHP-файлы (как делают некоторые вебмастера) я не вижу смысла. А уж страницы сайта тем более. Я проводил эксперимент со скрытием страниц через robots.txt
— они всё равно попали в индекс, но только без заголовка и без сниппета.
Для скрытия от индексации страниц сайта используйте метатег:
<meta name="robots" content="noindex, follow" />
Выводит несколько директив для файла robots.txt
, рекомендуемые для WordPress.
do_robots()
Параметров не имеет, зато имеет 1 хук и 1 фильтр.
Рассмотрим по порядку, как работает функция:
Content-Type
документа на text/plain
(с кодировкой UTF-8).do_robotstxt
(без параметров).robots.txt
будет:
User-agent: * Disallow: /
Если не отмечена:
User-agent: * Disallow: /wp-admin/
robots_txt
(WordPress 3.0+) с двумя параметрами — $output
(то, что подготовлено для вывода в robots.txt
) и $public
(отмечена ли галочка в пункте 3).К результату функции do_robots()
добавим еще то, о чем я говорил в начале поста и получим вот такой robots.txt для WordPress:
User-agent: * Disallow: /wp-admin/ User-agent: Yandex Disallow: /wp-admin/ Host: truemisha.ru Sitemap: https://misha.agency/sitemap.xml
Создать его вы можете при помощи любого текстового редактора. Сохраните его там же, где находятся директории wp-admin
и wp-content
.
Чтобы оставить комментарий, пожалуйста, зарегистрируйтесь или войдите.
а кроме /wp-admin/ больше закрыть ничего не нужно ? например там wp-login.php?
wp-login.php не проиндекируется, так как закрыт метатегом robots
Здравствуйте, Миша!
Для моего сайта ladychef.ru ваш robots.txt можно применять?
User-agent: *
Disallow: /wp-admin/
User-agent: Yandex
Disallow: /wp-admin/
Host: truemisha.ru
Sitemap: https://misha.agency/sitemap.xml
Хост для Яндекса - то есть главное зеркало, верно?
Здравствуйте!
Да, применяйте, но не забудьте заменить директивы host и sitemap.
Да.
User-agent: * подразумевает "Всем", а потом Яндексу уточняется то же самое ) Это не лишнее?
Разве то же самое? Смотрите внимательнее :)
Это опять я :)
Все думаю о robots.txt...
А если серьезно, то проблема такова. На моем сайте установлен плагин Yoast.
Автор этого плагина рекомендует в своей статье
https://yoast.com/example-robots-txt-wordpress/
такой robots.txt
Читала статью с помощью Гугл переводчик, поэтому может она совсем про другое. (:
Под воздействием прочитанного в иностранной статье сделала такой robots.txt
Хотелось бы знать ваше мнение. Спасибо.
Думаю норм.
Зря вы так сильно с ним заморачиваетесь :) Раньше на seomoz.com (топовый SEO ресурс в мире, если не ошибаюсь) был такой robots:
Заморачиваться стала когда поисковики сообщили мне о многочисленных дублях картинок на сайте. А также после того как Гугл ввел санкции из-за запрета сканирования js и css в robots.txt .
Сейчас у меня robots такой, как вы вы советуете. Спасибо, буду наблюдать за изменениями в вебмастере.
Я же говорю, c robots.txt лучше не увлекаться.
А что касается дублей, можете просто скинуть более подробную информацию и возможно я смогу вам помочь.
Спасибо. После появления дублей картинок в огромном количестве я изменила в шаблоне некоторые настройки и вместо плагина All Seo Pack установила Yoast. Он перенаправил картинки, убрал дубли. Ситуация как будто нормализовалась. Спасибо. Плохо то, что я не вполне понимаю как это происходит, но стараюсь )
Да, Yoast крутой плагин, вы правильно сделали :)
Да, после All Seo он мне показался сказочным. Настраивать его легче - он понятнее, есть подсказки и пр. Об ошибках меня предупреждает - в общем, заботится о сайте как надо.