В ходе очередного вебинара Google для владельцев сайтов обсуждали, как лучше всего закрыть контент от индексации поисковой системой.
В частности, один из веб-мастеров поинтересовался у Джона Мюллера, будет ли достаточно для этой цели использовать команду disallow в файле robots.txt?
Ответ официального представителя Google оказался довольно обширным:
«Необходимо понимать одну простую вещь. блoкировка страниц в robots.txt не дает полной гарантии. Может случиться так, что на заблoкированные таким образом страницы с других сайтов кто-то будет ссылаться. В этом случае для нас факт внешней ссылки приоритетен. Следовательно, вполне возможен вариант, когда мы, перейдя по такой ссылке, проиндексируем страницу, которую вы якобы закрыли в файле robots.txt. И если эта страница, скажем, пустая (некачественная), то это не пойдет на пользу сайту.
Учитывая сказанное, я бы рекомендовал использовать мета-тег noindex вместо команды disallow. Перейдя по внешней ссылке и обнаружив указанный тег, Google не станет индексировать ее содержимое. Страница будет навсегда исключена из поискового индекса. Пока noindex не будет отменен».
Вопрос и ответ на него в оригинале можно прослушать на видео, начиная с отметки 24:36.
Что-бы увидеть перевод достаточно нажать на субтиры.
- Подпись автора
-
❤️🔥•●•DиkаЯ_k0шkА♥️❤️🔥
Детальнее см. : https://t.me/vipmodelivirt