Robots txt для битрикс

Robots txt для Битрикс - это инструмент, позволяющий задать поисковым роботам инструкции для индексации сайта. Детальный пример и объяснение различных директив.

Robots.txt – это текстовый файл, который предназначен для информирования поисковых роботов о том, какие страницы необходимо индексировать и в каких папках искать информацию.

На практике, для работы на битриксе, достаточно простого и несложного robots.txt. Данный файл следует поместить в корневую папку сайта. Например, вот такой простой файл robots.txt для битрикса:

User-agent: *
Disallow: /bitrix/
Disallow: /search/
Allow: /bitrix/cache/
Allow: /bitrix/js/
Allow: /bitrix/templates/
Allow: /bitrix/components/
Allow: /bitrix/images/
Allow: /bitrix/panel/

В данном файле указано, что поисковым роботам нельзя индексировать папки /bitrix/, /search/, но можно индексировать папки /bitrix/cache/, /bitrix/js/ и т.д.

Это простой пример, который может быть расширен по необходимости. Например, можно добавить следующие строки:

Disallow: /*sort_*
Disallow: /*show_all
Disallow: /*print=Y

Это означает, что поисковым роботам нельзя индексировать страницы с адресами, которые содержат параметры sort_*, show_all или print=Y.

Также можно добавить настройки для отдельных поисковых роботов, например, так:

User-agent: Yandex
Disallow: /

User-agent: Google
Disallow: /bitrix/
Allow: /bitrix/cache/
Allow: /bitrix/js/
Allow: /bitrix/templates/
Allow: /bitrix/components/
Allow: /bitrix/images/
Allow: /bitrix/panel/

В этом случае для поискового робота Yandex запрещен доступ ко всему сайту, а для поискового робота Google запрещен доступ к папке /bitrix/, но разрешен доступ к остальным папкам.

Таким образом, мы можем легко и просто настроить robots.txt для битрикса с учетом наших потребностей.

Ответы (0)