Robots txt для modx

Узнайте больше о Robots txt для modx, примерах использования и пошаговой инструкции по созданию. Получите всю необходимую информацию для защиты сайта от нежелательных поисковых ботов.

Robots.txt это специальный текстовый файл, который используется для ограничения доступа поисковых систем к различным частям вашего сайта. В нём можно описать, какие файлы или папки не должны индексироваться поисковыми системами. В противном случае, если такой файл не существует или если в нём нет достаточного количества информации о нескольких папках, то эти папки могут быть индексированы поисковыми системами и появиться в результатах поиска.

Пример robots.txt для modx

User-agent: * 
Allow: /assets/ 
Allow: /core/ 
Allow: /connectors/ 
Disallow: /manager/
Disallow: /assets/*.php$ 
Disallow: /core/*.php$ 
Disallow: /connectors/*.php$
Disallow: /*.txt$
Disallow: /*.html$
Disallow: /*.xml$
Disallow: /*.js$
Disallow: /*.css$

Sitemap: https://example.com/sitemap.xml

Рассмотрим код подробнее. Первая строка User-agent: * означает, что следующие инструкции распространяются на всех поисковых ботов. Далее идут инструкции Allow и Disallow, которые позволяют или запрещают индексацию для определенных папок и файлов. Здесь мы запрещаем индексацию папки manager, а также файлов с расширениями .txt, .html, .xml, .js и .css. В конце файла мы указываем путь к sitemap сайта.

Ответы (0)