Назад

Руководство по файлу robots.txt

Заказать SEO-продвижение

Содержание

Создание и настройка файла robots.txt

Что такое robots.txt

Пример файла robots.txt

Важность robots.txt для SEO

Где должен находиться файл исключений

Способы создания robots.txt

Создание вручную

Шаблон

Специальный сервис

Директивы для роботов поисковых систем

User-Agent

Disallow

Allow

Sitemap

Clean-param

Crawl-delay

Что следует закрыть от индексации

Что учитывать при редактировании robots.txt

Проверка файла

Проверка на сайте

Проверка на наличие ошибок

Вместо заключения


Создание и настройка файла robots.txt

Зарегистрировано доменное имя, куплен хостинг, файлы загружены, сайт наполнен и функционирует, а значит, доступен для поисковых роботов (иначе пауков, ботов, краулеров). Роботы сканируют сайт, анализируют, индексируют его, то есть добавляют данные о веб-ресурсе в базу для дальнейшего ранжирования.

Во многом от контента на сайте зависит его позиция в поисковой выдаче. Если некоторые страницы не готовы, не отвечают требованиям поисковика для успешного продвижения, их можно скрыть от краулеров – закрыть от индексации. Бот при проверке попросту будет их пропускать. В реализации исключений при индексировании используется файл сайта robots.txt.

Что такое robots.txt

Как говорит нам расширение файла, он текстовый, соответственно, открывается и стандартной программой “Блокнот”.

Robots.txt включает в себя директивы – указания (руководства или инструкции) для поисковых роботов, какие страницы не следует индексировать. Файл исключений, закрывающий нужное содержимое сайта, ориентир для роботов, причем разных поисковых систем: Яндекс, Google, Yahoo!, Bing, Baidu.

Общепризнанный стандарт исключений, который приняли в 1994 году на консорциуме Всемирной паутины – W3C.

Пример файла robots.txt

Пример реально существующего файла robots.txt.

Важность robots.txt для SEO

Заполняют файл robots.txt, чтобы спрятать служебную информацию, например, какие-то данные клиентов, от поисковых роботов, чтобы она не появилась в рейтинге поисковиков. Но, что очень важно, инструкции крайне необходимы для SEO.

Неуникальный, демонстрационный контент, пустые страницы, дубли, пагинация (разделение информации на отдельные страницы) при попадании в индекс негативно повлияют на поисковую оптимизацию. Чтобы этого не допустить, не нанести урон эффективности продвижения, нежелательное содержимое сайта скрывают от краулеров.

Одной из наиболее серьезных ошибок является допущение неточности или неправильной инструкции в файле robots.txt. Если поисковый робот не может получить доступ к вашему сайту из-за этой ошибки, то он может быть полностью исключен из поискового индекса. Это означает, что сайт больше не будет виден пользователям, ваш трафик с поисковых систем резко упадет.

С другой стороны, правильная настройка файла robots.txt позволяет оптимизировать индексацию, направляя поисковые роботы к наиболее важным страницам сайта. Это улучшит видимость контента и увеличит трафик, поступающий на ваш проект. Тем более, если сайт постоянно обновляется с новым контентом: robots.txt поможет роботам быстро находить и индексировать свежие материалы, они появится в поиске, позиции в рейтинге будут расти.

Корректная настройка файла robots.txt – неотъемлемая часть работ в рамках SEO.

Где должен находиться файл исключений

Файл robots.txt должен находиться в корне вашего сайта (в корневой директории). Например, https://alma-com.ru/robots.txt. Это место, куда обращаются поисковые роботы при сканировании онлайн-ресурса.

Важно, чтобы файл robots.txt был доступен для чтения всем поисковым роботам. Убедитесь, что он не закрыт паролем или другими ограничениями доступа. Если поисковый робот не может получить доступ к этому файлу, он не сможет прочитать инструкции, и это может привести к неправильной индексации сайта.

Способы создания robots.txt

Создать файл исключений для роботов можно вручную, использовав шаблон или онлайн-генератор.

Создание вручную

При создании вручную понадобится текстовый редактор. Вы можете использовать такие программы, как:

  • Блокнот
  • Microsoft Word
  • NotePad++
  • Sublime Text
  • И другие по вашему выбору.

Откройте текстовый редактор и создайте новый документ.

В этом документе вы будете прописывать инструкции для поисковых роботов в зависимости от ваших целей. Например, вы можете разрешить или запретить индексацию определенных страниц вашего сайта.

Сохраните файл в формате .txt. Важно, чтобы название файла было именно "robots". Таким образом, он будет именоваться как robots.txt.

Теперь, когда у вас есть файл robots.txt, вы должны разместить его в корневой каталог вашего сайта. Как мы выше сказали, это место, на которое краулеры смотрят в первую очередь.

Для размещения файла robots.txt на сервере используются различные методы:

  • Панель управления сервером: Cpanel или ISPmanager предоставляют удобные средства для загрузки файлов на сервер.
  • Если у вас есть административная панель (CMS) для управления сайтом, вы можете воспользоваться ею для загрузки файла инструкций на сервер.
  • Для опытных пользователей доступен FTP-клиент Total Commander или FileZilla, с помощью которого можно управлять файлами на сервере.

Некоторые системы управления сайтами (CMS) предоставляют встроенные средства для создания и настройки файла robots.txt прямо из административной панели сайта. Если ваша CMS поддерживает эту функцию, ее использование может быть более удобным и быстрым способом настройки.

Шаблон

Другой вариант – готовые шаблоны. Подходят для популярных систем управления контентом – WordPress, Joomla, Drupal и других. Обеспечивают прописывание стандартных правил и учитывают особенности движка сайта. Являются отличным способом сэкономить время и избежать повторного написания одних и тех же директив. Однако для достижения полноценной работы идеально настроенного файла robots.txt все же требуются знания и понимание специфики каждого отдельного проекта.

Важно помнить, что каждый сайт является уникальным, и шаблоны могут потребовать индивидуальной настройки для достижения оптимальных результатов.

Специальный сервис

Альтернатива – онлайн-сервисы, которые предлагают простое и эффективное решение – автоматическую генерацию файла robots.txt. Если вы владелец множества сайтов, то вручную прописывать однотипные инструкции для каждого из них будет крайне утомительно. В этом случае удобно воспользоваться специальным сервисом, например, CY-PR.

Такой подход особенно полезен при наличии большого количества веб-проектов, поскольку он значительно экономит время и силы.

Но будьте внимательны! Автоматически сгенерированные файлы robots.txt, хотя и предлагают готовое решение, всё же могут потребовать некоторой корректировки. Все-таки лучше обладать базовыми знаниями синтаксиса и правил написания этого файла, чтобы вносить необходимые изменения самостоятельно. Но в целом специальные сервисы позволяют упростить и автоматизировать процесс создания и настройки robots.txt, сэкономив при этом время и повысив эффективность сайта.

Директивы для роботов поисковых систем

Файл robots.txt – важный инструмент SEO-специалиста, который используется для управления поведением поисковых роботов на его сайте. Он содержит специальные инструкции, называемые директивами, которые сообщают роботам, какие страницы должны быть проиндексированы, а какие игнорированы. Директивы robots.txt позволяют SEO-специалистам контролировать процесс индексации контента и обеспечивать более эффективное взаимодействие с поисковыми системами.

Рассмотрим ниже ключевые инструкции для robots.txt.

User-Agent

Эта директива открывающая, основная, обязательная, определяет поискового робота, которому предназначены последующие инструкции. С помощью User-agent можно указать конкретному роботу, как обрабатывать сайт или определить правила для всех роботов.

Disallow

Директива Disallow указывает роботам, какие страницы или каталоги следует исключить из индексации. Любая страница, указанная после директивы Disallow, будет игнорироваться роботами при процессе индексации.

Allow

Несмотря на то, что инструкция Disallow указывает роботам, какие страницы необходимо исключить из индексации, есть директива Allow, что позволяет разрешить доступ к определенным ресурсам. Она указывает, какие страницы или каталоги могут быть проиндексированы, даже если другие директивы Disallow запрещают общий доступ.

Sitemap

Данная директива позволяет указать путь к файлу XML-карты сайта (Sitemap) для упрощения процесса индексации. Роботы могут использовать эту информацию для более полного изучения сайта и обнаружения нового контента.

Clean-param

Одной из нетривиальных директив, которую можно использовать в файле robots.txt, является Clean-param. Данная директива предоставляет удобный способ управления параметрами URL-адресов при индексации поисковыми роботами.

URL-параметры имеют большое значение для работы многих веб-приложений. Они позволяют передавать информацию между страницами, определять динамический контент и обеспечивать уникальность URL. Однако, в случае с поисковой индексацией, URL-параметры могут стать проблемой.

Одним из распространенных вызовов на сайтах, особенно интернет-магазинах, является обработка динамических параметров в URL-адресах. Эти параметры часто используются для передачи информации об источниках сессий и персональных идентификаторах посетителей сайта. Например, уникальные идентификаторы сессии, реферальные коды или информация о действиях пользователя.

Проблема с динамическими параметрами состоит в том, что они могут привести к созданию множества дубликатов контента, поскольку каждый параметр создает новую версию страницы. К примеру, если у разных посетителей сайта есть разные идентификаторы сессии, то каждая версия URL-адреса с этим параметром будет рассматриваться поисковыми системами как отдельная страница. Это может привести к проблемам индексации, разбавлению рейтинга страниц или дублированию контента.

Зачастую роботы поисковых систем неспособны обрабатывать эти параметры правильно или необходимо исключить определенные комбинации параметров из индексации.

И здесь на помощь приходит директива Clean-param. Она предназначена для удаления или исключения конкретных параметров, что облегчает их обработку роботами поисковиков.

Crawl-delay

Директива Crawl-delay позволяет контролировать скорость просмотра страниц и обхода их поисковыми роботами.

Краулеры имеют свои лимиты на количество запросов, которые они могут отправлять на веб-сервер за определенный период времени. Если ваш сайт содержит большое количество страниц или очень ресурсоемкий контент, то иногда вы можете столкнуться с проблемой, когда роботы отправляют слишком много запросов одновременно, что может вызвать перегрузку сервера и снижение производительности сайта.

Директива Crawl-delay позволяет установить промежуток времени между запросами роботов. Вы можете указать время задержки в секундах после директивы Crawl-delay в файле robots.txt. Например, если вы хотите установить задержку в 5 секунд между запросами, нужно добавить следующую строку в файл robots.txt:

Crawl-delay: 5

Это означает, что роботу необходимо подождать 5 секунд перед отправкой следующего запроса на сервер. Таким образом вы можете контролировать количество запросов в определенный промежуток времени и снизить нагрузку на сервер.

Директива Crawl-delay особенно полезна для сайтов с ограниченными ресурсами, размещенных на общих хостингах или с большим количеством страниц, которые требуют значительных вычислительных мощностей. Она позволяет поддерживать стабильную производительность сервера и улучшить пользовательский опыт.

Однако важно понимать, что не все роботы соблюдают инструкции Crawl-delay. Некоторые пауки могут проигнорировать эту директиву, поэтому она не гарантирует полную регулировку скорости просмотра сайта. Яндекс вместо Crawl-delay рекомендует использовать настройку скорости обхода в сервисе “Вебмастер”.

Что следует закрыть от индексации

Избегайте дублирования страниц!

Один из главных аспектов, который следует исключить из индекса, это дублирование страниц.

Каждая страница вашего сайта должна иметь уникальный URL, чтобы избежать создания нескольких версий одной и той же страницы. Например, один и тот же контент может быть доступен по различным техническим URL-адресам или из-за динамических ссылок. Для исключения дублей вы можете использовать маски в файле robots.txt, например:

Disallow: /*?*

Disallow: /*%

Disallow: /index.php

Disallow: /*?page=

Disallow: /*&page=

Исключите конфиденциальные данные или страницы!

Если у вас есть страницы, содержащие конфиденциальную информацию или данные, которые не должны быть доступны в поиске, их следует исключить из индекса.

Такие страницы могут включать разделы администрирования, личные профили пользователей или временные страницы, которые еще не должны быть доступны для показа в результатах поиска. Используйте директиву Disallow, чтобы указать поисковым роботам не индексировать эти страницы.

Закройте от ботов нежелательный, неуникальный контент!

Если у вас есть определенные разделы сайта или типы контента, которые не являются релевантными, с низкой уникальностью или неинтересными для пользователей и поисковых систем, их также следует исключить из индекса.

Например, временные страницы с ошибками, дубликаты контента или низкокачественные материалы. Закрытие нежелательных данных от индексации поможет сосредоточить внимание поисковых роботов на более значимом и полезном контенте вашего сайта.

Скройте страницы, связанные со сценариями!

Это страницы, которые выводят сообщения благодарности или подтверждения, например, “Спасибо за ваш отзыв!”. Исключение подобных страниц из индекса с помощью директивы Disallow в файле robots.txt поможет избежать их нежелательной индексации и показа в результатах поиска.

Закройте страницы, содержащие идентификаторы сессий или другие индикаторы, связанные с сеансами пользователей!

Обычно такие страницы имеют URL с параметрами, например, *PHPSESSID= или *session_id=. Они могут создавать проблемы с индексацией и порождать дублированный контент. Поэтому рекомендуется использовать директиву Disallow для исключения.

Исключите из индексации файлы и разделы, связанные с движком управления сайтом!

К ним относятся файлы шаблонов, административная панель, различные темы, базы данных и другие элементы. Исключение этих файлов с помощью соответствующих директив Disallow помогает предотвратить их индексацию и защитить административные или конфиденциальные данные от случайного доступа.

Закрытие указанных элементов и страниц из индексирования поможет повысить эффективность индексации вашего сайта, сократить количество дублей и обеспечить более релевантные результаты поиска. Но важно помнить, что файл robots.txt не ограничивает доступ пользователей к этим страницам. Если требуется полная защита или ограничение доступа к конкретному контенту, вам следует использовать дополнительные методы – аутентификацию пользователей или настройку прав доступа на сервере. При работе с robots.txt мы защищаем данные от показа в результатах поиска, но не более!

Что учитывать при редактировании robots.txt

При создании файла robots.txt важно соблюдать синтаксические правила и разбираться в особенностях, которые определяют его правильное функционирование. Рассмотрим эти особенности:

  • Имя файла должно быть "robots.txt". Важно использовать точное название файла без заглавных букв или кириллицы. Это поможет серверу правильно распознать и обрабатывать данный файл.
  • Один файл на сайт. Для каждого сайта должен быть создан только один файл robots.txt. Использование более одного файла для одного веб-ресурса может вызвать путаницу и проблемы в работе поисковых роботов.
  • Размещение в корневой папке. Файл robots.txt следует разместить в корневой папке вашего сайта. Пример мы уже указывали, повторимся: для сайта https://alma-com.ru/ файл должен быть размещен по адресу https://alma-com.ru/robots.txt. Также допустимо разместить по URL с субдоменами или на нестандартных портах.
  • Комментарии в файле. Чтобы сделать комментарии в robots.txt, вы можете использовать символ "#". Любой текст, идущий после символа "#", будет считаться комментарием. Это позволяет оптимизаторам добавлять заметки или оставлять напоминания о причинах блокировки или разрешения доступа к определенным страницам или разделам.
  • Кодировка. Robots.txt должен быть создан в формате текстового документа и быть закодированным в UTF-8, который поддерживает ASCII. Использование других символов не рекомендуется, поскольку они могут вызвать проблемы при обработке файла.
  • Группы директив. Файл robots.txt может содержать группы директив. Внутри каждой группы можно добавлять несколько инструкций. Каждая директива должна быть записана в отдельной строке для ясности и читаемости файла.
  • Внимание к группе. Группа в robots.txt играет важную роль в предоставлении информации для каждого User-agent и указывает, к каким файлам и каталогам этот агент может получить доступ, а к каким – нет. При чтении файла robots.txt инструкции в группах просматриваются сверху вниз. Когда поисковый бот обрабатывает файл robots.txt, он будет следовать директивам только одной группы, где User-agent соответствует его идентификатору лучше всего.
  • Разрешение для обхода всех страниц. При условии, что они не запрещены директивой Disallow, директива является пустой, файл имеет размер более 32 КБ или не является доступным, возвращает код ошибки 404 или любой другой ответ, отличный от HTTP-кода со статусом 200 OK, или robots.txt вовсе отсутствует.
  • Чувствительность к регистру. Директивы в файле robots.txt зависят от регистра символов. Например, если в файле присутствует директива Disallow: /file.asp, это запретит доступ к URL-адресу http://alma-com.ru/file.asp, но не повлияет на адрес http://alma-com.ru/File.asp.
  • Пробелы. Количество пробелов в файле robots.txt не оказывает влияния на работу инструкций. Независимо от того, сколько пробелов вы используете, файл будет обрабатываться правильно. Однако рекомендуется использовать пробелы только в соответствующих местах файла для улучшения его читаемости и облегчения ориентирования.
  • Закрывающие символы. Их нет. Не нужно добавлять точку или другие символы в конце каждой директивы. Конец строки с директивой является достаточным для правильной интерпретации инструкций.
  • Названия инструкций. Должны быть указаны с заглавной буквы на латинице для достижения правильного синтаксиса. Например, правильное написание - " Disallow", а неправильное - "DISALLOW". Вы должны обязательно обратить внимание на регистр букв для корректного функционирования директив.
  • Пустой перенос строки только при указании User-Agent. После указания конкретного User-Agent следует добавить пустой перенос строки. Сигнализирует о конце инструкций для данного агента. Если новый User-Agent указан без пустого переноса строки, может быть проигнорирован и неправильно учтен.
  • Символ "/". Используется для обозначения статических страниц в директивах. Например, применение директивы "Disallow: /wp-includes" указывает на запрет индексации папки "wp-includes" в ядре системы управления контентом WordPress.
  • Последовательность директив. Можно о ней не заботиться, роботы не обращают на последовательность внимание. Но обратите внимание, если имеются директивы Allow и Disallow, которые конфликтуют и противоречат друг другу, директива Allow будет иметь более высокий приоритет.
  • Не нужно прописывать инструкции для каждой страницы отдельно. Хотя это возможно, но рекомендуется использовать такой подход только в исключительных случаях. Вместо этого старайтесь указывать общие директивы, которые применимы ко всем типовым URL-адресам на вашем интернет-ресурсе.

Эффективный файл robots.txt должен быть кратким по объему, но в то же время содержательным по смыслу. Он должен ясно и точно указывать инструкции для поисковых роботов, определяя доступ и индексацию сайта. Чем более лаконичным и понятным будет файл robots.txt, тем легче его будут обрабатывать и применять поисковые роботы.

Следуя этим рекомендациям, сможете создать корректный файл robots.txt, который обеспечит индексацию только нужных страниц, развивая эффективность вашего онлайн-проекта.

Проверка файла

После успешной загрузки файла robots.txt на сервер, необходимо убедиться, что он доступен, написан правильно и не содержит ошибок. Этот шаг критичен для обеспечения правильной индексации вашего сайта поисковыми системами. Давайте рассмотрим, как это сделать.

Проверка на сайте

Если вы загрузили robots.txt в корневой каталог вашего сайта, то он становится доступным по ссылке вида https://alma-com.ru/robots.txt (вместо alma-com.ru ваш сайт). Этот файл общедоступен, и любой пользователь может посмотреть и изучить его. Не только вы, но и поисковые роботы могут видеть его инструкции.

Проверка на наличие ошибок

Существует два основных способа проверки robots.txt на наличие ошибок:

  1. Панель Google Search Console
  2. Google Search Console предоставляет собой удобный инструмент для анализа robots.txt. Загрузите файл на свой сервер, затем зайдите в Google Search Console, выберите свой сайт и перейдите в раздел "Покрытие". Здесь вы сможете проверить, распознает ли Google ваш файл инструкций и нет ли в нем синтаксических ошибок.

  3. “Вебмастер” от Яндекса
  4. Или откройте сервис “Вебмастер” от Яндекса. После загрузки файла на сервер, зайдите в “Вебмастер”, выберите ваш сайт и перейдите в раздел "Инструменты". Здесь вы сможете проверить наличие ошибок и правильность написания файла robots.txt. Проверка файла поможет убедиться, что ваш сайт взаимодействует с поисковыми системами правильно и эффективно.

Вместо заключения

Файл robots представляет собой один из важнейших инструментов для эффективного продвижения в сфере SEO. С его помощью вы можете оказывать прямое воздействие на индексацию разнообразных страниц и разделов вашего веб-ресурса.

Правильно настроенный файл способствует оптимизации расходов краулера, который ограничен по ресурсам. Есть такое понятие “Краулинговый бюджет” – количество страниц вашего сайта, которое поисковый робот может сканировать.

Таким образом, корректно настроенный файл инструкций упрощает работу поисковым системам, так как им не придется сканировать сотни служебных страниц, ресурс будет расходоваться только на нужное для продвижения. Кроме того, снижает нагрузку на ваш сервер и исключает появление дублей страниц в результатах поиска. Главный результат – сканирование быстрое и без ошибок, отмеченные страницы точно не появится в поисковой выдаче.

Оставьте заявку и обсудите ваши задачи со специалистами
Дмитрий, SEO-оптимизатор
Дмитрий, SEO-оптимизатор

Наши менеджеры готовы ответить на Ваши вопросы!

Сергей
Валентина
Владислав
Россия
Позвоните нам или оставьте заявку! Мы свяжемся с Вами в течение пятнадцати минут!
Написать нам
Написать нам
Заказать звонок
Заказать звонок