Що таке файл robots.txt і як його правильно скласти | InBiz

Схематичне зображення процесу створення та роботи файлу robots.txt для SEO — директиви Allow, Disallow, приклад sitemap, пошуковий бот перед сайтом.

Файл robots.txt — це текстовий файл, який розміщується в кореневій директорії сайту і містить інструкції для пошукових роботів щодо того, які сторінки можна або не можна індексувати. Це важливий інструмент технічної SEO-оптимізації.

Для чого потрібен файл robots.txt

Основні завдання цього файлу:

  • Заборонити індексацію технічних або службових сторінок (наприклад, /admin, /cart, /wp-login.php);
  • Уникнути дублювання контенту;
  • Оптимізувати час обходу сайту роботами (Crawl Budget);
  • Вказати шлях до карти сайту (sitemap.xml).

Як створити файл robots.txt

Це звичайний текстовий файл, який має назву robots.txt і розміщується за адресою https://ваш-домен.com/robots.txt. Його можна створити у звичайному текстовому редакторі або за допомогою SEO-плагіна (наприклад, Yoast SEO).

Приклад правильного robots.txt


User-agent: *
Disallow: /wp-admin/
Disallow: /wp-login.php
Allow: /wp-admin/admin-ajax.php
Sitemap: https://ваш-домен.com/sitemap.xml
    

Пояснення основних директив

  • User-agent — визначає, до якого робота застосовуються правила (символ * — до всіх роботів);
  • Disallow — забороняє доступ до зазначених сторінок або директорій;
  • Allow — дозволяє доступ до певних сторінок (актуально для Googlebot);
  • Sitemap — вказує пошуковим системам розташування файлу sitemap.xml.

Часті помилки при складанні robots.txt

  • Повна заборона для всіх сторінок сайту (Disallow: /);
  • Відсутність дозволу для важливих скриптів (наприклад, AJAX);
  • Неправильне розміщення файлу — не в корені сайту;
  • Відсутність вказівки на sitemap.xml.

Як перевірити файл robots.txt

Скористайтесь інструментом «robots.txt Tester» у Google Search Console або сторонніми сервісами на кшталт Screaming Frog, Ahrefs, Sitechecker тощо.

Висновок

Правильно складений файл robots.txt — це важливий елемент оптимізації сайту для пошукових систем. Він допомагає контролювати індексацію, захищає службові сторінки від показу у видачі й оптимізує ресурси сканування. Обов’язково перевіряйте його після кожної зміни структури сайту або переїзду.