Технический аудит сайта своими силами

Технический аудит сайта — фундамент эффективного SEO. Прежде чем писать тексты и закупать ссылки, нужно убедиться, что сайт корректно индексируется, работает быстро, не содержит ошибок и не мешает поисковикам его анализировать. В этом материале — практическое руководство, как провести технический аудит своими руками, без сложных инструментов и дорогих сервисов.

Технический аудит сайта своими силами

1. Что такое технический аудит и зачем он нужен

Технический SEO-аудит — это комплексная проверка сайта с точки зрения индексации, производительности, доступности, структуры и корректности кода. Его цель — найти ошибки, которые мешают поисковикам (Google, Яндекс) понять и ранжировать сайт.

Без аудита можно тратить бюджет на контент и ссылки, не замечая, что половина страниц недоступна, каноникалы неверные, а скорость загрузки ниже критических значений Core Web Vitals. Результат — стагнация позиций и потеря трафика.

Когда проводить аудит:

  • перед запуском нового сайта;
  • после редизайна или смены CMS;
  • при падении позиций и трафика;
  • раз в 3–6 месяцев — для профилактики.

2. Подготовка к аудиту: инструменты

Для базового аудита достаточно бесплатных инструментов:

  • Google Search Console— ошибки индексации, страницы в индексе, Core Web Vitals;
  • Яндекс.Вебмастер— статус страниц, robots.txt, турбо-страницы, мобильная версия;
  • PageSpeed Insights— оценка скорости загрузки и CWV;
  • Screaming Frog SEO Spider(или Netpeak Spider) — анализ структуры, мета-тегов, редиректов;
  • SSL Labs Test— проверка HTTPS и сертификата;
  • Ahrefs / Serpstat / SiteAnalyzer— внешние ссылки и дубликаты.

Полезно также иметь доступ к логам сервера(Apache/Nginx), чтобы видеть, как поисковые боты посещают сайт.

3. Проверка индексации

Первый шаг — убедиться, что сайт индексируется корректно, без дублей и «пустых» страниц.

  1. Проверьте в Google: site:example.ru— сколько страниц найдено.
  2. Сравните с реальным числом страниц (через CMS или sitemap.xml).
  3. Исключите из индекса админку, корзины, фильтры, пагинацию, тестовые URL.

Типовые проблемы индексации:

  • отсутствие robots.txtили неправильные директивы;
  • отсутствие sitemap.xml или битые ссылки в нём;
  • плохие редиректы (302 вместо 301);
  • дубли страниц из-за параметров (utm, sort, page).
Ошибка Причина Решение
Пустые страницы в индексе Отсутствует meta robots="noindex" Добавить директиву на неинформативных URL
Много дублей Параметры сортировки, фильтры Настроить canonical или закрыть в robots.txt
Нет sitemap.xml Разработчики забыли добавить Сгенерировать и прописать в robots.txt

4. Проверка robots.txt и sitemap.xml

Файлы robots.txtи sitemap.xml— фундамент технического SEO. Robots управляет индексацией, sitemap показывает структуру.

Проверяем robots.txt:

  • есть ли директива Host:и ссылка на sitemap;
  • нет ли случайных запретов (Disallow: /или Disallow: *);
  • поисковики не блокируются для нужных разделов;
  • файл доступен по адресу /robots.txt.
User-agent: *
Disallow: /admin/
Disallow: /tmp/
Allow: / Host: example.ru
Sitemap: https://example.ru/sitemap.xml 

Проверяем sitemap.xml:

  • валидный XML, открывается в браузере без ошибок;
  • все URL доступны и не отдают 404;
  • включены только нужные страницы;
  • добавлен в Search Console и Вебмастер.

5. Проверка структуры сайта и навигации

Поисковики ценят логичную структуру: чем меньше вложенность и чище URL, тем быстрее индексация и выше релевантность.

  • Глубина вложенности — не более трёх кликов до любой страницы;
  • Все разделы связаны внутренними ссылками;
  • Есть хлебные крошки с микроразметкой BreadcrumbList;
  • Пагинация оформлена корректно (rel="next/prev"или на уровне контента);
  • URL содержат ключевые слова, без ID и сессий;

Чек-лист структуры:

  • Меню доступно без JS;
  • 404 возвращает правильный статус;
  • Нет «сиротских» страниц;
  • Футер не перегружен ссылками;
  • Сайт доступен по одному варианту (https://example.ru без www).

6. Проверка скорости и Core Web Vitals

Core Web Vitals — метрики, влияющие на ранжирование. Проверяем через PageSpeed Insights, Lighthouse или Search Console.

Метрика Что измеряет Норма
LCP (Largest Contentful Paint) скорость отображения основного контента < 2,5 сек
FID (First Input Delay) отзывчивость при первом взаимодействии < 100 мс
CLS (Cumulative Layout Shift) стабильность макета при загрузке < 0,1

Чтобы ускорить сайт:

  • используйте сжатие Brotli или Gzip;
  • оптимизируйте изображения (WebP, AVIF);
  • вынесите CSS и JS в кэш с deferи preload;
  • удалите неиспользуемый JS и CSS;
  • используйте CDN и HTTP/3.

7. Проверка мобильной адаптивности

Google перешёл на mobile-first индексацию, поэтому мобильная версия должна быть безупречной:

  • Шрифт не меньше 14px;
  • Кнопки не перекрываются;
  • Контент не выходит за экран;
  • Нет горизонтальной прокрутки;
  • Вёрстка адаптивна, без отдельных m-доменов.

Проверить можно в инструментах разработчика Chrome (Ctrl+Shift+M) или через тест Google Mobile Friendly.

8. HTTPS, SSL и безопасность

HTTPS — обязательный фактор ранжирования и доверия. Проверяем:

  • наличие SSL-сертификата (Let's Encrypt, Cloudflare, Sectigo);
  • перенаправление всех http → https;
  • установлен флаг Secureдля cookies;
  • включен HSTS и заголовки безопасности (CSP, X-Frame-Options, Referrer-Policy);
  • страницы не содержат смешанного контента (mixed content).

Проверка: SSL Labs Testили браузерная консоль (DevTools → Security).

9. Проверка редиректов и каноникалов

Редиректы должны быть постоянными (301), а не временными (302). Проверяем все варианты домена:

  • http → https;
  • www → без www;
  • index.php / index.html → на корневой URL;
  • URL с UTM и параметрами → canonical на основную страницу.

Список редиректов удобно смотреть через Screaming Frog → Reports → Redirect Chains.

10. Проверка ошибок 404 и 500

Ошибки 404 (страница не найдена) и 5xx (серверные) портят UX и снижают crawl budget. Используйте отчёты Search Console, логи и краулеры.

Убедитесь, что:

  • страница 404 отдает код 404, а не 200;
  • у неё есть навигация, поиск и ссылки на разделы;
  • сервер не возвращает 500 при пиковых нагрузках;
  • редиректы не образуют цепочки.

11. Микроразметка и структура данных

Микроразметка помогает поисковикам понимать контент. Проверьте JSON-LD через Rich Results Test.

  • На статьях — Articleили BlogPosting;
  • На хлебных крошках — BreadcrumbList;
  • На товарах — Product+ Offer;
  • На организации — Organizationили LocalBusiness;
  • На отзывах — Review.

12. Проверка дублирования контента

Дубли — частая причина проседания трафика. Проверяем:

  • страницы с и без слеша (/) ведут на один URL;
  • варианты с http/https и www/без www редиректятся;
  • фильтры, теги, сортировки не создают бесконечные варианты;
  • тексты на похожих страницах отличаются хотя бы на 30–40%;
  • в мета-тегах нет дублирующихся Title и Description.

13. Внутренняя перелинковка

Хорошая перелинковка помогает распределять вес и ускоряет индексацию. Проверяем:

  • каждая важная страница имеет минимум 2–3 внутренних ссылки;
  • нет ссылок на несуществующие страницы (404);
  • нет циклических редиректов;
  • в блоке «Читайте также» используются релевантные ссылки;
  • якорные тексты не переспамлены.

14. Проверка Core Web Vitals в динамике

После исправлений важно контролировать метрики в динамике. Используйте отчёты Google Search Console → «Основные интернет-показатели». Улучшения появляются не сразу — ждите 30–60 дней после фиксации ошибок.

15. Финальный чек-лист технического аудита

Проверка Да/Нет Комментарий
robots.txt корректен Host и Sitemap указаны
sitemap.xml работает добавлен в Search Console
HTTPS и SSL без ошибок сертификат актуален
Core Web Vitals в норме LCP < 2.5s, CLS < 0.1
Мобильная версия адаптивна mobile-friendly тест
404 и редиректы корректны нет цепочек
Микроразметка валидна Rich Results Test
Перелинковка логична нет сиротских страниц
Проводите аудит каждые 3–6 месяцев — особенно после обновлений сайта или CMS.

FAQ: часто задаваемые вопросы о техническом аудите

Сколько времени занимает технический аудит сайта?

Для небольшого сайта — 2–3 часа. Для крупных порталов с сотнями страниц — до 2–3 дней.

Можно ли сделать аудит без доступа к CMS?

Да, базовый аудит проводится по коду и внешним инструментам. Но для проверки дублей и структуры доступ к панели желателен.

Как часто нужно проводить технический аудит?

Раз в полгода — стандарт. После редизайна или смены хостинга — обязательно.

Можно ли улучшить SEO без технического аудита?

Можно, но эффект будет временным. Без устранения технических ошибок продвижение теряет эффективность.

Какие ошибки самые критичные?

Блокировка индексации в robots.txt, дубли URL, медленная загрузка, 404 без статуса, отсутствие HTTPS, неверный canonical.

Итог

Технический аудит — это не разовая проверка, а регулярная профилактика SEO. Раз в несколько месяцев стоит проходить чек-лист: проверить индексацию, скорость, ошибки, микроразметку и безопасность. Даже один исправленный redirect или оптимизированный robots.txt может вернуть позиции и улучшить видимость сайта в поиске. Главное — системность: следить за техническим здоровьем проекта нужно так же регулярно, как обновлять контент.