Технический аудит сайта своими силами
Технический аудит сайта — фундамент эффективного SEO. Прежде чем писать тексты и закупать ссылки, нужно убедиться, что сайт корректно индексируется, работает быстро, не содержит ошибок и не мешает поисковикам его анализировать. В этом материале — практическое руководство, как провести технический аудит своими руками, без сложных инструментов и дорогих сервисов.
 
    1. Что такое технический аудит и зачем он нужен
Технический SEO-аудит — это комплексная проверка сайта с точки зрения индексации, производительности, доступности, структуры и корректности кода. Его цель — найти ошибки, которые мешают поисковикам (Google, Яндекс) понять и ранжировать сайт.
Без аудита можно тратить бюджет на контент и ссылки, не замечая, что половина страниц недоступна, каноникалы неверные, а скорость загрузки ниже критических значений Core Web Vitals. Результат — стагнация позиций и потеря трафика.
Когда проводить аудит:
- перед запуском нового сайта;
- после редизайна или смены CMS;
- при падении позиций и трафика;
- раз в 3–6 месяцев — для профилактики.
2. Подготовка к аудиту: инструменты
Для базового аудита достаточно бесплатных инструментов:
- Google Search Console— ошибки индексации, страницы в индексе, Core Web Vitals;
- Яндекс.Вебмастер— статус страниц, robots.txt, турбо-страницы, мобильная версия;
- PageSpeed Insights— оценка скорости загрузки и CWV;
- Screaming Frog SEO Spider(или Netpeak Spider) — анализ структуры, мета-тегов, редиректов;
- SSL Labs Test— проверка HTTPS и сертификата;
- Ahrefs / Serpstat / SiteAnalyzer— внешние ссылки и дубликаты.
Полезно также иметь доступ к логам сервера(Apache/Nginx), чтобы видеть, как поисковые боты посещают сайт.
3. Проверка индексации
Первый шаг — убедиться, что сайт индексируется корректно, без дублей и «пустых» страниц.
- Проверьте в Google: site:example.ru— сколько страниц найдено.
- Сравните с реальным числом страниц (через CMS или sitemap.xml).
- Исключите из индекса админку, корзины, фильтры, пагинацию, тестовые URL.
Типовые проблемы индексации:
- отсутствие robots.txtили неправильные директивы;
- отсутствие sitemap.xml или битые ссылки в нём;
- плохие редиректы (302 вместо 301);
- дубли страниц из-за параметров (utm, sort, page).
| Ошибка | Причина | Решение | 
|---|---|---|
| Пустые страницы в индексе | Отсутствует meta robots="noindex" | Добавить директиву на неинформативных URL | 
| Много дублей | Параметры сортировки, фильтры | Настроить canonical или закрыть в robots.txt | 
| Нет sitemap.xml | Разработчики забыли добавить | Сгенерировать и прописать в robots.txt | 
4. Проверка robots.txt и sitemap.xml
Файлы robots.txtи sitemap.xml— фундамент технического SEO. Robots управляет индексацией, sitemap показывает структуру.
Проверяем robots.txt:
- есть ли директива Host:и ссылка на sitemap;
- нет ли случайных запретов (Disallow: /илиDisallow: *);
- поисковики не блокируются для нужных разделов;
- файл доступен по адресу /robots.txt.
User-agent: *
Disallow: /admin/
Disallow: /tmp/
Allow: / Host: example.ru
Sitemap: https://example.ru/sitemap.xml Проверяем sitemap.xml:
- валидный XML, открывается в браузере без ошибок;
- все URL доступны и не отдают 404;
- включены только нужные страницы;
- добавлен в Search Console и Вебмастер.
5. Проверка структуры сайта и навигации
Поисковики ценят логичную структуру: чем меньше вложенность и чище URL, тем быстрее индексация и выше релевантность.
- Глубина вложенности — не более трёх кликов до любой страницы;
- Все разделы связаны внутренними ссылками;
- Есть хлебные крошки с микроразметкой BreadcrumbList;
- Пагинация оформлена корректно (rel="next/prev"или на уровне контента);
- URL содержат ключевые слова, без ID и сессий;
Чек-лист структуры:
- Меню доступно без JS;
- 404 возвращает правильный статус;
- Нет «сиротских» страниц;
- Футер не перегружен ссылками;
- Сайт доступен по одному варианту (https://example.ru без www).
6. Проверка скорости и Core Web Vitals
Core Web Vitals — метрики, влияющие на ранжирование. Проверяем через PageSpeed Insights, Lighthouse или Search Console.
| Метрика | Что измеряет | Норма | 
|---|---|---|
| LCP (Largest Contentful Paint) | скорость отображения основного контента | < 2,5 сек | 
| FID (First Input Delay) | отзывчивость при первом взаимодействии | < 100 мс | 
| CLS (Cumulative Layout Shift) | стабильность макета при загрузке | < 0,1 | 
Чтобы ускорить сайт:
- используйте сжатие Brotli или Gzip;
- оптимизируйте изображения (WebP, AVIF);
- вынесите CSS и JS в кэш с deferиpreload;
- удалите неиспользуемый JS и CSS;
- используйте CDN и HTTP/3.
7. Проверка мобильной адаптивности
Google перешёл на mobile-first индексацию, поэтому мобильная версия должна быть безупречной:
- Шрифт не меньше 14px;
- Кнопки не перекрываются;
- Контент не выходит за экран;
- Нет горизонтальной прокрутки;
- Вёрстка адаптивна, без отдельных m-доменов.
Проверить можно в инструментах разработчика Chrome (Ctrl+Shift+M) или через тест Google Mobile Friendly.
8. HTTPS, SSL и безопасность
HTTPS — обязательный фактор ранжирования и доверия. Проверяем:
- наличие SSL-сертификата (Let's Encrypt, Cloudflare, Sectigo);
- перенаправление всех http → https;
- установлен флаг Secureдля cookies;
- включен HSTS и заголовки безопасности (CSP, X-Frame-Options, Referrer-Policy);
- страницы не содержат смешанного контента (mixed content).
Проверка: SSL Labs Testили браузерная консоль (DevTools → Security).
9. Проверка редиректов и каноникалов
Редиректы должны быть постоянными (301), а не временными (302). Проверяем все варианты домена:
- http → https;
- www → без www;
- index.php / index.html → на корневой URL;
- URL с UTM и параметрами → canonical на основную страницу.
Список редиректов удобно смотреть через Screaming Frog → Reports → Redirect Chains.
10. Проверка ошибок 404 и 500
Ошибки 404 (страница не найдена) и 5xx (серверные) портят UX и снижают crawl budget. Используйте отчёты Search Console, логи и краулеры.
Убедитесь, что:
- страница 404 отдает код 404, а не 200;
- у неё есть навигация, поиск и ссылки на разделы;
- сервер не возвращает 500 при пиковых нагрузках;
- редиректы не образуют цепочки.
11. Микроразметка и структура данных
Микроразметка помогает поисковикам понимать контент. Проверьте JSON-LD через Rich Results Test.
- На статьях — ArticleилиBlogPosting;
- На хлебных крошках — BreadcrumbList;
- На товарах — Product+Offer;
- На организации — OrganizationилиLocalBusiness;
- На отзывах — Review.
12. Проверка дублирования контента
Дубли — частая причина проседания трафика. Проверяем:
- страницы с и без слеша (/) ведут на один URL;
- варианты с http/https и www/без www редиректятся;
- фильтры, теги, сортировки не создают бесконечные варианты;
- тексты на похожих страницах отличаются хотя бы на 30–40%;
- в мета-тегах нет дублирующихся Title и Description.
13. Внутренняя перелинковка
Хорошая перелинковка помогает распределять вес и ускоряет индексацию. Проверяем:
- каждая важная страница имеет минимум 2–3 внутренних ссылки;
- нет ссылок на несуществующие страницы (404);
- нет циклических редиректов;
- в блоке «Читайте также» используются релевантные ссылки;
- якорные тексты не переспамлены.
14. Проверка Core Web Vitals в динамике
После исправлений важно контролировать метрики в динамике. Используйте отчёты Google Search Console → «Основные интернет-показатели». Улучшения появляются не сразу — ждите 30–60 дней после фиксации ошибок.
15. Финальный чек-лист технического аудита
| Проверка | Да/Нет | Комментарий | 
|---|---|---|
| robots.txt корректен | □ | Host и Sitemap указаны | 
| sitemap.xml работает | □ | добавлен в Search Console | 
| HTTPS и SSL без ошибок | □ | сертификат актуален | 
| Core Web Vitals в норме | □ | LCP < 2.5s, CLS < 0.1 | 
| Мобильная версия адаптивна | □ | mobile-friendly тест | 
| 404 и редиректы корректны | □ | нет цепочек | 
| Микроразметка валидна | □ | Rich Results Test | 
| Перелинковка логична | □ | нет сиротских страниц | 
FAQ: часто задаваемые вопросы о техническом аудите
Сколько времени занимает технический аудит сайта?
Для небольшого сайта — 2–3 часа. Для крупных порталов с сотнями страниц — до 2–3 дней.
Можно ли сделать аудит без доступа к CMS?
Да, базовый аудит проводится по коду и внешним инструментам. Но для проверки дублей и структуры доступ к панели желателен.
Как часто нужно проводить технический аудит?
Раз в полгода — стандарт. После редизайна или смены хостинга — обязательно.
Можно ли улучшить SEO без технического аудита?
Можно, но эффект будет временным. Без устранения технических ошибок продвижение теряет эффективность.
Какие ошибки самые критичные?
Блокировка индексации в robots.txt, дубли URL, медленная загрузка, 404 без статуса, отсутствие HTTPS, неверный canonical.
Итог
Технический аудит — это не разовая проверка, а регулярная профилактика SEO. Раз в несколько месяцев стоит проходить чек-лист: проверить индексацию, скорость, ошибки, микроразметку и безопасность. Даже один исправленный redirect или оптимизированный robots.txt может вернуть позиции и улучшить видимость сайта в поиске. Главное — системность: следить за техническим здоровьем проекта нужно так же регулярно, как обновлять контент.