Ваш сайт точно можно улучшить и поднять тем самым его позиции в поисковых системах.
Метатеги
Это стандартные теги: title, description, keywords, а также кодировка, область просмотра, имя автора и другие.
Самая большая ошибка – вообще не заполнять метатеги, надеясь, что поисковики сами проанализируют контент на странице.
Приложение SEO META in 1 CLICK позволяет проверить корректность всех метатегов в один клик и без всяких лишних телодвижений.
Как заполнять заголовок
- Не смешивайте тег title и заголовок H1: это разные структурные элементы.
- Лучше ранжируются страницы с короткими и броскими заголовками, чем с длинными. Старайтесь уложиться в 70 символов.
- Не бойтесь знаков препинания в заголовках: используйте длинные тире, двоеточия, запятые, точки. Такие заголовки часто залетают в топ, имеют хорошую кликабельность.
- Соблюдайте орфографию, грамматику, регистр букв. Все это влияет на кликабельность сниппета и восприятие вашего сайта в результатах поиска.
- Не используйте в title поисковую фразу в прямом вхождении, не спамьте ключевыми словами в заголовке.
- Используйте цифры в начале заголовка и пробуйте подать их как дальнейшую мотивацию к переходу («33 секретных методики...»).
- Убедитесь, что тайтл передает корректный интент и релевантен тексту страницы.
- Коммерческие сайты должны использовать динамические параметры. Например, стоимость товара или отзывы о нем. Посмотрите на сниппеты агрегаторов: в них всегда присутствуют динамические элементы.
Как заполнять description
Рекомендуем составлять описание, которое будет логическим продолжением заголовка и подтолкнет пользователя к переходу. Хорошо работает description, который начинается с глагола и побуждает к действию: смотреть / смотрите, скачать / скачайте, проверить / проверьте.
Задействуйте количественные показатели и конкретику. Например, стоимость товара. Коммерческие сайты могут добавлять достоинства товара и выгоды, которая гарантирует их компания.
Не используйте поисковые фразы в точном вхождении.
Стандарт исключений для роботов. Файл Robots.txt
robots.txt – рекомендации для краулеров, которое они не обязаны соблюдать.
Стандарт исключений для роботов не должен использоваться для ограничения показа какой-либо страницы в SERP – для этого есть другие инструменты.
Предлагаю неочевидные моменты, которые часто упускают начинающие оптимизаторы:
- По умолчанию запрет индексации в robots.txt отсутствует. Все, что мы указываем сверху – это запрещающие директивы.
- Главное назначение robots.txt – уменьшение числа запросов, которые поисковые системы (а точнее, их краулеры) направляют на сервер.
- Robots.txt должен использоваться для маркирования неуникальной и не ценной для поиска информации.
- Вы не должны полагаться на robots, когда хотите скрыть страницы с конфиденциальной информацией.
Даже если вы создали запрещающую директиву для сканирования в robots.txt, такая страница все равно может быть индексирована поисковой системой.
Где найти стандарт исключения для роботов на своем сайте
Файл всегда находится в корне сайта. Самый простой способ его отыскать – выполнить поиск по всем файлам сайта. Для этого открываем административную панель хостинга и находим файловый менеджер. У меня один из сайтов гнездится на хостинге Beget, и там есть очень симпатичный файловый менеджер Sprutio. Он позволяет провести поиск как по файлам, так и по тексту:
Синтаксис robots.txt элементарный:
- User-Agent: название краулера. Например, поисковый робот Google называется Google-bot, а краулер «Яндекса» – просто Yandex.
- Allow – разрешает сканировать страницу.
- Disallow – запрещает сканировать страницу.
Не забудьте добавить в карту сайта ссылку на sitemap.
Например, мы хотим показать Google, что сканировать нужно все страницы, кроме страницы контактов. Директива будет такая:
User-Agent: Google-bot Allow: Disallow: / contacts
Семантическое ядро
Проговорим несколько неочевидных моментов, которые будут полезны начинающим оптимизаторам:
- Необязательно покупать платные инструменты для сбора семантического ядра. Воспользуйтесь «Подбором слов» и планировщиком ключевых слов в «Google Рекламе». Этих инструментов хватит на первых порах.
- Новый сайт не сможет потеснить конкурента по высокочастотному запросу, какой бы замечательный и уникальный контент у вас ни был.
- Чтобы получить первый трафик, используйте низкочастотные запросы.
Собрать семантическое ядро с нуля не так сложно, как может показаться на первый взгляд. Вот упрощенный план действий:
- собрать базовые поисковые фразы для интересующей вас тематики;
- получить еще идеи через сервисы типа Serpstat, подсмотреть ключевые запросы у конкурентов в выбранной нише;
- избавить ядро от неэффективных ключей (такие фразы имеют слишком низкую частотность);
- кластеризация – каждой ключевой фразе нужно присвоить определенную страницу сайта.
sitemap.xml
SEO-руководства убеждают, что карта сайтов для робота – обязательный элемент, без которого нельзя рассчитывать на результат. На практике краулеры прекрасно индексируют сайт и без всяких специальных карт.
Вот несколько сценариев, когда заняться генерацией sitemap.xml точно нужно:
- на сайте много разделов, и они не не поддаются иерархической логике;
- на сайте много страниц (десятки тысяч);
- некоторые веб-страницы не слинкованы друг с другом;
- вы часто актуализируете контент на уже опубликованных страницах.
Для создания карты сайта вы можете использовать многочисленные плагины для генерации sitemap.xml. Их можно найти почти для всех популярных CMS. Еще один вариант – онлайн-сервисы типа Mysitemapgenerator.
Mysitemapgenerator умеет генерировать не только sitemap>.xml, но и html-карту, товарные фиды Google и Yandex, ленты RSS и фиды для iTunes.
Все эти инструменты однокнопочные. В онлайн-сервисах достаточно указать ссылку на домен и нажать кнопку «Сгенерировать».
Сгенерированную карту необходимо добавить в «Яндекс.Вебмастер» и Google Search console. В «Яндекс.Вебмастере» откройте раздел «Индексирование и выберите пункт «Файлы sitemap»:
Выберите файл sitemap.xml и нажмите кнопку «Добавить»
В Google Search Console обратите внимание на раздел «Индекс» – там будет пункт «Файлы sitemap»:
Выберите файл sitemap.xml и нажмите кнопку «Отправить»
404-я страница
Несуществующая по какой-то причине страница (например, ранее удаленная) отдает 404-й ответ сервера. Ваша задача – сделать эту страницу функциональной.
Давайте взглянем на 404-ю страницу с позиции пользователя. Что вы будете делать, когда увидите такую страницу, перейдя из результатов поиска?
Скорее всего, сразу закроете сайт и начнете искать другие, на которых будет ответ на ваш вопрос.
Другое дело – такая 404-я:
Здесь уже есть ссылка на главную и поисковая строка, так что пользователь, не нашедший интересующий материал, может обратиться к поиску.
Настраивая 404-ю страницу, помните: главное – сделать так, чтобы посетитель сразу не закрыл ваш сайт, даже если не нашел интересующий его контент.
Семантический URL
Семантический URL (он же человекопонятный) – это ссылка, содержащая понятные слова вместо служебных символов.
- Несемантический URL: / index.php?cat=2&subcat=1&id=193
- Семантический URL: / product / smartphones / Apple
В самых популярных CMS настроить семантический URL можно прямо в админке. Например, в WordPress человекопонятные ссылки можно активировать в разделе «Постоянные ссылки»:
Выберите вариант «Название записи»
Преимущества семантического URL по сравнению со стандартным:
- пользователь понимает, чему посвящена страница;
- пользователь видит в структуру сайта;
- можно использовать как кириллицу, так и латиницу;
- можно включать в тело ссылки ключевое слово (доподлинно неизвестно, является ли наличие таких слов в URL прямым фактором ранжирования).
Добавление сайта в Google и «Яндекс»
Регистрировать новый сайт в Google и «Яндекс» специально не требуется. Если вы публикуете полезный и качественный контент, краулеры в течение нескольких дней (максимум) сами проиндексируют его.
Другое дело, если вы хотите получать подробную статистику по присутствию сайта в поиске. Но и в этом случае сайт добавляется не в Google и «Яндекс», а в Google Search Console и «Яндекс.Вебмастер».
Перенаправления
Перенаправление или редирект – автоматическая переадресация с одной страницы на другую.
Чтобы проверить корректность работы перенаправления, обязательно очистите кэш браузера.
Рекомендации, которые помогут настроить перенаправление:
- не настраивайте перенаправление для robots.txt;
- чтобы страница передала вес, настраивайте перенаправление на релевантную страницу;
- не используйте более 2-х перенаправлений с одной страницы;
- задействуйте перенаправление только в крайнем случае. Создавая перенаправления на трафиковые страницы, вы можете потерять позиции в поисковой выдаче и потерять трафик.
Core Web Vitals
Core Web Vitals, или ключевые веб-показатели – метрики удобства и скорости загрузки сайтов, введенные Google относительно недавно.
Соответствие сайта Core Web Vitals – уже прямой фактор ранжирования, так что вхождение сайта в «зеленую» зону этих метрик крайне желательно:
Рассматривать скорость загрузки сайта в отрыве от Core Web Vitals уже нецелесообразно.
Как проверять Core Web Vitals
Проверить соответствие своего сайта метрикам Core Web Vitals можно при помощи инструментов на сайте Web.dev. Кроме них к вашим услугам Google Search Console, Lighthouse и Pagespeed Insights.
Как улучшить Core Web Vitals
- Удалите лишние плагины.
- Убедитесь, что в настройках сайта установлена корректная версия PHP.
- Убедитесь, что хостинг отдает производительность, достаточную для проекта.
- Проверьте производительность сервера.
- Задействуйте кэширование страниц.
- Используйте заданные размеры для всех элементов страницы, включая кнопки, картинки, баннеры.
- Попробуйте внедрить AMP-страницы.
- Задействуйте ленивую загрузку и не бойтесь делать компрессию изображений на сайте.
- Максимально уменьшите размер кода страницы. Выбросьте ненужный Java, посмотрите, какие «стили» задействованы: CSS тоже стоит сократить.
Если показатели Core Web Vitals все равно остаются неприемлемыми, проверьте тему сайта (актуально для Wordpress и других популярных CMS такого типа). Платные красивые темы часто невероятно прожорливы и потребляют колоссальное количество ресурсов, создавая огромную статическую нагрузку на хостинг.
Если вы проверили каждый пункт этой инструкции, и ни один источник проблемы не подтвердился, то 98 %, что проблема именно в теме, и ее придется заменить на менее прожорливую.
Мобильная версия или адаптивный шаблон
Глобально мобильный трафик уже давно обогнал десктопный, поэтому если ваш сайт неудобно открывать со смартфона, у него нет будущего. Решение одно – внедрить мобильные страницы. Это полноценная мобильная версия (на отдельном субдомене) или адаптивный шаблон (домен не различается).
- Краулеры быстрее обходят один домен, а не два. Поэтому быстрее будет в проиндексирован сайт с адаптивным шаблоном, а не с мобильной версией на субдомене.
- На адаптивном сайте легче поделиться страницей, так как пользователь все время остается на данной странице.
- У мобильной версии могут возникать проблемы при выполнении перенаправления на такой субдомен.
- Если у вас адаптивный шаблон, ошибки мобильных страниц становятся неактуальными.
Таким образом, с точки зрения поисковой оптимизации небольшие преимущества есть у адаптивной версии. Кроме этого, контент в адаптивной версии сайта никак не урезается, отсутствует проблема дублирования страниц. А еще заниматься администрированием сайта сможет тот же сотрудник, что и раньше. С мобильной версией так получается далеко не всегда.
Мобильная версия – это всегда ограничение дизайна и функционала сайта, так что среди постоянной аудитории может вырасти процент отказов.
Семантическая разметка
Этот инструмент используется для разметки данных на странице. Словарей семантической разметки много. Самый оптимальный вариант – schema.org в синтаксисе JSON LD. Эту связку рекомендует Google. «Яндекс» также понимает словарь schema.org и показывает расширенные сниппеты на его основе.
Внедрять семантической разметку на странице можно вручную или автоматически. Например, плагинами для CMS.
Дублирование контента
Дубли контента – это повторы уже существующих на сайте страниц или их содержания. Естественно, такие страницы перестают быть уникальными. А Google высоко ценит уникальность не только в интернете, но и уникальность в рамках сайта.
Дубли чаще всего появляются неосознанно в результате технических недоработок. Избавиться от дублей автоматически бывает сложно, и приходится делать это вручную.
Дубли могут быть полными (полностью одинаковые страницы) и неполными (когда контент теряет уникальность фрагментировано). Хуже всего – полные дубли, когда у страницы появляются точные копии. Но ликвидировать нужно оба вида дублирования.
Обязательно проверьте самые частые источники дублирования:
- HTTP или HTTPS в начале ссылок;
- изменилась структура сайта;
- изменилась структура URL;
- слэш или его отсутствие в конце ссылок;
- WWW или его отсутствие в конце ссылок;
- страницы печати;
- GET-параметры.
Все перечисленное – полное дублирование. А вот неполные дубли, как правило, появляются по следующим причинам:
- буквенная пагинация – решить проблему можно, настроив Canonical на главную основного каталога.
- replytocom (только сайты на WordPress) – по умолчанию WordPress использует древовидные комментарии, и каждый раз при ответе на комментарий генерируется новый URL. Решение – установить Disqus или вообще отключить древовидные комментарии (но тогда вашим посетителям будет неудобно отвечать на комментарии друг друга).
- однотипные товары и схожие описания рождают дубли. Решить проблему можно, переписав неуникальный фрагмент описания. Еще один способ – сгруппировать схожие товары в единой карточке, а для установки различающихся свойств ввести элемент-селектор.
Перелинковка
Вы обращали внимание, что у нас в блоге встречается такой элемент?
Блок «Читайте также» – это и есть внутренняя перелинковка
Лучше всего делать перелинковку вручную – так вы сами сможете подбирать наиболее релевантные страницы, идеально связывая их друг с другом.
Главная задача перелинковки – улучшение пользовательского опыта. А еще – повышение релевантности веб-страниц и перераспределение их веса.
Битые ссылки
Существуют и внешние битые ссылки, но мы рассматриваем внутреннюю оптимизацию сайта, поэтому речь пойдет о внутренних. Битые внутренние ссылки – это URL, ведущие на несуществующую (по каким-либо причинам) страницу сайта.
Внутренние битые ссылки могут появиться по следующим причинам:
- некорректная работа плагинов;
- технические ошибки;
- страница была удалена;
- глобальное изменение структуры ссылок.
Это самые часто встречающиеся источники битых линков, но причин гораздо больше. Например, они могут образовываться из-за сбоя при настройке сервера.
Если ваш сайт подключен к «Яндекс.Вебмастеру» и Google Search Console, найти внутренние битые ссылки вы сможете в обоих инструментах.
В «Яндекс.Вебмастере» откройте раздел «Индексирование» и перейдите в отчет «Страницы в поиске»:
Активируем фильтр по исключенным страницам – это и есть битые «ссылки»
Активируем фильтр по исключенным страницам – это и есть битые «ссылки»В Google Search Console найти битые ссылки можно в разделе «Индекс», отчет «Покрытие»:
Ищем исключенные страницы типа «Не найдено (404)»
Из отдельного ПО можно порекомендовать Majento SiteAnalyzer. Что касается онлайн-сервисов, то здесь мой выбор – Online Broken Link Checker.
Читайте также:
Растем как на дрожжах – полный гайд по… хлебным крошкам
Как оптимизировать мобильный трафик на сайт – это необходимо для хорошей выдачи