Top.Mail.Ru

Наш подход бустит продажи. Вы платите за результат!

Заказать звонок
Телефон отдела продаж:
8 (800) 775-16-41
Наш e-mail:
mail@texterra.ru
Заказать услугу
14 распространенных уязвимостей сайта – проверьте себя Редакция «Текстерры»
Редакция «Текстерры»

Метатеги

Это стандартные теги: title, description, keywords, а также кодировка, область просмотра, имя автора и другие.

Самая большая ошибка – вообще не заполнять метатеги, надеясь, что поисковики сами проанализируют контент на странице.

Приложение SEO META in 1 CLICK позволяет проверить корректность всех метатегов в один клик и без всяких лишних телодвижений.

Как заполнять заголовок

  • Не смешивайте тег title и заголовок H1: это разные структурные элементы. 
  • Лучше ранжируются страницы с короткими и броскими заголовками, чем с длинными. Старайтесь уложиться в 70 символов.
  • Не бойтесь знаков препинания в заголовках: используйте длинные тире, двоеточия, запятые, точки. Такие заголовки часто залетают в топ, имеют хорошую кликабельность.
  • Соблюдайте орфографию, грамматику, регистр букв. Все это влияет на кликабельность сниппета и восприятие вашего сайта в результатах поиска.
  • Не используйте в title поисковую фразу в прямом вхождении, не спамьте ключевыми словами в заголовке.
  • Используйте цифры в начале заголовка и пробуйте подать их как дальнейшую мотивацию к переходу («33 секретных методики...»).
  • Убедитесь, что тайтл передает корректный интент и релевантен тексту страницы.
  • Коммерческие сайты должны использовать динамические параметры. Например, стоимость товара или отзывы о нем. Посмотрите на сниппеты агрегаторов: в них всегда присутствуют динамические элементы.

Как заполнять description

Рекомендуем составлять описание, которое будет логическим продолжением заголовка и подтолкнет пользователя к переходу. Хорошо работает description, который начинается с глагола и побуждает к действию: смотреть / смотрите, скачать / скачайте, проверить / проверьте.

Задействуйте количественные показатели и конкретику. Например, стоимость товара. Коммерческие сайты могут добавлять достоинства товара и выгоды, которая гарантирует их компания.

Не используйте поисковые фразы в точном вхождении.

Продвинем ваш бизнес
Подробнее

Стандарт исключений для роботов. Файл Robots.txt

robots.txt – рекомендации для краулеров, которое они не обязаны соблюдать.

Стандарт исключений для роботов не должен использоваться для ограничения показа какой-либо страницы в SERP – для этого есть другие инструменты.

Предлагаю неочевидные моменты, которые часто упускают начинающие оптимизаторы:

  1. По умолчанию запрет индексации в robots.txt отсутствует. Все, что мы указываем сверху – это запрещающие директивы.
  2. Главное назначение robots.txt – уменьшение числа запросов, которые поисковые системы (а точнее, их краулеры) направляют на сервер.
  3. Robots.txt должен использоваться для маркирования неуникальной и не ценной для поиска информации.
  4. Вы не должны полагаться на robots, когда хотите скрыть страницы с конфиденциальной информацией.
Даже если вы создали запрещающую директиву для сканирования в robots.txt, такая страница все равно может быть индексирована поисковой системой.

Где найти стандарт исключения для роботов на своем сайте

Файл всегда находится в корне сайта. Самый простой способ его отыскать – выполнить поиск по всем файлам сайта. Для этого открываем административную панель хостинга и находим файловый менеджер. У меня один из сайтов гнездится на хостинге Beget, и там есть очень симпатичный файловый менеджер Sprutio. Он позволяет провести поиск как по файлам, так и по тексту:

14 распространенных уязвимостей сайта – проверьте себя

Синтаксис robots.txt элементарный:

  • User-Agent: название краулера. Например, поисковый робот Google называется Google-bot, а краулер «Яндекса» – просто Yandex.
  • Allow – разрешает сканировать страницу.
  • Disallow – запрещает сканировать страницу.
Не забудьте добавить в карту сайта ссылку на sitemap.

Например, мы хотим показать Google, что сканировать нужно все страницы, кроме страницы контактов. Директива будет такая:

User-Agent: Google-bot Allow: Disallow: / contacts

Семантическое ядро

Проговорим несколько неочевидных моментов, которые будут полезны начинающим оптимизаторам:

  • Необязательно покупать платные инструменты для сбора семантического ядра. Воспользуйтесь «Подбором слов» и планировщиком ключевых слов в «Google Рекламе». Этих инструментов хватит на первых порах.
  • Новый сайт не сможет потеснить конкурента по высокочастотному запросу, какой бы замечательный и уникальный контент у вас ни был.
  • Чтобы получить первый трафик, используйте низкочастотные запросы.

Собрать семантическое ядро с нуля не так сложно, как может показаться на первый взгляд. Вот упрощенный план действий:

  • собрать базовые поисковые фразы для интересующей вас тематики;
  • получить еще идеи через сервисы типа Serpstat, подсмотреть ключевые запросы у конкурентов в выбранной нише;
  • избавить ядро от неэффективных ключей (такие фразы имеют слишком низкую частотность);
  • кластеризация – каждой ключевой фразе нужно присвоить определенную страницу сайта.
Читайте также
Что такое семантическое ядро и как его составлять

sitemap.xml

SEO-руководства убеждают, что карта сайтов для робота – обязательный элемент, без которого нельзя рассчитывать на результат. На практике краулеры прекрасно индексируют сайт и без всяких специальных карт.

Вот несколько сценариев, когда заняться генерацией sitemap.xml точно нужно:

  • на сайте много разделов, и они не не поддаются иерархической логике;
  • на сайте много страниц (десятки тысяч);
  • некоторые веб-страницы не слинкованы друг с другом;
  • вы часто актуализируете контент на уже опубликованных страницах.

Для создания карты сайта вы можете использовать многочисленные плагины для генерации sitemap.xml. Их можно найти почти для всех популярных CMS. Еще один вариант – онлайн-сервисы типа Mysitemapgenerator.

Mysitemapgenerator умеет генерировать не только sitemap.xml, но и html-карту, товарные фиды Google и Yandex, ленты RSS и фиды для iTunes.

Mysitemapgenerator умеет генерировать не только sitemap>.xml, но и html-карту, товарные фиды Google и Yandex, ленты RSS и фиды для iTunes.

Все эти инструменты однокнопочные. В онлайн-сервисах достаточно указать ссылку на домен и нажать кнопку «Сгенерировать».

Читайте также
Как создать и настроить карту сайта sitemap.xml в 2023 году

Сгенерированную карту необходимо добавить в «Яндекс.Вебмастер» и Google Search console. В «Яндекс.Вебмастере» откройте раздел «Индексирование и выберите пункт «Файлы sitemap»:

Выберите файл sitemap.xml и нажмите кнопку «Добавить»

Выберите файл sitemap.xml и нажмите кнопку «Добавить»

В Google Search Console обратите внимание на раздел «Индекс» – там будет пункт «Файлы sitemap»:

Выберите файл sitemap.xml и нажмите кнопку «Отправить»

Выберите файл sitemap.xml и нажмите кнопку «Отправить»

404-я страница

Несуществующая по какой-то причине страница (например, ранее удаленная) отдает 404-й ответ сервера. Ваша задача – сделать эту страницу функциональной.

Давайте взглянем на 404-ю страницу с позиции пользователя. Что вы будете делать, когда увидите такую страницу, перейдя из результатов поиска?

14 распространенных уязвимостей сайта – проверьте себя

Скорее всего, сразу закроете сайт и начнете искать другие, на которых будет ответ на ваш вопрос.

Другое дело – такая 404-я:

14 распространенных уязвимостей сайта – проверьте себя

Здесь уже есть ссылка на главную и поисковая строка, так что пользователь, не нашедший интересующий материал, может обратиться к поиску.

Настраивая 404-ю страницу, помните: главное – сделать так, чтобы посетитель сразу не закрыл ваш сайт, даже если не нашел интересующий его контент.
Читайте также
Страница 404: самые креативные, смешные и лаконичные варианты

Семантический URL

Семантический URL (он же человекопонятный) – это ссылка, содержащая понятные слова вместо служебных символов.

  • Несемантический URL: / index.php?cat=2&subcat=1&id=193
  • Семантический URL: / product / smartphones / Apple

В самых популярных CMS настроить семантический URL можно прямо в админке. Например, в WordPress человекопонятные ссылки можно активировать в разделе «Постоянные ссылки»:

Выберите вариант «Название записи»

Выберите вариант «Название записи»

Преимущества семантического URL по сравнению со стандартным:

  • пользователь понимает, чему посвящена страница;
  • пользователь видит в структуру сайта;
  • можно использовать как кириллицу, так и латиницу;
  • можно включать в тело ссылки ключевое слово (доподлинно неизвестно, является ли наличие таких слов в URL прямым фактором ранжирования).

Добавление сайта в Google и «Яндекс»

Регистрировать новый сайт в Google и «Яндекс» специально не требуется. Если вы публикуете полезный и качественный контент, краулеры в течение нескольких дней (максимум) сами проиндексируют его.

Другое дело, если вы хотите получать подробную статистику по присутствию сайта в поиске. Но и в этом случае сайт добавляется не в Google и «Яндекс», а в Google Search Console и «Яндекс.Вебмастер».

Читайте также
«Яндекс.Вебмастер» или Search Console Google: какая панель все же лучше (и для каких задач)

Перенаправления

Перенаправление или редирект – автоматическая переадресация с одной страницы на другую.

Чтобы проверить корректность работы перенаправления, обязательно очистите кэш браузера.

Рекомендации, которые помогут настроить перенаправление:

  • не настраивайте перенаправление для robots.txt;
  • чтобы страница передала вес, настраивайте перенаправление на релевантную страницу;
  • не используйте более 2-х перенаправлений с одной страницы;
  • задействуйте перенаправление только в крайнем случае. Создавая перенаправления на трафиковые страницы, вы можете потерять позиции в поисковой выдаче и потерять трафик.

Core Web Vitals

Core Web Vitals, или ключевые веб-показатели – метрики удобства и скорости загрузки сайтов, введенные Google относительно недавно.

Соответствие сайта Core Web Vitals – уже прямой фактор ранжирования, так что вхождение сайта в «зеленую» зону этих метрик крайне желательно:

14 распространенных уязвимостей сайта – проверьте себя

Рассматривать скорость загрузки сайта в отрыве от Core Web Vitals уже нецелесообразно.

Читайте также
Новые принципы Google: что такое Core Web Vitals и как улучшить показатели на сайте. Краткий гайд

Как проверять Core Web Vitals

Проверить соответствие своего сайта метрикам Core Web Vitals можно при помощи инструментов на сайте Web.dev. Кроме них к вашим услугам Google Search Console, Lighthouse и Pagespeed Insights.

Как улучшить Core Web Vitals

  1. Удалите лишние плагины.
  2. Убедитесь, что в настройках сайта установлена корректная версия PHP.
  3. Убедитесь, что хостинг отдает производительность, достаточную для проекта.
  4. Проверьте производительность сервера.
  5. Задействуйте кэширование страниц.
  6. Используйте заданные размеры для всех элементов страницы, включая кнопки, картинки, баннеры.
  7. Попробуйте внедрить AMP-страницы.
  8. Задействуйте ленивую загрузку и не бойтесь делать компрессию изображений на сайте.
  9. Максимально уменьшите размер кода страницы. Выбросьте ненужный Java, посмотрите, какие «стили» задействованы: CSS тоже стоит сократить.

Если показатели Core Web Vitals все равно остаются неприемлемыми, проверьте тему сайта (актуально для Wordpress и других популярных CMS такого типа). Платные красивые темы часто невероятно прожорливы и потребляют колоссальное количество ресурсов, создавая огромную статическую нагрузку на хостинг.

Если вы проверили каждый пункт этой инструкции, и ни один источник проблемы не подтвердился, то 98 %, что проблема именно в теме, и ее придется заменить на менее прожорливую.

Мобильная версия или адаптивный шаблон

Глобально мобильный трафик уже давно обогнал десктопный, поэтому если ваш сайт неудобно открывать со смартфона, у него нет будущего. Решение одно – внедрить мобильные страницы. Это полноценная мобильная версия (на отдельном субдомене) или адаптивный шаблон (домен не различается).

  • Краулеры быстрее обходят один домен, а не два. Поэтому быстрее будет в проиндексирован сайт с адаптивным шаблоном, а не с мобильной версией на субдомене.
  • На адаптивном сайте легче поделиться страницей, так как пользователь все время остается на данной странице.
  • У мобильной версии могут возникать проблемы при выполнении перенаправления на такой субдомен.
  • Если у вас адаптивный шаблон, ошибки мобильных страниц становятся неактуальными.

Таким образом, с точки зрения поисковой оптимизации небольшие преимущества есть у адаптивной версии. Кроме этого, контент в адаптивной версии сайта никак не урезается, отсутствует проблема дублирования страниц. А еще заниматься администрированием сайта сможет тот же сотрудник, что и раньше. С мобильной версией так получается далеко не всегда.

Мобильная версия – это всегда ограничение дизайна и функционала сайта, так что среди постоянной аудитории может вырасти процент отказов.

Семантическая разметка

Этот инструмент используется для разметки данных на странице. Словарей семантической разметки много. Самый оптимальный вариант – schema.org в синтаксисе JSON LD. Эту связку рекомендует Google. «Яндекс» также понимает словарь schema.org и показывает расширенные сниппеты на его основе.

Внедрять семантической разметку на странице можно вручную или автоматически. Например, плагинами для CMS.

Читайте также
Как использовать микроразметку Schema.org: руководство для чайников

Дублирование контента

Дубли контента – это повторы уже существующих на сайте страниц или их содержания. Естественно, такие страницы перестают быть уникальными. А Google высоко ценит уникальность не только в интернете, но и уникальность в рамках сайта.

Дубли чаще всего появляются неосознанно в результате технических недоработок. Избавиться от дублей автоматически бывает сложно, и приходится делать это вручную.

Дубли могут быть полными (полностью одинаковые страницы) и неполными (когда контент теряет уникальность фрагментировано). Хуже всего – полные дубли, когда у страницы появляются точные копии. Но ликвидировать нужно оба вида дублирования.

Обязательно проверьте самые частые источники дублирования:

  • HTTP или HTTPS в начале ссылок;
  • изменилась структура сайта;
  • изменилась структура URL;
  • слэш или его отсутствие в конце ссылок;
  • WWW или его отсутствие в конце ссылок;
  • страницы печати;
  • GET-параметры.

Все перечисленное – полное дублирование. А вот неполные дубли, как правило, появляются по следующим причинам:

  • буквенная пагинация – решить проблему можно, настроив Canonical на главную основного каталога.
  • replytocom (только сайты на WordPress) – по умолчанию WordPress использует древовидные комментарии, и каждый раз при ответе на комментарий генерируется новый URL. Решение – установить Disqus или вообще отключить древовидные комментарии (но тогда вашим посетителям будет неудобно отвечать на комментарии друг друга).
  • однотипные товары и схожие описания рождают дубли. Решить проблему можно, переписав неуникальный фрагмент описания. Еще один способ – сгруппировать схожие товары в единой карточке, а для установки различающихся свойств ввести элемент-селектор.

Перелинковка

Вы обращали внимание, что у нас в блоге встречается такой элемент?

Блок «Читайте также» – это и есть внутренняя перелинковка

Блок «Читайте также» – это и есть внутренняя перелинковка

Лучше всего делать перелинковку вручную – так вы сами сможете подбирать наиболее релевантные страницы, идеально связывая их друг с другом.

Главная задача перелинковки – улучшение пользовательского опыта. А еще – повышение релевантности веб-страниц и перераспределение их веса.

Битые ссылки

Существуют и внешние битые ссылки, но мы рассматриваем внутреннюю оптимизацию сайта, поэтому речь пойдет о внутренних. Битые внутренние ссылки – это URL, ведущие на несуществующую (по каким-либо причинам) страницу сайта.

Внутренние битые ссылки могут появиться по следующим причинам:

  • некорректная работа плагинов;
  • технические ошибки;
  • страница была удалена;
  • глобальное изменение структуры ссылок.

Это самые часто встречающиеся источники битых линков, но причин гораздо больше. Например, они могут образовываться из-за сбоя при настройке сервера.

Читайте также
Битые ссылки: топ-8 инструментов для их поиска

Если ваш сайт подключен к «Яндекс.Вебмастеру» и Google Search Console, найти внутренние битые ссылки вы сможете в обоих инструментах.

В «Яндекс.Вебмастере» откройте раздел «Индексирование» и перейдите в отчет «Страницы в поиске»:

Активируем фильтр по исключенным страницам – это и есть битые «ссылки»

Активируем фильтр по исключенным страницам – это и есть битые «ссылки»

Активируем фильтр по исключенным страницам – это и есть битые «ссылки»

В Google Search Console найти битые ссылки можно в разделе «Индекс», отчет «Покрытие»:

Ищем исключенные страницы типа «Не найдено (404)»

Ищем исключенные страницы типа «Не найдено (404)»

Из отдельного ПО можно порекомендовать Majento SiteAnalyzer. Что касается онлайн-сервисов, то здесь мой выбор – Online Broken Link Checker.

Поделиться статьей:

Новое на сайте

18 апр 2024
181
Почему онлайн ответы нейросети опасны для SEO

Рассказываем, как за пару минут можно запретить или разрешить нейросетям доступ на ваш сайт.

18 апр 2024
2 321
Как мы заглянули в будущее: дизайн сервиса для электромобилей

VOLTFUEL – сервис зарядных станций для электромобилей. Специалисты сервиса работают под ключ: проектируют, устанавливают и обслуживают станции, привлекают клиентов для заказчиков.

18 апр 2024
329
Лучшие нейросети для расшифровки аудиозаписей

Тестируем на одном и том же отрывке, чтобы выявить оптимальный вариант.

Смотреть все статьи

У вас есть деловой запрос? Давайте обсудим!

Оставьте свои контакты, мы свяжемся с вами в ближайшее время.

Нажимая на кнопку «Оставить заявку», вы подтверждаете свое согласие на обработку пользовательских данных

Спасибо!

Ваша заявка принята. Мы свяжемся с вами в ближайшее время.