Как недавний Helpful Content Update повлиял на поиск на самом деле и почему тысячи качественных сайтов покинули выдачу — рассказываем, как теперь делать SEO.

Последнее обновление поиска Google называется Helpful Content (HCU). Чтобы изучить изменения в поиске Google, специалисты по обработке данных из WLDM и ClickStream сотрудничали с Surfer SEO. Рассказываем, что теперь нужно учитывать.

Последствия мартовского обновления. Позиция Google

Google заявляет, что отдает предпочтение контенту, который имеет ценность для людей, а не для машин.

Обновление ставит во главу угла авторитетность темы: автор контента должны демонстрировать глубокий опыт, знания, авторитетность и достоверность (E-E-A-T) на каждой конкретной странице сайта, чтобы полностью закрыть запрос пользователя.

Страницы категории YMYL должны быть приоритетными для HCU. Ведь когда наше здоровье или деньги находятся под угрозой, мы хотим полагаться только на достоверную информацию.

Дэнни Салливан, руководитель поискового отдела Google, подтвердил, что HCU работает на уровне страниц, а не только на уровне сайта в целом.

Google заявляет: «Обновление HCU — это усовершенствование некоторых из наших основных алгоритмов ранжирования создано, чтобы помочь нам лучше понять, являются ли веб-страницы бесполезными, имеют ли они плохой пользовательский опыт, или кажется, что они были созданы для поисковых систем, а не для людей. Сюда можно отнести сайты, созданные в основном для соответствия очень специфическим поисковым запросам. Мы уверены, что эти обновления позволят сократить количество низкокачественного контента в поисковой выдаче и направить больше трафика на полезные и качественные сайты».

Напомним, Google также развернул на весь поиск еще обновление, призванное бороться со спамом.

Противоречия и ошибки

Обновление, как это часто бывает, привело, к тому, что выдачу начало сильно штормить. Большое количество старых трастовых сайтов с по настоящему качественным контентом ушли вниз. Некоторые зарубежные SEO-специалисты вообще назвали HCU сейсмическим сдвигом в SEO-индустрии.

За последние несколько недель стало понятно: Google сам отошел от первоначальных принципов HCU, которые были объявлены на первоначальном этапе развёртывания алгоритма. Как и в Яндексе, элементы ИИ в поисковой выдаче привели к тому, что ПС выдает опасную и даже неверную информацию, связанную со здоровьем.

Высокая волатильность страницы результатов поиска сохраняется до сих пор. Судя по всему, корректировки мартовского обновления происходят и сейчас. Поэтому соглашаться с тем, что обновление было развернуто на весь поиск — пока нельзя.

Как было проведено исследование: методы

Пару слов о методологии исследования. Авторы проанализировали топ-30 результатов в поисковой выдаче Google, по 12 300 ключевым словам (в декабре 2023). В апреле 2024 года они расширили исследование, рассмотрев уже 428 436 ключевых слов, проанализировав результаты поиска для 8 460 из них.

Суммарно исследование охватило 253 800 результатов поиска.

Набор ключевых слов от 2023 года был более ограниченным, можно сказать,что он обеспечивал лишь базовый уровень для расширенного исследования. Но это и позволило лучше понять изменения сигналов ранжирования Google после марта и в итоге расшифровать некоторые «толчки», которые произошли в начале апреля.

Чтобы создать информационно-целевые ключевые слова для обоих наборов данных (с информационным интентом, а не коммерческим), авторы добавили к каждому ключу фразу «как использовать». А JungleScout — предоставил доступ к базе данных реальных ключевых слов (сгруппированных и разделенных нужным для исследования образом). Еще один важный факт: исследование было сосредоточено на конкретных товарных нишах.

Корреляция + измерения

Для измерения силы и направления ассоциаций между ранжируемыми переменными авторы использовали корреляцию Спирмена: значимой считается корреляция на уровне .05; при наличии сотен сигналов каждый из них влияет на ранжирование незначительно.

Наше внимание будет сосредоточено только на постраничных факторах ранжирования.

По счастливой случайности исследование 2024 года было запланировано на апрель, что совпало с окончанием самых значительных изменений в ранжировании Google за последние восемь лет.

Цели исследования

Ключевой метрикой исследования был всесторонний охват контента, то есть тщательное, полное изложение основной темы (ключевого слова) на странице. При этом каждое ключевое слово сопоставлялось с текстом на страницах 30 лучших сайтов в поиске.

У авторов были очень точные измерения для оценки тем, используемых на страницах, связанных с обработкой естественного языка.

Другой ключевой целью исследования было сравнение YMYL-страниц с обычными страницами (пример: страницы с контентом про заболевания отличаются от страниц с контентом, не связанным со здоровьем). Могут ли страницы, не попадающие в категорию YMYL, быть менее чувствительными к некоторым факторам ранжирования? Ответы на эти и другие вопросы предстояло получить.

Поскольку на словах Google постоянно заботится о пользовательском опыте, были получены и данные о скорости каждой страницы, а также показатели Core Web Vitals. Нужно было понять: действительно ли Google считает перечисленные показатели ключевым компонентом пользовательского опыта.

Content Score — лучший ориентир качества

У Surfer SEO есть собственный индикатор качества содержимого — оценке «Content Score». Она используется для оценки качества контента. И это не реклама сервиса: CS действительно оказался относительно точным предиктором лучшего ранжирования по сравнению с любым другими постраничными факторами, которые авторы рассматривали в своем исследовании. Это справедливо и для 2023 года (тогда корреляция составила .18), и для 2024 года (в нем она стала .21). Небольшое изменение корреляции между двумя периодами показывает: мартовское обновление не затронуло многие ключевые постраничные сигналы.

Об оценке Content Score

Этот показатель демонстрирует совокупность основных и второстепенных сигналов ранжирования.

Оценка контента складывается из многих факторов. Вот главные:

  • Использование релевантных ключевых фраз в тексте.
  • Заголовок H1.
  • Остальные заголовки и структура абзацев.
  • Длина контента.
  • Количество изображений.
  • Скрытый контент (т. е. alt-текст изображений).
  • Главные и второстепенные ключевые слова: как часто они упомянуты, в каком месте в тексте они используются.
  • Еще десяток сигналов.

Подробнее о корреляциях и измерениях в исследовании

Исследование было направлено на анализ ранжирования нишевых сайтов (но не на особенности мегасайтов). Цель: получить результаты, которые будут полезны для большинства SEO-специалистов, работающих с небольшими сайтами.

О мегасайтах

Мегасайты — это большие сайты на раздутых доменах, которые имеют много ссылок и на которые ссылается огромное количество других сайтов. Википедия — типичный пример мегасайта. Другие примеры — YouTube, Twitter, Reddit.

Ссылки у мегасайтов появляются естественным образом, потому что они являются такими центрами размещения контента по популярным темам, к которому хотят привязаться и другие сайты. Получение ссылок с мегасайтов может значительно повысить авторитет домена-реципиента.

Теперь ссылки с мегасайтов также очень тщательно проверяются Google. Они анализируют, имеет ли ссылка контекстный смысл или она используется исключительно для искусственной оптимизации. Во втором случае вес передан не будет.

Ключевые моменты, которое изучало исследование:

Изучались домены с несколькими URL-адресами — для лучшего понимания их ранжирования в поиске.

Использовались ключевые слова с очень низкой конкуренцией (более 10 запросов в месяц на Amazon, но часто менее 10 в Google).

Исключались крайне узкие и специфические темы, требующие длинных поисковых запросов с хвостом.

Генерировались разные типы ключевых слов, например, добавлялись слова «купить» или «как использовать» к базовому запросу.

Вот как генерировались различные типы ключевых слов. К слову «купить» (сильный коммерческий интент) был добавлен ключ «adobe professional» (брендовый интент), а в другом — «как использовать» (информационный).

Товар Категория Поисковый интент Добавленное слово (или фраза) Ключ

adobe professional

ПО

Информационный

how to use

how to use adobe professional

Для анализа использовался коэффициент ранговой корреляции Спирмена. Он показывает связь между переменными: от -1 до 1. Спирмен лучше подходит поскольку учитывает ранжирование результатов в порядке убывания важности.

Значение корреляции >0,05 означает положительную связь, <0,05 — отсутствие связи. Чем выше значение, тем сильнее влияние фактора.

Затем искали такие «контрольные точки» — сайты с одинаковыми исходными условиями, но разными тематиками, чтобы лучше определить влияние факторов.

Корреляция не = причинно-следственная связь, но она позволяет выявить влияние факторов, когда переменные нельзя полностью контролировать.

В исследовании использовались только статистические методы

И тут первый челлендж: Google использует тысячи факторов, поэтому выделить независимые переменные очень сложно. Но корреляции веками использовались в науке, когда переменные не могли быть полностью контролируемыми. Они признаны наукой, и утверждать обратное — недальновидно.

Категории и классификации ключевых слов

Итак, ключевыми словами были поисковые запросы, связанные с товарами (продуктовые ключи). Использование узких ниш позволяло группировать темы, которые не являются YMYL (по сравнению с теми, которые являются таковыми).

Подсчет категорий. Оригинальный набор данных:

Surfer Study May 2024

Так намеренно использовались запросы по товарам из категорий CBD, вейпинг, наращивание мышц, потеря веса и др (токсичные тематики, которые не поощряются ПС).

Выбирались в том числе опасные, запрещенные или спорные категории товаров, удаленные с Amazon.

Помимо тем, связанных со здоровьем, рассматривались и безопасные тематики. Категории ключевых слов были разделены на три классификации в зависимости от количества запросов. Вот они:

Surfer Study May 2024

Подробные выводы и практические рекомендации

Начнем с важности авторитетности темы и важности семантического SEO. Обе догадки были успешно подтверждены в ходе исследования.

Ключевые моменты, которые нужно запомнить (хотя бы на лето и осень 2024 года):

  1. Самым значительным фактором ранжирования является использование на странице тем и ключевых слов, связанных с поисковым запросом пользователя.
  2. Отсутствие общих ключевых слов сильно снижает позиции сайта в выдаче. Корреляция между этим фактором и рейтингом сайта составляла -0,11 в декабре 2023 года и увеличилась до -0,13 в апреле 2024 года. Более высокая отрицательная корреляция (те же -0,13) означает, что отсутствие релевантных ключевых слов существенно ухудшает ранжирование.

Опираясь на данные исследования, делаем вывод: в 2024 году по-прежнему критически важно использовать на страницах сайта ключевые слова, тематически связанные с запросами пользователей, чтобы обеспечить высокие позиции в поисковой выдаче Google. Но лишь одно это — точно не даст вам высокие места в выдаче.

Surfer Study May 2024

И это новое открытие. Мы, SEO-специалисты, вообще никогда не видели, чтобы какое-либо крупное исследование апдейта Google демонстрировало столь высокую значимость тематического авторитета. В то же время просто не было таких детальных исследований (с точными данными о странице, на базе нескольких тысяч результатов поиска).

Раньше считалось, что ссылки и авторитет сайта влияют на его ранжирование больше всего. Оказывается это не так.

Самый важный фактор — наличие в тексте ключевых слов по теме. И это важнее, чем количество посетителей на сайте или ПФ.

Статьи на мегасайтах (ТТ Журнал, например) ранжируются выше и лучше, чем на мелких, нишевых. И даже если контент на условном ТЖ будет некачественным, он все равно будет выше.

Google давно учитывает смысл текста — благодаря алгоритмам BERT (введен в 2019 год) и Hummingbird (2013 год). Они помогают понять, о чем написан контент на странице и о чем сам запрос. Это нужно учитывать!

YMYL-страницы против не YMYL-страниц

Авторы обнаружили, что алгоритмы Google повышают чувствительность к постраничным факторам, когда возвращают результаты по темам, связанным со здоровьем.

Surfer Study May 2024

Чтобы высоко ранжироваться в Google, страницы YMYL должны более полно освещать тему. После мартовского обновления это стало более важным, чем еще было в декабре.

В результатах поиска по YMYL-запросу приоритет отдается контенту правительственных сайтов, авторитетных финансовых компаний, исследовательских центров, институтов, больниц и сацтам самых крупных СМИ. Вот почему сайт Forbes, к примеру, так часто мелькает по любым финансовым запросам.

YMYL и мартовское обновление

Вообще YMYL-сайты начали привлекать к себе внимание SEO-сообщества еще в 2018 году, когда Google выпустил обновление — Medic Update. С тех пор сайты тематик здоровья и финансов штормитт ежедневно. Стабильности больше нет.

Напомним, после обновления Medic Update в 2018 году позиции YMYL-сайтов стали нестабильными. Они падали, росли, снова падали. И так Google стремился и стремится быть более осторожным при ранжировании страниц по важным вопросам (здоровье и финансы, в первую очередь).

Для YMYL-сайтов предъявляются более высокие требования к сигналам экспертности, авторитетности и доверия (E-E-A-T).

Также выявлены различия в факторах ранжирования между YMYL- и обычными сайтами: так запрещенные или потенциально опасные темы оказались еще более чувствительны к оптимизации контента.

Количество ранжируемых ключевых слов и трафик домена — тоже важные факторы, влияющие на авторитетность сайта.

Наличие страницы на более крупном авторитетном сайте — улучшает ее ранжирование.

Учет тематической релевантности стал важнее, чем ранее используемая стратегия ориентации только на конкурентов.

Гипотеза подтверждена: Google применяет более строгие критерии к ранжированию YMYL-сайтов, уделяя особое внимание авторитетности, экспертности и полноте раскрытия темы. При этом авторитет домена по-прежнему играет ключевую роль.

Скорость сайта, высокоранговые страницы

Google наделал много шума, когда объявил:

«Сигналы опыта страниц [будут] включены в ранжирование Google Search. Эти сигналы измеряют, как пользователи воспринимают опыт взаимодействия с веб-страницей, и вносят вклад в нашу постоянную работу, направленную на то, чтобы люди получали максимум пользы и удовольствия от работы в Интернете... Сигналы опыта страницы в ранжировании будут внедрены в мае 2021 года».

Авторы исследования рассмотрели четыре фактора скорости работы сайта. К ним относятся:

  • Размер HTML-кода (в байтах).
  • Время скорости страницы до первого байта (TTFB).
  • Время загрузки в миллисекундах.
  • Размер страницы в килобайтах.

Интересно, что в исследовании этих же авторов от 2023 года они вообще не обнаружили корреляции с показателями скорости страниц. Это было удивительно, ведь в прошлом году многие вебмастеры придавали им слишком большое значение.

Наибольшая корреляция составила всего .03 для TTFB (и для размера HTML-файла).

Но уже после мартовского обновления поиска мы видим значительный скачок. Это полностью соответствует заявлению Google о том, что пользовательский опыт является приоритетом для полезного контента.

Surfer Study May 2024

Время до первого байта — самый важный фактор, как и пять лет назад. Размер HTML-файла был вторым фактором скорости, который имел наибольшее значение.

Информационный контент против коммерческого

Разные поисковые интенты требуют разных подходов. И лучше с точки зрения SEO должен быть оптимизирован именно информационный контент.

Вернёмся к теме. Были созданы две группы запросов по различающимся интентам. Это еще одно исследование, который никогда не проводилось с таким большим набором данных.

Исследование Surfer Study May 2024

Для определения корректного интента слово «продается» добавлялось в конец запросов, а слово «купить» — в начало. Это было сделано случайным образом для половины всех ключевых слов в исследовании. В другой половине в начале было добавлено «как использовать».

Поскольку на ранжирование влияет очень много факторов, эти мелкие различия — немного теряются. Но и здесь видно небольшое различие: информационные страницы (которые, как правило, имеют более полный охват по главной теме ключевой фразы) немного более чувствительны, когда на них отсутствовали релевантные главной фразе ключевые слова.

Авторы хотели подтвердить гипотезу: контент на коммерческих страницах не должен быть столь целостными в плане охвата ключей, подробного раскрытия всех релевантных интентов. А вот информационным страницам приходится меньше «доказывать» свою авторитетность, так как на них большее значение имеет текст (а не отзывы, медиафайлы и другой тип контента).

До мартовского обновления мы наблюдали более выраженную разницу:

Исследование Surfer Study May 2024

Google знает, что пользователь не хочет видеть простыни на странице карточки товара. Если он готов к покупке, то, как правило, уже провел некоторый поиск, прошел большую часть покупательского путешествия.

И на коммерческих сайтах используются более сложные структуры, чем на информационных (например, семантическая разметка страниц). Но Google может многое сказать о пользовательском опыте покупателя и с помощью чисто технических SEO-факторов страницы, которые менее важны для информационных страниц (и которые почти всегда более сильно развиты у коммерческих сайтов).

Кроме того, на коммерческих сайтах, где представлено много продуктовых страниц, есть категории, есть страницы-фильтров. Они также содержат контент, который ищут пользователи. Всё это — также сигналы авторитетности для Google.

Проблемы ИИ в поиске Google: бред, галлюцинации, отсутствие достоверных ответов

Проблем с некорректными ответами в поиске Google много, и особенно актуальными они стали с введением блоков ИИ.

Мы уже поняли, что Google ужесточил требования к сайтам YMYL-тематик. Но плохо, что теперь ПС допускает двойные стандарты для своих результатов ИИ.

Ответы ИИ Google генерирует путем анализа существующего контента — с помощью больших языковых моделей, которые могут давать ошибочную информацию.

Часто в поиске наблюдались случаи нелепых и даже опасных рекомендаций ИИ по запросам о здоровье.

Возникают опасения: сами результаты ИИ не соответствуют тем строгим стандартам достоверности и экспертности, которые предъявляются к сторонним сайтам.

В качестве примера приводится поисковый запрос о стволовых клетках, где ИИ ссылается на «малоизвестную клинику» в качестве эксперта.

ИИ в поиске не работает

Исследование лишний раз подсветило проблему: есть серьезные вопрос к ИИ в результатах поиска (к Яндексу это также относится самым прямым образом).

Чрезмерная оптимизация, копирование чужого контента

Может ли чрезмерное копирование контента топовых сайтов по той же теме считаться методом манипулирования результатами поиска?

Именно корреляционное исследование не может дать однозначный ответ на этот вопрос. Предполагается только, что Google с помощью машинного обучения анализирует страницы на наличие признаков переоптимизации, в том числе слишком большого заимствования контента из смежных тематик.

Что касается копирования чужого контента. Такой подход может рассматриваться поисковой системой как переоптимизация и манипулирование результатами поиска. Однако исследование не выявило прямой корреляции между меньшим разнообразием уникальных (или тематически связанных) слов и более низким ранжированием.

В любом случае, создание простыней текста (и набивка их ключевыми словами) уже давно не является эффективной SEO-тактикой.

Рекомендации на основе полученных результатов

Во-первых — это расширение тематического охвата и полнота контента. Хотите в ТОП? Создавайте глубокий, всеобъемлющий контент. Чтобы он охватывал основную тему и связанные с ней подтемы (за рубежом этот подход называется семантическим SEO). Ну а SEO-специалисты назвали бы такой подход проще: полное раскрытие всех интентов.

Во-вторых — вот 5 подробных рекомендаций что и как делать:

  1. Изучайте смежные поисковые интенты основного ключа с помощью специальных сервисов. Годится для этих целец и сам SurferSEO. Хорошо справятся Frase.io, AnswerThePublic, Ahrefs, Google Keyword Planner. Определяйте, какие подтемы следует раскрыть в тексте. Это очень важно!
  2. Создавайте детальные планы будущих статей. В структуре отражайте основные и второстепенные интенты (обычно это самостоятельные разделы статей).
  3. Используйте тематические кластеры. Так чтобы главная «опорная» страница по теме была связана с более узкими «кластерными» страницами — по подтемам.
  4. Проверяйте тип интента. Бывают информационные, навигационные, транзакционные, брендовые. Создавайте контент с учетом типа интента.
  5. Регулярно обновляйте контент, добавляя новую информацию. Это покажет Google, что ваша статья актуальна.

Соответствие стандартам E-E-A-T (для контента YMYL)

Если ваш сайт публикует контент по темам, связанным со здоровьем, финансами, юридическими услугами, то крайне важно следовать стандартам E-E-A-T. Иначе сайт очень быстро отправится на последние места выдачи.

Вот как улучшить сигналы E-E-A-T (на примере медицинского сайта):

  1. Привлекайте квалифицированных медицинских специалистов для создания и проверки контента о здоровье. Например, реальных врачей.
  2. Публикуйте на сайте подробные биографии авторов, подчеркивающие их компетенцию и опыт в данной области. Это сверхважно!
  3. Цитируйте авторитетные источники, ссылайтесь на научные исследования, официальные руководства.
  4. Регулярно обновляйте материалы чтобы поддерживать их точность.
  5. Наращивайте внешние ссылки, а не внутренние. Для коммерческих сайтов важно упоминания бренда за пределами сайта. Хотя это и не оценивалось напрямую в данном исследовании, это тоже важный фактор для ранжирования.

Повышение скорости работы сайта, улучшение пользовательского опыта

Скорость работы сайта и удобство использования становятся все более важными для SEO.

Чтобы уменьшить время загрузки сайта, улучшить UX (и повысить общую удовлетворенность) — улучшайте, в первую очередь, TTFB.

Важно:

  1. Оптимизировать время отклика сервера.
  2. Минимизировать размер страниц.
  3. Использовать Google PageSpeed Insights, для выявления и устранения проблем с производительностью.
  4. Сделать сайт дружественным к мобильным устройствам.

Будущие исследования

Мартовские изменения в Google не принесли значительных изменений в ранжировании крупных сайтов. Но вот мелкие сайты — пострадали очень сильно. Вебмастеры сообщают об обрушении позиций глобально. Похожая вещь произошла и в поиске Яндекса.

Это масштабное исследование — пока лишь капля в море. Нужны дальнейшие тесты, такие же крупные исследования и постоянный анализ. Но уже понятно, что семантическое SEO теперь влияет на ранжирование гораздо сильнее.

*Семантическое SEO (от англ. Semantic SEO) — практика оптимизации контента, когда основное внимание уделяется не отдельным ключевым словам, а более широкому смысловому контексту. Делается акцент на глубоком понимании целевой тематики. Важно создавать максимально исчерпывающий контент по заданной теме, охватывающий все связанные с ней запросы (интенты). Естественность и полезность контента — важнее плотности ключей, других SEO-параметров.

Коротко о главном

  • Чтобы высоко ранжироваться в Google, страница YMYL-сайта должна иметь максимально полный охват по основному ключу (нужно раскрыть все главные и дополнительные интенты, относящиеся к главной поисковой фразе).
  • Полностью подтверждена значимость тематического авторитета.
  • Теперь Google уделяет еще больше внимания пользовательскому опыту, в том числе скорости работы сайта (и времени его загрузки).
  • SEO нужно делать, в основном, только для информационного контента, который будет ранжироваться в органике. Для платного поиска (объявления) — SEO менее важно.

Материал — адаптация оригинальной публикации searchenginejournal

Читайте также:

Ваш сайт вдруг пропал из поиска Google? Объясняем, почему

Google опять меняет поисковой алгоритм — это коснется всех

Локальное SEO для малого бизнеса

#
SEO
© «TexTerra», при полном или частичном копировании материала ссылка на первоисточник обязательна.