«Яндекс» внедрил алгоритм фильтрации спам-текстов «Баден-Баден» в начале весны 2017 года. А все, что нужно знать об этом фильтре, было опубликовано в блоге «Текстерры» в 2013 году.
Вот самые важные публикации по теме:
- Почему контент-маркетинг — новое SEO. Денис Савельев объясняет, почему для поисковых систем плотность ключей отошла на второй план.
- Об алгоритме Google Hummingbird. После внедрения «Колибри» техника keyword stuffing потеряла смысл.
- О семантическом апокалипсисе. Значение ключевых слов упало после внедрения «Колибри» и отображения вместо ключей not provided в Google Analytics.
- Почему нужно фокусироваться на темах, а не на ключевых словах. Результаты исследования Searchmetrics подтверждают снижение роли ключей в ранжировании сайтов.
- О глубинном обучении. Денис Савельев в 2015 году рассказывает, как роботы учатся думать по-человечески.
Отговорки типа «не читал», «пропустил», «не помню» оставьте себе. Если вы уже работали в интернет-маркетинге в 2013 году, имейте мужество признаться: читали, но не поверили. Решили работать олдскульными методами. То есть искать дыры в алгоритмах, обманывать клиентов, пользователей и поисковые системы, а не создавать что-то полезное.
Поэтому так вам и надо. Не читайте дальше, идите закрывать спам-тексты «ноуиндексом» и искать новые способы обмануть людей и роботов. Вы неисправимы. Но вы нужны. На вашем фоне выгодно выделяются специалисты и владельцы проектов, которые прислушались к рекомендациям «Текстерры» от 2013 года.
Для кого эта статья? Для тех, кто недавно в интернет-маркетинге. Для тех, кто по недоразумению платит олдскульным сеошникам, которые регулярно загоняют сайт под санкции поисковиков. Для тех, кто хочет развивать проекты и гарантированно избегать любых фильтров поисковых систем. И для тех, кто случайно попал под «Баден-Баден» и хочет правильно из-под него выйти.
Что такое «Баден-Баден» и зачем он «Яндексу»
«Баден-Баден» — это часть алгоритма «Яндекса», которая фильтрует текстовый спам. Поисковик внедрил его весной 2017 года. Сначала представители поисковой системы говорили, что под фильтр попадут только страницы с переоптимизированным текстом. Чуть позже они решили, что наказывать можно сайт целиком, а не только отдельные страницы. О штрафных санкциях «Яндекс» сообщает в разделе «Диагностика – Безопасность и нарушения» сервиса для вебмастеров.
В некоторых случаях штрафные санкции применяются не к сайту целиком, а к отдельным страницам с переоптимизированным контентом. Тогда владелец ресурса не получает уведомление в «Вебмастере». Диагностировать пенальти можно по падению посещаемости из «Яндекса» отдельных страниц начиная с третьей декады марта 2017 года.
Читайте также: Мнения экспертов рынка о борьбе «Яндекса» с SEO-ссылками
«Баден-Баден» — не принципиально новый фильтр, а усовершенствованная версия давным-давно работавшего алгоритма. Помните, как в 2010 сеошники пытались обманывать людей и роботов с помощью псевдолонгридов, напичканных ключевыми словами? Так называемые портянки прятали от людей в нижней части страницы. «Яндексу» это не понравилось, поэтому он стал пессимизировать сайты со спам-текстами.
Почему поисковики лишают трафика сайты с текстовым спамом? Потому что люди ищут в интернете полезную информацию, а не напичканные ключами бессмысленные тексты. Потому что манипуляция результатами поиска нарушает правила «Яндекса», Google и других систем. Этого достаточно.
Вы можете определить текст, за который можно получить санкции. Для этого не нужно считать частоту употребления ключей, тошнотность или другие показатели. Достаточно одного признака: текст создан, чтобы всех обмануть. Обмануть роботов с помощью топорно вставленных или красиво замаскированных ключей. Обмануть людей с помощью пустого контента. А контент, созданный ради манипуляции выдачей, не может не быть пустышкой.
Можно ли попасть под фильтр «Баден-Баден» случайно? Только в теории. На практике для получения санкций нужно постараться: специально найти ключи, намеренно употреблять их в тексте и полениться сделать контент хотя бы минимально информативным.
Что происходит, когда сайт попадает под «Баден-Баден»
Поисковая система лишает ресурс части посетителей. Вот как это выглядит на практике.
Обратите внимание, посещаемость из Google на графике стабильная. Это косвенно подтверждает алгоритмические санкции со стороны «Яндекса».
Помните, с текстовым спамом борются все поисковые системы. Если вы получили пенальти от «Яндекса», с огромной долей вероятности вы лишитесь части трафика из Google и других поисковиков. «Панда» и другие фильтры доберутся до вашего сайта, если уже этого не сделали.
На другие источники трафика «Баден-Баден» не влияет. Это не значит, что можно публиковать спам-тексты, если вы привлекаете посетителей исключительно с помощью контекстной рекламы или из соцсетей. Пользователи приходят на сайты не за SEO-мусором независимо от источника переходов. Из-за переоптимизированного контента вы получите санкции непосредственно от аудитории. Ваш сайт просто будет неэффективным.
Откуда «Текстерра» знала о фильтре «Баден-Баден» в 2013 году
Откровенно говоря, «Текстерра» не знала, что весной 2017 года «Яндекс» выпустит антиспам-фильтр, который будет называться «Баден-Баден». Но «Текстерра» знала, что «Яндекс» будет постоянно бороться со всеми формами поискового спама, включая переоптимизированные тексты. И что антиспам-алгоритмы будут постоянно совершенствоваться. И что однажды они станут настолько эффективными, что попытки обмануть пользователей с помощью поисковых систем станут бессмысленными.
Зачем «Яндексу» и Google бороться со спамом? Это их бизнес. От качества результатов поиска зависит удовлетворенность пользователей. От удовлетворенности зависит доля поисковика на рынке и доходы от рекламы. Поисковый спам однозначно ухудшает качество поиска. Получается, горе-оптимизаторы вставляют палки в колеса бизнесу «Яндекса» и Google. Поэтому поисковики будут всегда бороться с любыми накрутками.
В 2011 году стало окончательно понятно, что олдскульное SEO, построенное на обмане и манипуляциях, не имеет перспектив. Шесть лет назад «Яндекс» научился эффективно бороться с текстовыми портянками. А Google выпустил из клетки первую «Панду», которая съела сайты с некачественным контентом. Поисковики боролись с накрутками и до 2011 года. Но в тот год случился перелом, после которого смерть манипулятивного SEO отрицают только убежденные манипуляторы.
Что знала «Текстерра» в 2013 году? Вот цитата из статьи Дениса Савельева «Почему контент-маркетинг — это новое SEO»:
Уже в 2013 году поисковые системы при формировании выдачи определяли не только семантическую релевантность, но и учитывали удовлетворенность аудитории. Можно ли удовлетворить читателя текстовым спамом? Вопрос риторический.
Дальше — больше. Поисковые системы заинтересованы в улучшении результатов выдачи. Чтобы поиск был качественным, поисковикам важно уметь определять семантическую релевантность не только с помощью арифметики. Во второй половине 2013 года Google внедрил алгоритм «Колибри».
С помощью алгоритма Hummingbird крупнейшая поисковая система мира улучшила обработку сложных запросов. Поисковик начал понимать человеческий язык и распознавать потребности, которые стоят за запросами типа «где отдохнуть в Питере вечером».
Кроме запуска принципиально нового алгоритма, осенью 2013 года Google изменил работу планировщика ключевых слов и вместо конкретных ключей предложил вебмастерам фразу not provided в Analytics. Изменения были настолько масштабными, что отрасль заговорила о семантическом апокалипсисе.
В статье о Google Hummingbird в блоге «Текстерры» в октябре 2013 года появился прогноз:
Спустя несколько месяцев компания Searchmetrics опубликовала результаты исследований, которые зафиксировали снижение корреляции между ключевыми фразами и позицией сайта в поисковой выдаче. Исследователи еще раз повторили: само по себе ключевое слово в тексте не гарантирует вам посещаемость. Важно удовлетворять информационные потребности аудитории, а не впихивать в текст ключи.
В 2013 году произошло еще одно важное событие. На отраслевой конференции в Лас-Вегасе бывший аватар Google Мэтт Каттс сообщил, что крупнейший поисковик мира стал использовать технологию глубинного обучения или deep learning для повышения качества поиска. Именно глубинное обучение сделало возможным алгоритм «Колибри».
Нужно отдать должное гениальному безумцу Курцвейлу. Глубинное обучение и «Колибри» стали шагом в направлении RankBrain. Этот алгоритм ранжирования был официально анонсирован осенью 2015 года. Главная особенность — алгоритмом управляет искусственный интеллект.
«Яндекс» старается не отставать от Google. Осенью 2016 года все еще крупнейший поисковик рунета представил «Палех»: алгоритм ранжирования на основе нейронных сетей. Благодаря искусственному интеллекту «Яндекс» учится понимать смысл длиннохвостых запросов.
Промежуточный итог: бесперспективность манипулятивного SEO, включая текстовый спам, стала очевидной где-то в 2011 году. В 2013 году отрасль трубила о семантическом апокалипсисе, а Каттс с Курцвейлом выпустили на волю deep learning. Google стал понимать смыслы фраз и текстов. «Яндекс» быстро идет в том же направлении.
Как выйти из-под фильтра «Баден-Баден»
Ответ очень простой. «Яндекс» рекомендует отказаться от текстов для роботов и публиковать тексты для людей. Рекомендация не требует расшифровки. Нет, стоп. Если в 2017 году есть люди, которые умудряются загнать сайт под «Баден-Баден», расшифровывать все-таки нужно.
Чтобы вывести сайт из-под фильтра «Яндекса», нужно удалить все SEO-тексты и опубликовать вместо них полезный и информативный контент. Если у вас десятки, сотни или тысячи публикаций, напичканных ключевыми словами, быстро заменить их не получится. Поэтому придется идти на временные меры: закрывать SEO-контент тегом <noindex>.
Только помните, это временная мера. «Ноуиндекс» поможет вам выиграть время, нужное для создания и публикации человеческих текстов. Запрос на пересмотр следует подавать именно после замены контента, а не после запрета индексации спама.
Почему «ноуиндекс» — временная мера? Есть понятная всем аналогия. Представьте, что ваш кот забыл о существовании лотка и оставил вам большой привет прямо на паласе в центре гостиной. Что в этой ситуации сделает вменяемый человек? Уберет большой привет, свернет палас и обязательно его постирает. Да, еще он предварительно пару раз ткнет кота носом в продукты жизнедеятельности для профилактики рецидивов (привет сеошникам).
Теперь вопрос: можно ли назвать вменяемым человека, который перед приходом гостей не уберет кошачий привет, а поставит вокруг паласа таблички с просьбой не обращать внимание? Тег <noindex> — это такая же табличка. Она не защищает от запаха SEO-текстов.
Иными словами, закрыть контент для роботов «ноуиндексом» и больше ничего не делать — это в духе олдскульного манипулятивного SEO. Из-за одного обмана завравшийся специалист идет на другой обман.
Кстати, роботы «Яндекса» — не дураки. Если манипулятивные попытки выйти из-под санкций с помощью <noindex> будут массовыми, появится новый антиспам-алгоритм.
«Баден-Баден» — не самый страшный фильтр
В поисковых алгоритмах есть и всегда будут дыры. Поэтому всегда будут те, кто паразитирует на уязвимостях. Хорошая новость в том, что поисковые системы быстро улучшают качество поиска и лишают манипуляторов возможностей обманывать пользователей. Ситуация такая: чем лучше себя чувствуют «Пингвин» и «Панда», и чем лучше погода в «Минусинске» и «Баден-Бадене», тем проще работать нормальным владельцам сайтов и маркетологам.
Есть и плохая новость. Издателям нужно учиться обходить самый жесткий фильтр, по сравнению с которым «Панда» и «Баден-Баден» — игрушки. Это пенальти за качественный контент. Этот фильтр не имеет отношения к поисковым системам. Он находится в головах пользователей. Люди игнорируют хорошие публикации, чтобы не захлебнуться информацией. А вы в этих условиях попадаете под санкции из-за SEO-текстов? Так вам и надо.