В марте 2014 года Google начал шифровать абсолютно все поисковые запросы. Теперь в Google Analytics вместо поисковой фразы, по которой было совершенно n-нное количество визитов на сайт, мы увидим два слова: not provided. Напомним, Яндекс в декабре 2013 года – вместе с анонсом об отмене ссылочного ранжирования – также начал шифровать текст поисковой фразы в заголовке Referer у части поисковых запросов. Мы предполагаем, что рано или поздно это произойдет со всеми запросами. Причем, скорее рано, чем поздно.

Резюмируя, можно сказать: ситуация такова, что уже в ближайшее время с прежней ясностью понимать, какие запросы в тематике генерят переходы, уже будет нельзя – это можно будет только прогнозировать.

Основной вывод для владельцев сайтов и сеошников? Продвижение по позициям окончательно отменяется. Остается только одно достоверное мерило результативности – поисковый трафик.

Google Analytics больше не показывает поисковые запросы. Скоро их перестанет показывать и Яндекс

Что такое LSI-копирайтинг

Что вообще означают все эти печальные для SEO (и обнадеживающие для тех, кто занимается продвижением с помощью контент-маркетинга) новости? Похоже, поисковые гиганты нацелились на планомерное истребление всех оставшихся в поисковом маркетинге элементов классического SEO. Это последовательно проводимая политика максимального нивелирования манипулятивных действий со стороны оптимизаторов.

Если не известно, по каким запросам ваш сайт получает трафик, то на основании чего делать вывод об эффективности того или иного продвигаемого ключа/поисковой фразы? Есть такое суждение: если мы забудем о поисковых запросах, оставим попытки отследить, каким запросам должна быть релевантна та или иная страница сайта, то релевантность в итоге на странице будет «размыта». Но на самом деле все не так. Все честно: о чем вы выпишите на странице – тому она и релевантна.

Тут важно понять, что релевантность – это уже давно не плотность ключа на странице. И мы понимаем, о чем говорим. Мы сами много лет назад разработали скрипт оценки плотности ключа на основании сайтов, находящихся в ТОП-20 поисковой выдачи по тому или иному запросу. И, в общем-то, с 2010-го мы уже им не пользуемся сами :) – это просто ни к чему. Релеватность больше не касается фраз-маячков, вписанных в текстовый контент, релевантность во времена семантического поиска касается смысла, содержания.

Тренд ближайших нескольких лет – это так называемый LSI-копирайтинг.

С аббревиатурой LSI все более менее понятно: это латентно-семантическое индексирование (latent semantic indexing), метод индексирования скрытой семантики – семантики, меняющей значение в зависимости от контекста. Именно благодаря LSI поисковики учатся понимать естественный язык запросов.

В ответ на движение поисковиков в сторону семантического поиска возник так называемый LSI-копирайтинг. LSI-копирайтинг в ближайшие два-три года отменит seo-копирайтинг полностью.

Как меняется понятие «релевантность» с совершенствованием семантического поиска

Что мы подразумеваем под seo-копирайтингом? Работа с текстом на основании перечня вписываемых ключей и плотности их вписывания. Почему он будет существовать еще ближайшие два-три года? Вовсе не потому, что вписывание ключей сегодня эффективно. Просто инертность рынка огромна, именно поэтому работа с текстом по плотности ключей будет какое-то время еще жить.

Вписывание ключей (seo-копирайтинг) не актуален, не эффективен и даже вреден уже года два как. Все началось в 2011-м – с алгоритма Panda, крупнейшего по значимости в истории обновлений алгоритмов Google. Основное, что говорят о Panda: этот алгоритм был нацелен на борьбу с некачественными текстами. Но это не совсем так. На самом деле Panda оценивал взаимодействие пользователя с сайтом, еще точнее – степень его вовлеченности при просмотре содержимого веб-страницы. Очевидно, что текстовый контент играет огромную роль при формировании мнения посетителя о странице. И с этой точки зрения правомочно говорить, что Panda – это начало серьезной борьбы с некачественными текстами (хотя сводить все это обновление к одному только качеству текста, конечно, неправильно). После введения этого алгоритма выдача Google очистилась от огромного количества текстовых ферм и сайтов, на которых тексты явно были созданы ради вписывания ключей, а не для людей.

Но, по большому счету, настоящий прорыв в области семантического поиска произошел с введением в 2013 году алгоритма Hummingbird (Колибри). С этого момента началась истинная история LSI-копирайтинга.

Hummingbird был представлен на пресс-конференции, посвященной 15-летию Google. Тогда руководитель направления по разработке поисковой системы Амит Смит отметил, что Humminbird – самое серьезное с 2001 года обновление. С его введением начался период обработки поисковых запросов не столько по ключам, сколько по смыслу. Как заявили в Google, это нововведение – ответ на то, что люди начали реже вводить в строку поиска лаконичные запросы, содержащие ключевые фразы, и все чаще стали использовать при поиске «естественные» запросы – просто фразы разговорной речи, довольно часто сложные и длинные. Hummingbird «умел» обрабатывать такие запросы.

Таким образом, сегодня имеет смысл говорить о «релевантности смыслов», а не о «релевантности слов-маячков» на странице, что является серьезным эволюционным шагом в семантическом поиске.

Фактически речь идет о том, что поиск стремится «прочесть» и «пересказать» текст своими словами – а это – ни больше, ни меньше – заявка на искусственный интеллект. Пока, правда, ни один робот не прошел этот «текст для первоклассников», но эволюция в этом направлении идет впечатляющими темпами.

К чему все идет?

Сразу вспоминается, насколько серьезно Google в последнее время начал фокусироваться на разработках, связанных с созданием искусственного интеллекта. В январе 2014-го Ларри Пейдж лично курировал приобретение компанией Google лондонской фирмы DeepMind Technologies, ориентированной на создание алгоритмов глубокого машинного обучения, с использованием наработок в области нейробиологии.

А незадолго до этого поисковый гигант купил Boston Dynamics – всемирно известную инженерную компанию, разрабатывающую, пожалуй, самых продвинутых роботов на этой планете.

Одна из военных разработок Boston Dynamics — BigDog. Предназначен для перемещения на местности, где не может передвигаться обычный транспорт. Длина робота — 0,91 м, высота — 0,76 м, вес —110 кг.

Google ориентирован на глубокое обучение и, вероятно, на создание умного машинного «мозга». Более того, в компании создана комиссия по этике, которая будет наблюдать за тем, чтобы разработка искусственного интеллекта шла в «правильном» с точки зрения общепринятых гуманных норм направлении.

После этого, какой остается шанс, что Google оставит возможность производить хоть какие-то манипулятивные воздействия на выдачу? Никакого.

Смысл в том, что чем больше вы будете думать об интересах людей (вашей аудитории) и чем меньше о том, как за счет несовершенств поисковика можно накрутить трафик, – тем легче вам будет расти и получать лояльную аудиторию. Создавайте контент для людей, улучшайте сайты, чтобы посетителям было удобно ими пользоваться. Оптимизация кончилась, остался чистой воды маркетинг в Сети. Думайте о том, что нужно вашей ЦА, и давайте ей это – что еще тут можно сказать?

Ну и специально для тех, кто сомневается в том, что технологическая сингулярность будет достигнута. Посмотрите на видео ниже. И после такого вы все еще сомневаетесь?

Базовые движения этого робота заданы алгоритмом. Но он сам принимает решение, какие движения использовать – в зависимости от типа звучащей музыки и ритма.

#
Контент
© «TexTerra», при полном или частичном копировании материала ссылка на первоисточник обязательна.