Сергей Людкевич — один из старожилов рынка поискового маркетинга в рунете. Постоянный докладчик профильных конференций, круглых столов по вопросам SEO, супермодератор форума searchengines.ru. Давно слежу за его публикациями, нахожу в них много интересного для себя. Взяв интервью, понял, что рассказчик Сергей не менее интересный, чем докладчик на профильных мероприятиях. Представляю вам нашу часовую беседу.

Сергей Людкевич

Сергей, здравствуйте. Как вы пришли в SEO?

СЛ: Ну началось все с «Текарта». В 1999 году мои однокашники по Тульскому политеху основали эту компанию, и в 2000 году пригласили меня к себе. Мне было предложено заняться продвижением сайтов.

Ну, тогда еще и рынка как такового не было…

СЛ: Да, в России рынка не было. Но у компании были клиенты на американском рынке, а там SEO уже было. И я стал изучать алгоритмы ранжирования. Тогда они были достаточно простые. И поисковые машины очень сильно отличались от нынешних. Google тогда только начинался, рулили ныне уже забытые поисковики, такие как Altavista, Excite, Hotbot и т.д. Сейчас их уже никто и не помнит… В начале 2000 года Google уже стал только-только завоевывать позиции на американском рынке.

Что такое «Поисковая аналитика», в которой вы сейчас работаете? Это клиентский сервис, коммерческая структура или исследовательская лаборатория?

СЛ: Скорее, это исследовательская организация, которая обслуживает интересы тех компаний, которые ее учредили. Можно сказать, это такой совместный аналитический центр, который пытается анализировать изменения, происходящие в алгоритмах поисковых машин. И также пытается доносить свою позицию по вопросу, каким должен быть рынок поискового продвижения. То есть информационная миссия, как нам кажется, тоже у нас есть.

Ок, давайте тогда перейдем уже к нашей основной теме. И начну я с такого глобального вопроса: в каком направлении движутся поисковые системы? Во что это выльется с точки зрения технологий?

СЛ: Давайте вспомним, какая концепция у поисковых машин была раньше. А была она такой — давать качественный релевантный ответ на запрос пользователя. Несколько лет назад мы стали наблюдать смену парадигмы и в Google, и в «Яндексе». Сейчас поисковики, очевидно, стараются идти по пути удовлетворения потребностей пользователя. На мой взгляд, возможности заработка поисковиков на контекстной рекламе подошли к своему пределу, поэтому они ищут возможность увеличить свой заработок за счет запуска новых сервисов. Агрегация данных и предоставление услуг на основе агрегированных данных — вот тренд, который мы сейчас наблюдаем. Яндекс.Авто, Яндекс.Недвижимость, Google сейчас запускает отельный агрегатор и т.д. Поисковики имеют огромную аудиторию, которая в том числе ищет в поиске товары и услуги, и грех этой аудиторией не воспользоваться. На мой взгляд, эта тенденция будет в дальнейшем усиливаться, и, вероятно, в дальнейшем все придет к тому, что большая часть пользователей будет удовлетворять свои потребности в рамках поисковой системы.

То есть раздаваться трафика в итоге будет меньше?

СЛ: Если мы говорим о коммерческом сегменте интернета, то да. Владельцы коммерческих сайтов будут загоняться в контекст и другие сервисы поисковых систем.

Сергей Людкевич

Вашу позицию понял. Давайте перейдем к следующему вопросу — о ссылочном ранжировании. На ваш взгляд, было ли это злом для индустрии, было ли это благом? В какой момент поисковики потеряли контроль над ситуацией и потеряли ли его вообще?

СЛ: Я прекрасно помню доссылочную эпоху, когда текстовые факторы были основными факторами ранжирования. Это были веселые времена: скопировав страницу, которая высоко ранжировалась по тому или иному запросу и заменив несколько слов на этой странице, можно было опередить в выдаче сайт, у которого ты этот контент и позаимствовал. Собственно, популярность Google за рубежом с этим и связана: они сделали ставку на ссылочное ранжирование, благодаря которому выдача в какой-то момент времени стала релевантнее, чем у конкурентов, для которых основным фактором являлся поиск по лексике страниц. «Яндекс» со временем тоже внедрил у себя эти технологии, это произошло где-то в 2002-2003 гг. И это нанесло очень сильный удар по дорвеям того времени, качество поиска заметно улучшилось. В какой-то момент оптимизаторы поняли, что ссылки — это инструмент, очень сильно влияющий на выдачу. И произошло то, что произошло. Сначала начался обмен ссылками, это тоже была целая эпоха в индустрии SEO. Потом появились первые биржи ссылок — это все было в ручном режиме, не автоматизировано. В 2005 году можно было буквально одной-двумя ссылками вытащить в топ любой запрос, но ссылки должны были быть с популярного авторитетного ресурса — помните термин «жирная морда»? Торговля мордами — это тоже отдельная веха в истории SEO-индустрии. «Яндекс» не спал, он уже начал активно противодействовать манипулятивным механикам продвижения, понизив вес «жирных морд». Начали работать больше ссылки с внутренних страниц. И так дошло все до того, что появилась специализированная ссылочная биржа Sape.ru, на которой весь процесс купли-продажи ссылок был автоматизирован. Появилась она в тот момент, когда спрос на ссылки с «внутряков» был очень высок. Благодаря этому биржа очень быстро выросла и стала популярной. В этот момент «Яндекс», я считаю, утратил контроль над ситуацией. Но, с другой стороны, мне лично понятно, почему это произошло: «Яндекс» в тот момент не мог отказаться от такого инструмента, как ссылочное ранжирование, заменить его было по сути нечем. Ну, и в итоге все это расцвело буйным цветом, набрало обороты. Дошли руки у «Яндекса» до всего этого только к 2014 году.

А была ли у поисковиков альтернатива? Точнее, даже так: почему ее не было в 2007-2008 годах, а в 2014-ом она появилась? И появилась ли она на самом деле? Что изменилось «внутри» самих поисковых систем?

СЛ: Сейчас поисковики накопили достаточно много данных о посещаемости сайтов. С одной стороны, они имеют и развивают собственные системы статистики (Яндекс.Метрика и Google Analytics), с другой стороны, они достаточно успешно распространяют свои собственные бары, надстройки над браузерами, которые опять-таки поставляют поисковым системам достаточно большое количество данных. А после накопления информации поисковики смогли эту информацию учитывать в своих формулах ранжирования. Ведь что такое Page Rank по сути в его классическом виде? Это оценка вероятности посещения пользователем той или иной страницы.

Что такое Page Rank по сути в его классическом виде? Это оценка вероятности посещения пользователем той или иной страницы.

А теперь у поисковых машин есть уже фактические данные, и в оценке вероятности особой нужды и нет. Другое дело, для поиска по лексике ссылок, по текстам анкоров — тут адекватной замены, наверное, нет в настоящий момент времени. Ведь ссылка — она тоже характеризует тематику страницы и влияет на текстовую релевантность, а это особенно важно, если в самом тексте страницы нет нужной семантики. Ну, в эту сторону поисковики, мне кажутся, тоже движутся. В итоге учет поведения пользователей привел к тому, что «Яндекс» так громко в конце прошлого года анонсировал ранжирование без учета ссылок.

Читали вашу статью «А был ли мальчик?», основным лейтмотивом которой стала мысль, что пока в выдаче изменений нет, и, в общем-то, громкое заявление «Яндекса» в большей или меньшей степени поставлено под сомнение. Больших изменений, действительно, нет — тут спорить бесполезно (реплика в сторону: сижу расшифровываю интервью, и тут очень интересный апдейт «Яндекса» произошел, нужно анализировать, но мыслей различных родил он много, переколбас серьезный в некоторых тематиках), но есть у меня такая крамольная мысль, что отключение ссылок в «Яндексе», если и было, то было несколько раньше, чем официально об этом было заявлено. На наш взгляд, роль ссылочных факторов падала последние годы, а с конца прошлого года мы наблюдаем сильное понижение веса ссылок, их вклада в общее значение релевантности. Что вы скажете на этот счет?

СЛ: Я бы не сказал, что вес ссылочных факторов сильно уменьшался последние годы. Я думаю, что в течение прошлого года, скорее, сильно упало значение новых ссылок. Старые ссылки продолжали работать. А вот касаемо анонса отмены ссылок… Ну тут какая история. Очевидно, что многие сайты «держали» топы за счет ссылок, это всем понятно. Эта встряска выдачи уже после официального объявления об отмене учета ссылок нужна была чисто в политических целях. «Яндекс», объявив об отмене ссылок, не сделал ничего, чтобы оптимизаторов и владельцев ссылок в этом убедить. Даже не убрали «нпс» из выдачи (примечание ДС: сайты, отображаемые в выдаче с маркировкой «найден по ссылке» — в случае, если в тексте страницы нет вхождений искомого ключа). Человек видит этот «нпс» в выдаче, и его уже трудно убедить в том, что сайт может находиться по тексту анкора, но не ранжироваться за счет самой ссылки. И более серьезная встряска выдачи могла бы помочь оптимизаторам поверить в то, что «Яндекс» действительно осуществил то, что декларировал. То, с какой помпезностью все это подавалось, очевидно, должно было быть и выдачей как-то поддержано. Я лично ожидал, что после анонса отмены будут открыты «буки» (примечание ДС: во время значимых, эпохальных изменений алгоритмов «Яндекс» часто показывает новую выдачу сначала на домене http://buki.yandex.ru/, чтобы пользователи могли сравнить новую и старую выдачу, а при каких-то алгоритмах на «буках» даже прикручивалась форма обратной связи — т.е. «Яндекс» собирал фидбек по новому алгоритму от пользователей). Этого сделано не было. В общем, шума было много, но ясности со стороны «Яндекса» и какой-то прослеживаемой логики, к сожалению, не очень много. Мы до сих пор точно не знаем, по каким запросам отключили учет ссылок, по каким — нет. Была ли раскатка формулы по всем тематикам или нет. Когда задаешь Платону такой вопрос, он отвечает: мы такие вещи не озвучиваем. А почему? Наоборот, если ссылочное было в реальности отключено, надо об этом говорить, трубить на каждом углу. Платон тут очень сильно мог бы повлиять на умы владельцев сайтов, но этого нет. Клиент мог бы написать Платону, получить внятный ответ и сказать своему оптимизатору: на ссылки деньги больше тратить не надо. Фактически эти деньги пошли бы на улучшение сайтов. Мы же понимаем, что покупка ссылок на пользовательские характеристики сайта никак не влияет, не развивает его, а развивает только индустрию генерации «фальшивых» сайтов, создающихся под продажу ссылок на биржах. Что в итоге. Я думаю, определенные шаги были сделаны, я даже допускаю возможность, что ссылочное действительно было отключено, ведь достоверно понять мы это не можем. Но также я признаю, что индустрия в настоящий момент в этом убедиться не может. А активный PR со стороны бирж и агрегаторов их еще более разубеждает в заявлениях «Яндекса».

И, тем не менее, ваш прогноз. Все эти перипетии с отменой ссылок — они повлияют на изменение ландшафта индустрии?

СЛ: Пока они повлияли очень слабо. Нет точной уверенности, что ссылки не работают. Нет понимания, по каким запросам они не работают. Естественно, сейчас никто не делает резких телодвижений — я имею в виду снятие ссылок. Ведь мы все знаем, что, потеряв позиции в выдаче, восстановить их бывает крайне сложно (из-за потери ПФ, которые ты имеешь, находясь на хороших позициях). Ну, поэтому никто рисковать особо не хочет сейчас. Ведь для того, чтобы убедиться в правдивости заявлений «Яндекса», нужно провести масштабный эксперимент, сняв ссылочную массу на большом количестве проектов, которые должны высоко ранжироваться по конкурентным запросам в различных тематиках. Никто, понятное дело, на такой эксперимент пойти сейчас не может.

Сергей Людкевич

Следующий вопрос: что, на ваш взгляд, сейчас происходит с ВЧ-запросами? Когда появилась такая вещь, как консервация выдачи по ВЧ-запросам? И почему это происходит?

СЛ: Консервация выдачи появилась с введением поведенческих кликовых факторов ранжирования, которые учитывают кликабельность документов в результатах выдачи по данному запросу. Эти факторы были достаточно весомы. Соответственно, появилась такая вещь, как консервация выдачи по запросам. Возникла положительная обратная связь: чем выше ты ранжируешься, тем больше у тебя кликов. В свою очередь, чем больше у тебя кликов, тем выше ты ранжируешься. Все это привело к тому, что топ не меняется месяцами, не смотря ни на какие апдейты «Яндекса».

А когда вообще появились поведенческие факторы? Понятно, что официально их наличие было признано в 2011 году, после всем известного бана. Но, вероятно же, появились они раньше?

СЛ: Ну, конечно, раньше. В общем-то, «Матрикснет» поведенческие уже учитывал, то есть, получается, минимум с 2009 года поведенческие уже были. Но в полную силу они заработали только в десятом-одиннадцатом году. Ну, и консервация выдачи начала наблюдаться тут же по огромному количеству запросов. В ответ, понятное дело, оптимизаторы стали пытаться на поведенческие факторы влиять, и закончилось все это показательной поркой оптимизаторов. Но наказали ведь далеко не всех, что интересно, а только наиболее, как бы это сказать, одиозных, что ли.

То есть накрутка поведенческих уже в 2011 году была более распространена, чем об этом принято думать?

СЛ: Да, это было более распространено. В 2011-ом начала подниматься уже первая биржа накрутки ПФ. После массового бана она, кстати, стала предлагать услугу загона конкурентов под санкции. Народ у нас быстро ориентируется в ситуации. Ну а дальше это явление стало распространяться еще сильнее, и фактически сейчас это все идет по сценарию накрутки ссылочной авторитетности.

Вопрос: борьба с накрутками может быть принципиально выиграна «Яндексом», либо это будут затяжные боевые действия с локальными победами то одной, то другой стороны? Может ли произойти накопление «Яндексом» какого-то критического объема данных и вследствие этого технологический рывок, за которым оптимизаторы-накрутчики поспеть не смогут?

СЛ: Мне не всегда ясна позиция «Яндекса» и последовательность его действий. Но я бы не говорил так оптимистично, что в ближайшее годы будут разработаны какие-то новые технологии, которые убьют на корню любую накрутку. Опять же, давайте вспомним, как «Яндекс» анонсировал введение бессылочного алгоритма. Помните, какой посыл был у «Яндекса»? Вот сейчас мы накажем накрутчиков. Ну, я лично никаких наказаний не вижу. После первого глобального бана подтвержденных санкций за накрутку ПФ нет. Или же они не имеют такого массового характера. Хотя накрутки, очевидно, есть. И это очень хорошо видно, например, по накрутке поисковых подсказок. Но накручиваются же не только поисковые подсказки, просто по подсказкам это наиболее заметно все. Но если получается накрутить поисковые подсказки (и это видно всем), то почему не должно получаться накрутить другие ПФ, те же кликовые факторы, например? И сейчас это происходит. Периодически какой-нибудь сайт появляется в ТОП-10 по какому-то ВЧ-запросу из ниоткуда. Как он там появился? Я лично не верю, что молодой сайт вдруг какую-то комбинацию факторов каким-то случайным образом применил, что позволило ему так хорошо ранжироваться. Наверняка, что-то было накручено. При условии консервации выдачи это единственное правдоподобное объяснение.

На ваш взгляд, кликовые ПФ имеют больший вес и влияние на алгоритмы ранжирования, чем общесайтовые (длина сессии, pageview, отказы и т.д.)?

СЛ: Да, на мой взгляд, кликовые факторы более важные. Но не только CTR в выдаче — это только один из факторов, — я к кликовым отношу все факторы, связанные с переходом на сайт из поисковой выдачи. То есть учитывается вся сессия, которая начинается с поисковой выдачи: как себя ведет пользователь на странице перехода, «последний» клик в самой поисковой системе и т.д. Это целая группа факторов.

На ваш взгляд, над какими факторами ранжирования SEO-рынок не умеет или не хочет работать, хотя вроде как «уже пора»? То есть, если мы посмотрим на срез рынка, каким факторам уделяется меньше внимания, чем они того заслуживают?

СЛ: Очевидно, это коммерческие факторы. Все факторы, связанные с доверием к сайту со стороны пользователей, с юзабилити, дизайном и т.д. Это те факторы, с которыми за большое количество лет засилья ссылочного ранжирования отечественные сеошники разучились работать. А с ними работать можно и нужно. У нас есть примеры, когда только за счет коммерческих факторов и улучшения юзабилити мы получали хороший рост в поисковиках. Но для этого нужно работать с сайтом. У нас же сеошники привыкли пойти куда-то, занести денег, где-то что-то купить, один раз настроить — и все, рефрешь статистику, жди результатов. Это касается всего, даже текстов. Рынок привык с текстами работать по какому-то шаблону. Есть ТЗ, там описание количества вхождения ключей. Заказали тексты, не думая вообще, что там написано, не читая их, выложили на сайт, купили ссылок — и ждем результата. Но и сейчас, после того, как такая методика перестала работать, все может повернуться в сторону накрутки ПФ: тоже занес куда-то денег, купил пользователей, дал им алгоритм действий: зайти в выдачу, набрать поисковый запрос, перейти на такую-то страницу, сделать то-то и так-то. Но к развитию сайта это не имеет никакого отношения. На мой взгляд, альтернатива этому — движение в сторону улучшения сайта и его пользовательских характеристик. Я уверен, что поисковые системы эти вещи анализируют. Другое дело, что любая вещь, которая оценивается алгоритмически, алгоритмически может быть и накручена. И мы это тоже проходили. Работали текстовые факторы — ответом оптимизаторов были «портянки». Работали ссылочные факторы — ответом стали «ковровые бомбометания» ссылками. Сейчас, когда поиск стремится понять уровень взаимодействия пользователя со страницей, может получиться так, что это все приведет к созданию сайтов, увешанных всякими кнопочками, сайтбарами, бегунками, где нужно будет все время что-то двигать, что-то куда-то перемещать и т.д. Видимость глубокого взаимодействия со страницей это создает, но практической пользы от всего этого нет.

Сергей Людкевич

Ок, давайте вернемся к коммерческим факторам. Если SEO-рынок будет двигаться в эту сторону, это предполагает глубокое погружение SEO-агентства в бизнес клиента. Ведь нельзя влиять на коммерческие факторы ранжирования, не начав влиять на какие-то бизнес-показатели. То есть границы-то нет. Ну, взять хотя бы такой фактор, как цена. Это коммерческий фактор, поиск, очевидно, так или иначе его учитывает. По всей видимости, цена вне рынка — очень низкая или очень высокая — ну, скорее всего, не очень хороший сигнал. Соответственно, влияние на цену продукта — это уже влияние на бизнес в целом.

СЛ: Да, конечно, все эти вещи требуют более тесного вовлечения сеошника в бизнес клиента. Но в принципе, эти вещи в какой-то момент времени были же само собой разумеющимися, был даже термин популярен – «комплексный интернет-маркетинг», когда оптимизатор должен был быть по сути маркетологом бизнеса и участвовать более глубоко во всех бизнес-процессах. Другое дело, что на цену ему вряд ли позволит влиять владелец бизнеса. Но я и не думаю, что на цену поисковики обращают внимание, скорее — на их наличие. А вот на различные интернет-активности (акции, спецпредложения и т.д.) сеошники, наверное, влиять должны. С мыслью, что вовлечение сеошников в бизнес клиента должно быть более глубоким — с этим я соглашусь. Но я думаю, в настоящих условиях не все, далеко не все, готовы пойти на это. Но если эта тенденция победит, то, скорее всего, большая часть нынешних оптимизаторов переквалифицируется и станет заниматься смежными тематиками, предполагающими схожий уровень вовлечения, к которому они привыкли. То есть часть оптимизаторов уйдет партнерками заниматься, трафик арбитражить, будет искать возможности создавать новые автоматические сервисы для SMM на уровне покупки лайков и расшариваний — в общем, в те сферы, где не требуется большого вовлечения в бизнес клиента, а нужна энергичность и активность.

Понял. Что вы посоветуете в нынешних реалиях делать молодому сайту? Вот конкурентная тематика, вот молодой сайт. Что делать?

СЛ: Ну, во-первых, нужно сделать хороший сайт – с удобным функционалом, удобным представлением информации. А во-вторых, попытаться привлечь какой-то трафик вне поисковых систем. Так как поисковые системы оценивают поведенческие факторы, то привлечение непоискового трафика уже позволит дать первоначальные значения естественных ПФ.

А контекстный трафик влияет, на ваш взгляд, на ПФ?

СЛ: Любой трафик, который поисковая машина может засечь, будет влиять. В том числе и из контекста. Я не буду говорить, что, вот, купил трафик в контексте, и у тебя сразу пошел поисковый трафик — такого нет. Но опосредованно влияние все же есть. Причем, поисковая машина знает, что это за трафик, знает, по каким запросам он идет, может его как-то отдельно классифицировать, в отличие от другого трафика, который иногда может быть сложно классифицировать. Я бы на месте поисковиков трафик с контекста учитывал — это хороший сигнал. Хорошие коммерческие факторы и хорошие естественные поведенческие факторы — то, что будет учитываться поисковиками все больше. В итоге нужно делать сайт удобным и полезным для вашей аудитории — и поиск обязательно наградит вас трафиком.

Спасибо, Сергей, за интервью. Было очень познавательно и интересно. Удачи вам в дальнейшем и вашему проекту «Поисковая аналитика».

#
SEO Мнение
© «TexTerra», при полном или частичном копировании материала ссылка на первоисточник обязательна.