Почетный инженер Google Мэтт Каттс помог интернет-маркетологам заглянуть в будущее. Он рассказал об основных направлениях развития поисковых технологий в ходе конференции Pubcon Las Vegas 2013, проходившей с 21 по 24 октября. По словам господина Каттса, крупнейшая поисковая система мира готовит изменения алгоритмов работы, сравнимые по масштабам с первым полетом человека в космос. В частности, Google отказывается от расчета PageRank сайтов, а также учится понимать значение слов так, как это делает человек.
В ходе выступления на конференции Pubcon Las Vegas 2013 Мэтт Каттс рассказал о революционных изменениях поисковых технологий Google. В числе основных компонентов революции поиска эксперт назвал:
- Семантическую технологию knowledge graph.
- Голосовой поиск.
- Диалоговый поиск.
- Сервис Google now.
- Технологию deep learning.
Господин Каттс отметил, что благодаря deep learning Google учится понимать значение слов и связь между ними. Это помогает крупнейшей поисковой системе мира более точно обрабатывать запросы и учитывать истинные намерения пользователя.
Deep learning — это набор алгоритмов машинного обучения, имитирующий способы обработки информации, характерные для нейронных сетей. Говоря проще, с помощью deep learning Google и другие корпорации пытаются научить компьютеры работать с информацией так, как это делает человек. К слову, за технологию deep learning в Google отвечает футуролог Рэймонд Курцвейл. Этот человек утверждает, что искусственный интеллект станет реальностью уже в ближайшие десятилетия, а люди превратятся в киборгов через 20-30 лет.
Технология deep learning в стандартном и голосовом поиске
Мэтт Каттс рассказал о практическом значении использования технологии deep learning. Например, при обработке запросов Google стал лучше понимать естественные фразы типа «где отдохнуть с друзьями в Москве». Кроме этого, поисковик научился улучшать и детализировать выдачу на основе предыдущих запросов пользователя. Благодаря deep learning роботы Google понимают, когда человек все еще ищет ответ на поставленный вопрос, углубляясь в детали.
Мэтт Каттс привел в качестве примера запрос «Какая погода?», заданный гипотетическим участником конференции в Лас-Вегасе, который в ближайшие выходные собирается посетить штаб-квартиру Google в калифорнийском Маунтин-Вью. Получив информацию о текущей погоде в Лас-Вегасе, пользователь задает поисковику следующий вопрос: «Завтра будет дождь?»
В ответ Google незамедлительно выдает прогноз погоды на завтра для Лас-Вегаса, штат Невада. Самое интересное следует дальше. «Как насчет Маунтин-Вью?» — спрашивает пользователь. Поисковая система отображает прогноз погоды в Маунтин-Вью на завтра. Но пользователь собирается в Калифорнию не завтра, а в выходные. «А как насчет выходных?» — спрашивает он и получает прогнозы погоды в Маунтин-Вью на субботу и воскресенье.
Вы все еще не верите Рэю Курцвейлу, который обещает, что мы станем киборгами через каких-то пару десятков лет? Тогда еще раз обратите внимание на предыдущий абзац. Поисковая система Google уже сегодня на запрос «как насчет выходных» выдает прогноз погоды в Маунтин-Вью на ближайший уикенд. Благодаря технологии deep learning, имитирующей человеческие способы обработки информации, машина знает, какой смысл вкладывает пользователь в эту фразу.
Колибри, Панда и авторство
В ходе выступления господин Каттс уделил внимание алгоритму Колибри, анонсированному в конце сентября. Эксперт отметил, что заметки типа «Как продвигать сайты после Google Hummingbird», появившиеся после анонса алгоритма, далеки от реальности. По словам Мэтта Каттса, алгоритм Колибри не имеет отношения к SEO или продвижению. В качестве подтверждения специалист заметил, что данный алгоритм работал более месяца до официального сообщения о его запуске. При этом никто не заметил каких-либо изменений. Каттс утверждает, что Google Hummingbird повлиял исключительно на качество поиска для пользователя.
Также Мэтт Каттс отметил, что Google планирует сделать алгоритм Панда более мягким. По мнению почетного борца с поисковым спамом, некоторые сайты, потерявшие рейтинг после внедрения этого алгоритма, остаются ценными для пользователей. Такие ресурсы могут вернуть утраченные позиции.
С помощью алгоритма Panda Google наказывал ресурсы, публиковавшие неуникальный контент. Таким образом, крупнейшая поисковая система мира устами Мэтта Каттса признает, что уникальность контента не является самоцелью.
По словам Мэтта Каттса, Google стремится активнее использовать авторство в определении авторитетности ресурса. Эксперт утверждает, что влияние Authorship Rank на результаты выдачи будет расти. Иными словами, крупнейшая поисковая система в мире в первую очередь будет стремиться показывать пользователям контент, созданный авторитетными в той или иной отрасли авторами.
Как изменится мобильный поиск
Мэтт Каттс не мог не упомянуть влияние смартфонов и планшетных ПК на поиск. По словам представителя Google, оптимизация ресурсов под мобильный трафик в настоящее время стала обязательным элементом поискового маркетинга. Более того, сайты будут терять поисковый рейтинг, если пользователи мобильных гаджетов посчитают их неудобными.
Господин Каттс анонсировал следующие возможности мобильного поиска:
- Если смартфон пользователя не поддерживает Flash-технологию, поисковик не будет показывать ему сайты, созданные на Flash.
- Google не будет показывать в выдаче ресурсы, которые долго загружаются из-за Flash или по другим причинам. Владельцам сайтов стоит рассмотреть возможность полностью отказаться от этой технологии или убрать ее с мобильной версии ресурса.
- Google понизит в рейтинге ресурсы, направляющие пользователей на главную страницу мобильной версии сайта вместо внутренних страниц.
Мэтт Каттс абсолютно четко заявил, что отсутствие адаптивной верстки или мобильной версии сайта негативно влияет на посещаемость ресурсов. Крупнейшая поисковая система мира просто не направляет пользователей на сайты, которые неудобно просматривать с помощью планшетов и смартфонов.
Пингвин, борьба со спамом и естественная реклама
Специалист по борьбе с поисковым спамом рассказал о стратегических наработках Google в этом направлении. Господин Каттс напомнил, что адепты «черного SEO» посмеивались над ним сразу после запуска алгоритма Пингвин. Они хвастались, что продолжают покупать ссылки и накручивать поисковые рейтинги, не замечая никаких проблем. Затем Google увеличил влияние Penguin на результаты выдачи, после чего тональность «топорных сеошников» изменилась. «Когда горе-оптимизаторы мечтают побить меня, я знаю, что работаю хорошо», — утверждает заслуженный борец со спамом Мэтт Каттс.
Эксперт отметил, что его команда уделяет повышенное внимание некоторым конкретным ключевым запросам, которые облюбовали адепты спама и поисковых накруток. К таким запросам относятся некоторые ключи, встречающиеся на сайтах адалт-тематики, кредитования, страхования, медицины. Спамеров привлекают прибыльные высокочастотные запросы. Это не позволяет, например, страховым компаниям привлекать естественный трафик с помощью белых поисковых технологий. По словам Каттса, новые противоспамные технологии Google учитывают этот фактор.
Мэтт Каттс затронул тему адверториалов и естественной рекламы.
Адверториал — рекламный материал, замаскированный под обычную статью. Естественная реклама — это публикация контента, который одновременно является полезным для пользователя и носит рекламный характер. При этом идеальная естественная реклама отображается на основе предыдущих действий пользователя.
Господин Каттс объяснил, что использование данных маркетинговых технологий без соответствующих дисклеймеров негативно влияет на позиции ресурса. В частности, Google применил санкции к нескольким СМИ в США и Великобритании, которые публиковали адверториалы и естественную рекламу, не предупреждая пользователей об этом. По словам Каттса, в данной технологии нет ничего плохого, и она не оказывает негативного влияния на рейтинг ресурса, если сайт предупреждает пользователя о рекламном характере материала.
Также Мэтт Каттс упомянул спам-сети, создающиеся ради накрутки поискового рейтинга с помощью ссылок. По его словам, такие сети и участвующие в них ресурсы в настоящее время легко определяются и исключаются из выдачи.
Плохие новости для фанатов PageRank
Раньше Google ежедневно рассчитывал показатель PR и использовал его для ранжирования сайтов. При этом видимые апдейты этого показателя случались приблизительно раз в три месяца. Мэтт Каттс сообщил, что некие диверсанты пробрались в офис Google и сломали оборудование, использующееся для расчета PR. К сожалению, крупнейшая поисковая система не может в настоящее время найти специалистов, способных починить это оборудование.
Поэтому не стоит ждать апдейтов PageRank в ближайшее время. Мэтт Каттс утверждает, что их не будет как минимум до конца текущего года. Кроме этого, эксперт намекнул, что слухи о полном отказе Google от PageRank недалеки от реальности.
Расширенные сниппеты, Java и негативное SEO
Расширенные сниппеты получат второй шанс. По словам Каттса, больше авторитетных ресурсов будет отображаться в выдаче с расширенным сниппетом. При этом сайты с низким авторитетом лишатся этой возможности. Также эксперт отметил, что пользователи смогут совершать прямые звонки на номера телефонов, указанные в расширенном сниппете, прямо со страницы выдачи.
Также Google научился лучше читать JavaScript. Однако господин Каттс не рекомендует создавать сайты исключительно с помощью этой технологии.
Почетный инженер Google отметил, что владельцы ресурсов переоценивают проблему негативного SEO. По его словам, поисковые маркетологи часто списывают собственные ошибки, например, покупку ссылок на линкофермах, на деятельность несуществующих конкурентов.
Так какими же будут поисковые технологии будущего?
Специалист по борьбе с поисковым спамом Google Мэтт Каттс определил основные направления развития поисковых технологий в ходе конференции Pubcon Las Vegas 2013. К основным из них относятся:
- Увеличение роли мобильного трафика. В некоторых странах его доля уже превышает долю стационарного трафика. Мобильный трафик на YouTube вырос с 6% в 2011 году до 25% в 2012 году и 40% в 2013 году. Поэтому вебмастерам необходимо сделать их удобными для просмотра владельцами планшетов и смартфонов.
- Повышение качества выдачи с помощью технологии deep learning, позволяющей компьютерам понимать настоящее значение поисковых запросов.
- Повышение роли авторства в ранжировании ресурсов. В том числе, Google использует авторство в качестве инструмента борьбы со спамом, так как привязка контента к профилю авторитетных авторов уменьшает вероятность спам-публикаций.
- Google работает над исключением из выдачи ресурсов, продвигающихся по фактически криминальным запросам. Поисковик не хочет быть посредником между злоумышленниками и их аудиторией.
- Крупнейшая поисковая система мира будет и дальше уменьшать рейтинги ресурсов, на которых публикуется слишком много рекламы. Это касается и сайтов, использующих для маскировки рекламы технологию JavaScript.
Статус крупнейшей поисковой системы мира автоматически делает Google законодателем мод в индустрии SEM. Можно ожидать, что другие глобальные и региональные игроки поискового рынка будут внедрять похожие технологии. Это будет постепенно улучшать пользовательский опыт интернет-серферов, уставших от необходимости пользоваться запросами типа «стоматология Москва метро Сокольники».
А как технологии будущего повлияют на поисковый маркетинг? Будут ли «олдскульные» оптимизаторы и дальше высчитывать оптимальную плотность ключей в тексте, или запросы типа «а как насчет Маунтин-Вью» заставят их изменить подходы? Напишите свое мнение в комментариях.
Адаптация материала Matt Cutts on SEO, PageRank, Spam & the Future of Google Search at Pubcon Las Vegas by Jennifer Slegg.