Медленный старый сайт? – Поправим и перезапустим!

Медленный старый сайт? – Поправим и перезапустим!

Подробнее
mail@texterra.ru
Заказать звонок
Заказать услугу
Позвонить: 8 (800) 775-16-41
Связаться со мной

SEO умерло? Еще нет! – гайд по новым (и умершим) инструментам оптимизации

SEO умерло? Еще нет! – гайд по новым (и умершим) инструментам оптимизации Редакция «Текстерры»
Редакция «Текстерры»

«Панда», «Пингвин», «Колибри» — широкой аудитории прекрасно известны только самые крупные обновления алгоритмов. А меж тем, их гораздо больше: в 2010 году Google внес около 516 изменений в свои алгоритмы, в 2016 – 1653, в 2018 году — 3234. Динамика нарастающая...

Поисковые системы значительно «поумнели» и обмануть их методами, актуальными на рассвете становления рунета, уже не получится.

То есть SEO мертво? Не совсем.

Давайте посмотрим, какие SEO методы ушли в прошлое, а какие все еще актуальны и их можно использовать для поискового продвижения.

Обмен ссылками – не работает

Около пяти лет назад обмен ссылками хорошо работал. Процветали ссылочные биржи и другие подобные сервисы. В 2021 году этот прием больше не работает как прежде. Покупка и продажа ссылок, включая ссылочный обмен, теперь бесполезны. Также не приветствуются:

  • ключевые слова в анкорах;
  • замена символов;
  • нечитаемый размер шрифта;
  • странное расположение URL на странице.

Если вы практикуете что-то из этого списка, то ждите пессимизацию домена.

Анкоры на внутренних и внешних URL с ключевыми словами имеют право на жизнь, но главное — не допускать переспама и соблюдать принцип строгой релевантности. Позиции вы таким способ не улучшите, но это может помочь внутренней оптимизации. В случае использования внешних ссылок следите за качеством «донора».

Полезные и бесполезные ссылки. Как получить именно полезную ссылку

Полезные ссылки – это ссылки, которые располагаются на качественных, трастовых сайтах (донор должен быть авторитетным, обладать высоким ИКС и PageRank). Еще одно обязательное условие полезной ссылки – тематическая релевантность акцептору и уникальность в пределах сайта.

Плохие ссылки – это URL, имеющие нерелевантные и заспамленные анкоры. О плохом качестве ссылки скажут низкие метрики Domain Authority и Page Authority. Если ссылка расположена на сайте, который зарегистрирован на бирже ссылок или сам донор представляет из себя ссылочную свалку, то алгоритмы Google обязательно учтут такие сигналы.

Как получить полезную ссылку – не совсем правильная формулировка вопроса. Любой качественный сайт сам обрастает качественной ссылочной массой – это лишь вопрос времени. Но при одном условии: вы должны сосредоточиться на производстве по-настоящему полезного контента, улучшающего пользовательский опыт. Со временем другие сайты сами начнут ссылаться на вас. Идеальный сценарий – на вас ссылаются самые авторитетные источники по вашей тематике.

Главные характеристики ссылки

Характеристик у линков много. Но можно выделить две главные метрики. Это Citation Flow или CF (показатель, демонстрирующий количество ссылок) и Trust Flow или TF (используется для обозначения качества ссылок на URL). Качественные линки можно определить при помощи инструментов или анализируя их вручную при помощи сервисов, о которых я сказал чуть выше. Учитывайте Page Rank / ИКС, тематику и посещаемость сайта.

Как и где проверить ссылки

Сервисов для проверки ссылок очень много. Я рекомендую Ahrefs. Там есть много инструментов для поискового продвижения, включая сервисы для проверки ссылочного профиля и обратных ссылок. Ahrefs позволяет анализировать ссылки по четырем параметрам:

  • Ahrefs Rank (AR) – внутренняя метрика Ahrefs для обозначения качества ссылки;
  • URL Rating (UR) – рейтинг URL показывает потенциал ссылочного профиля страницы (чем больше число, тем сильнее ссылочный профиль страницы);
  • Domain Rating (DR) – рейтинг показывает потенциал ссылочного профиля домена (он строится с учетом бэклинков других сайтов, и, по сути, – это просто менее детализированная версия Ahrefs Rank (AR));
  • суммарное количество бэклинков;
  • суммарное количество ссылающихся сайтов.

Если вы не хотите разбираться в инструментариях и собственных метриках Ahrefs, то вот вам хорошая альтернатива. Этот инструмент проверки внешних ссылок Pr-Cy позволяет быстро проанализировать ссылочный профиль любого домена, включая конкурентные сайты. Здесь нет перегруженности функциями – только проверка ссылок. Всё.

Инструмент проверки внешних ссылок Pr-Cy позволит контролировать их платное размещение, оценивать СМ и органический прирост URL. А еще с его помощью удобно просматривать удаленные или закрытые URL.

Вводим домен и URL, на которых присутствуют внешний ссылки, на ваш сайт. Нажимаем кнопку «Начать проверку»:

Зеленым цветом выделяются существующие ссылки, красным – несуществующие и закрытые атрибутом nofollow.

Посмотреть изменения ссылочного профиля собственного сайта можно в «Яндекс.Вебмастере»:

Здесь отображается качество ссылки, удаленные URL и неработающие, а также ссылки по ИКС и TLD:

Google Search Console позволяет получить список самых часто ссылающихся доменов:

При этом следует отметить удобство отслеживания страниц и доменов, которые ссылались на ваш сайт чаще других:

Также здесь можно получить список анкоров:

Какой использовать анкор для ссылки

Анкор внутри сайта должен быть уникальным. Максимальная длина – 4 слова. Отмечу, что прямые вхождения лучше разбавлять и делать их более реалистичными, особенно это касается коммерческих типов анкоров. Поисковый спам в анкорах недопустим – фраза должна быть естественной. То есть околоссылочный текст должен быть полезным.

Лайфхаки по крауду

Вот мои наработки по крауд-ссылкам, которыми я занимаюсь около 3-х лет:

  • абсолютно все арендные ссылки – в утиль;
  • делайте посевы в Telegram и внутри социальных сетей;
  • усиливайте самые перспективные страницы. Если говорить цифрами, то это страницы в диапазоне с 6-7 по 20 место (условно);
  • разнообразьте ссылочную массу;
  • создавайте стабильные потоки новых URL с качественных доноров.

Платные ссылки – не работает

Биржи ссылок существуют и сегодня. Они не умерли и по-прежнему обещают заработок вебмастеру и продвижение рекламодателю. Вроде все довольны, но здесь одно «но» — продвижение платными ссылками больше не работает, а выгоду получает только биржа. Безусловно, вы можете возразить мне: «Ну ведь бывают и хорошие, очень качественные доноры с огромными ИКС и Page Rank!». Да, бывают, не спорю. Но алгоритмы поисковых систем изучают не только непосредственное качество домена или сайта, но и анализируют саму ссылку, исходя из релевантности страницы и релевантности контента, расположенного на ней.

Если ссылка абсолютно не соответствует странице, то авторитет домены становится второстепенным фактором ранжирования. Алгоритмы «понимают», что ссылка покупная и не учитывают ее вообще.

Ошибочно думать, что Google настроен против всех платных ссылок. Поисковая система допускает покупку и продажу URL для заработка вебмастера. Но в этом случае обязательно выделяйте такие ссылки одним из двух способов:

Платные ссылки, для манипулирования результатами выдачи, запрещены. Рекламные платные ссылки — разрешены.

Атрибуты покупных ссылок и как они передают вес

Для «покупных» ссылок Google ввел два атрибута: ugc (для пользовательского контента) и sponsored (для покупных и рекламных ссылок). Ссылки с вышеуказанными атрибутами никак не передают свой вес. Вес могут передать только dofollow-ссылки.

Как вес передает UTM, UGC и sponsored? Какие атрибуты и как воспринимаются поисковыми системами?

Краулеры действительно идентифицируют UTM-параметры в ссылке, причем все. Но о передаче веса речь не идёт.

Давайте ещё раз подытожим главное:

  • Dofollow-ссылки вес передают;
  • Nofollow-ссылки — вес не передают;
  • Ссылки с атрибутами UGC / UTM / sponsored нужны для одной цели: более точное определение источника перехода. И никакой вес они передать не могут.

Единственная опасность – дублирование ссылочного контента. Чтобы ее избежать, настройте атрибут каноникал для главной страницы.

Размещение URL своего сайта в комментариях на других сайтах — работает частично

Ссылки на тематически релевантном и качественном доноре не навредят продвигаемому сайту, но только если это не ссылочная свалка (сайт, созданный специально для продажи ссылок, на таких сайтах очень много нерелевантных внешних URL). Сложность заключается в другом — в самом размещении. Оставить ссылку в комментариях, без договоренностей с администрацией сайта, точно не получится. Донор действительно живой и посещаемый? Значит ваш URL, с высокой долей вероятности, будет удален администратором.

Большинство современных CMS позволяют публиковать новые комментарии только после модерации. А комментарии со ссылкой не пропустит не один администратор. Таким образом, вашу ссылку точно заметят. И удалят.

Огромное значение имеет качество донора: спамность его страниц, возраст домена, тематика, количество страниц в индексе, ссылочный профиль, поведенческие факторы трафика. Ссылки на мусорных сайтах без определенной тематики не дадут никаких бонусов продвигаемому сайту.

Покупка трастового чужого домена для продвижении сайта – работает частично

В теории дроп-домены – просто сказка. Судите сами: уже есть трафик и какой-никакой ссылочный профиль, возраст домена может быть и 5, и 10 лет, что также полезно для дальнейшего продвижения. Но на практике «дропнутые» домены на то и «дропнутые» – у них обязательно есть какие-то проблемы. Чаще всего это: искусственно нарощенный ИКС и PageRank, целый букет фильтров от «Гугла» и «Яндекса», большое количество мусорных ссылок. Поэтому внимательно проверяйте историю домена перед покупкой. Искать дропнутые домены я рекомендую через сервис Expired Domains.

Имитация действий реальных пользователей — не работает

У «Яндекса» даже есть фильтр с таким названием. Действия имитируются с помощью ботов и делается это для улучшения поведенческих факторов посетителей. Несколько лет назад такой способ продвижения давал неплохие результаты, однако поисковые системы очень быстро научились идентифицировать накрутки. По своему опыту скажу, что Google относится к имитации действий лояльнее, чем «Яндекс». Пользоваться этим видом накрутки точно не стоит. Вас все равно выведут на чистую воду — это лишь вопрос времени.

Что значит имитация действий пользователя

Имитация действий реальных пользователей – это накрутки трафика и поведенческих факторов. Это трафик, создаваемый ботами. Особенно плохо к накрутке поведенческих факторов относится «Яндекс», который очень быстро наложит одноименный фильтр. Google же может долгое время не «замечать» такие накрутки, но все равно выступает против них.

Как поведенческие факторы влияют на ранжирование и разница их учета «Гуглом» и «Яндексом»

Поведенческие факторы (ПФ) — это поведение пользователей. Время, проведенное на сайте, отказы, глубина просмотров – все это относится к внутренним ПФ.

Если пользователь перешел на ваш сайт и провел на странице несколько минут, затем переходил по внутренним ссылкам и продолжал взаимодействие с контентом, то позиции сайта в SERP могут быть улучшены. И наоборот – если пользователь закрывает сайт сразу после перехода, то это яркий признак отсутствия у него интереса (возможно, контент на странице нерелеватен заголовку в сниппете). Однако данной информации (в патенте) противоречит не кто-нибудь, а сам сотрудник Google:

Кого слушать – решайте сами.

Разница учета ПФ «Гуглом» и «Яндексом» существует — у каждой поисковой системы собственные алгоритмы. Ярче всего это проявляется в учете показателя отказов. Так для «Яндекса» отказом считается любой визит, который длится меньше 15 секунд, а для Google – вообще любой визит, если при этом просматривалась только одна страница. У каждого вебмастера свое мнение, основанное на личном опыте. Я считаю, что для «Яндекса» поведенческие факторы важнее, чем для Google.

Спам в заголовках, переоптимизация контента — не работает

Насыщать текст большим количеством ключевых слов сейчас не имеет никакого смысла. Сегодня для Google главным фактором являются не отдельные ключи в тексте, а общий тематизм текста — наличие LSI-слов, плюс экспертность и авторитетность автора. В широком смысле, все это относится к улучшению пользовательского опыта.

Краулеры прекрасно определяют переоптимизированные тексты и дают им «пинок», отправляя в самый конец результатов поиска или вовсе исключают такие страницы из выдачи.

Прошли времена когда страницы с малополезным и бессмысленным контентом, состоящим из прямых вхождений ключевых слов, ранжировались высоко. Теперь главное — пользовательский опыт. И ясно, что переоптимизированные тексты его никак не улучшат, ведь написаны они исключительно с одной целью — для манипулирования результатами выдачи.

Поисковый спам не работает ни в заголовках, ни в описаниях, ни в тегах страниц. И, естественно, не стоит выделять ключевые слова жирным или курсивом. Это лишь привлечет внимание алгоритмов.

Как правильно распределять фразы по страницам и какой метод кластеризации лучше

Вот краткий чек-лист, в который я вложил собственный опыт, полученный во время поисковой оптимизации за последние несколько лет:

  • информационные ключи нельзя продвигать на коммерческих страницах;
  • коммерческие ключи нельзя продвигать на информационных страницах;
  • средне- и низкочастотные фразы можно использовать для группировки тегов;
  • один ключ продвигается на одной странице. Не следует продвигать один ключ сразу на нескольких страницах, ведь в SERP будет только одна максимально релевантная страница;
  • коммерческие слова («купить») допустимо указывать в карточке, но спамить не нужно;
  • коммерческие страницы должны продвигаться под понятный, естественный ключ.

Домены-сателлиты — не работает

Это сайты, которые создавались для улучшения ссылочного профиля, искусственно увеличивая количество ссылок, ведущих на главный домен.

Google и «Яндекс» анализируют качество донора, поэтому нет смысла создавать такие сайты, регистрируя однодневные домены. Даже если сателлит сделан хорошо, он все равно больше не справится с отведенной ему ролью и никак не поможет продвижению главного домена.

Низкочастотная семантика — работает

Такой вид продвижения сводится к созданию релевантных страниц исключительно по НЧ-запросам, включая long-tail. Обычно берут количеством запросов и страниц. В качестве бонуса сайт получает первый трафик, причем часто весьма качественный. Естественно, под НЧ-фразы семантическое ядро подбирается отдельно.

Двигаться по низкочастотным запросам легче всего. Но при одном условии: контент на таких страницах должен быть качественным, с релевантным заголовком. Такие страницы сами очень быстро залетают в топ.

Собственная страница под каждую поисковую фразу — не работает

Этот способ продвижения можно отнести к поисковому спаму. Точное вхождения ключевой фразы в заголовок страницы, как я уже отмечал выше, больше не работает. Метод утратил свою актуальность после введения «Колибри» и других обновлений алгоритмов. Сейчас главное — полезный контент.

Пробуйте сочетать прямые вхождения ключей с разбавлением их при помощи LSI, слов из поисковых подсказок, околотематических слов. Лучше если у вас будет одна качественная релевантная страница под один ключ, чем десять страниц с бесполезным содержанием, на которое тратят максимум 15 секунд, чтобы только понять, что информация здесь бесполезна.

Аффилиатные версии основного домена — не работает

Этот способ продвижения, также как и сателлиты, потерял актуальность. Аффилиат представляет из себя дубль главного домена. «Яндекс» и Google определяют аффилиаты, главным образом, по странице контактов и адресу организации. Но это не значит, что краулеры не учитывают и другие страницы — они анализируют буквально все. И не только страницы, но и тематику сайта, систему управления контентом и даже ваш хостинг.

Главная цель аффилиатов — занять как можно больше «места» на странице SERP. Но вас обязательно выведут на чистую воду. «Яндекс» и Google не наказывают основной домен при обнаружении аффилиатов, но такие версии сайта просто исчезнут из выдачи.

Нужно ли работать с аффилитными доменами в 2021 году

Продвижение доменами-аффилиатами устарело уже лет 10 назад. Сегодня аффилиаты – это «черное SEO» и рассматривать этот способ продвижения всерьез точно не стоит. Искусственное манипулирование результатами выдачи карается как «Гуглом», так и «Яндексом».

Что за аффилиат-фильтр и признают ли его поисковики

«Яндекс» строго следит за аффилиатами<, и у него есть целый фильтр против них. Если фильтр накладывается, то все копии сайта просто уходят на десятки позиций вниз (начиная с топ-20 и дальше).

Google ведет себя мягче. Он убирает аффилиаты в «сопли» (Supplementary results), где они не получают никакого трафика. В справке Google слово аффилиат не встречается. Вместо него используется термин некачественные партнерские сайты.

Лонгриды ранжируются лучше — работает частично

Хотя, скорее да, чем нет. Однако и короткие заметки прекрасно «сидят» в топе по многим, даже высокочастотным, запросам. Причем касается это как коммерческих, так и информационных запросов.

Длина описания карточки товара сайта, занимающего второе место:

Так что писать «простыни» для карточки товара точно не стоит. Раньше считалось, что длинный текст дает информационным и коммерческим страницам существенные бонусы при ранжировании.

Каталоги — не работает

Это вывод на основе моего личного опыта. До сих пор на биржах фриланса многочисленные исполнители предлагают добавить ваш сайт в десятки «белых» каталогов:

Мне кажется, что этот инструмент вообще никогда не работал. Судите сами: у каталогов практически нет трафика, а значит и переходов по ссылкам на продвигаемый сайт вы также не получите.

Турбо- и AMP-страницы – работает частично

Использование AMP-технологии на сайте не влияет напрямую на ранжирование. Но скорость загрузки, в составе Core Web Vitals, – это уже прямой сигнал для ранжирования. Связь проста: AMP-технология может ускорить загрузку страниц. Поэтому, AMP-технология становится промежуточным сигналом для ранжирования, но не полноценным фактором.

Как подключить AMP-страницы

Во-первых, убедитесь что текущие версии веб-страниц подходят под эти параметры.

Во-вторых, принципы добавления структурированных данных ничем не отличаются от принципов добавления обычных веб-страниц.

Создать свою первую AMP-страницу вы можете следующим образом (выдержка из справки amp.dev):

  1. Тип документа <!doctype html>.
  2. Верхний тег <html ⚡> или <html amp>.
  3. Теги <head> и <body> не являются обязательными в HTML-разметке.
  4. Указание главной страницы происходит при помощи тега <link rel="canonical" href="$PRIMER_URL">. PRIMER_URL нужно заменить ссылкой на исходный документ или на HTML-версию AMP-страницы.
  5. Первый дочерний элемент заголовка <meta charset="utf-8">.
  6. В теге заголовка должен быть прописан тег viewport со значением initial-scale=1. Тег выглядит так: <meta name="viewport" content="width=device-width">.
  7. Последний элемент заголовка должен содержать следующий тег: <script async src="https://cdn.ampproject.org/v0.js"></script>.
  8. Тег <head> должен включать в себя такой фрагмент:

<style amp-boilerplate>body{-webkit-animation:-amp-start 8s steps(1,end) 0s 1 normal both;-moz-animation:-amp-start 8s steps(1,end) 0s 1 normal both;-ms-animation:-amp-start 8s steps(1,end) 0s 1 normal both;animation:-amp-start 8s steps(1,end) 0s 1 normal both}@-webkit-keyframes -amp-start{from{visibility:hidden}to{visibility:visible}}@-moz-keyframes -amp-start{from{visibility:hidden}to{visibility:visible}}@-ms-keyframes -amp-start{from{visibility:hidden}to{visibility:visible}}@-o-keyframes -amp-start{from{visibility:hidden}to{visibility:visible}}@keyframes -amp-start{from{visibility:hidden}to{visibility:visible}}</style><noscript><style amp-boilerplate>body{-webkit-animation:none;-moz-animation:none;-ms-animation:none;animation:none}</style></noscript>

После того, как код сформирован, подтвердите валидность страницы.

Если вы не хотите или не умеете работать в коде, то подключать AMP-страницы удобнее плагином. Например, отличным вариантом будет AMP для WP — Ускоренные мобильные страницы. Как подключить AMP-страницы, вы можете узнать из нашего руководства.

Как подключить турбо-страницы

Теперь о «Яндексе». Нельзя сказать, что турбо-страницы улучшают ранжирование сайта. Но свидетельства тому в рунете есть. Мне не удалось найти более-менее серьезной выборки, чтобы утверждать однозначно, будто турбо-страницы улучшают ранжирование. Есть вебмастера, у которых подключение турбо-страниц, по их словам, стало причиной падения трафика с мобильных устройств. У других он наоборот увеличился, а количество отказов уменьшилось (эти данные взяты с портала searchengines.ru).

Подключаются турбо-страницы за пять шагов:

  1. Формирование RSS-канала.
  2. Первоначальная настройка в «Яндекс.Вебмастере».
  3. Подключение рекламной системы.
  4. Отправка RSS-ленты.
  5. Обработка RSS-канала «Яндексом».

Если ваш сайт работает на WordPress, то подключить турбо-страницы будет проще при помощи плагина «Яндекс.Турбо». Кстати, в справке «Яндекса» есть подробное описание того, как подключить турбо-страницы для контентных и коммерческих страниц.

Контент-маркетинг — работает

Это долго, дорого, сложно. Но это главный инструмент поисковой оптимизации в 2021 году, и он приносит результат — именно с точки зрения продвижения в «органике» Google и «Яндексе».

Страница должна быть релевантной и полностью соответствовать интентному намерению посетителя: он должен найти то, что искал.

Обязательно дополняйте текстовой контент медиа-материалами: качественными изображениями в высоком разрешении, инфографикой, анимациями и видео.

Суммарный трафик — работает

Чем больше будет посещаемость вашего сайта, тем лучше он будет ранжироваться — это универсальный закон и для Google, и для «Яндекса». Кстати, известно, что Google учитывает и конверсионный показатель коммерческих сайтов. Поэтому, если товары покупают регулярно, то этот фактор также будет положительным сигналом для алгоритмов поисковой системы. Но это не означает, что нужно отравлять на сайт ботов — такой подход не сработает.

Почему не получается обогнать конкурента

Вы хотите обогнать сайт, который находится в топе несколько лет? У него десятки тысяч страниц, а у домена – высочайшие метрики авторитета? Естественно, ваш молодой сайт просто не сможет подвинуть такого конкурента. Сравните ИКС своего сайта и ИКС конкурента, а также качество ссылочного профиля и возраст доменов. Посмотрите, сколько страниц у конкурента и у вашего сайта. Скорее всего, вы обнаружите довольно ощутимую разницу.

Мои рекомендации: ищите конкурентов по органической выдаче, и внимательно изучайте такие домены. Анализируйте упущенную семантику, обратные ссылки, плюс их анкоры. Для этих целей удобнее всего использовать инструменты Semrush.

Какие предложения конкурент делает лучше и в чем его преимущество? Оцените качество контента на информационных / коммерческих страницах и то, насколько экспертен текст на них. В идеале проведите конкурентный анализ самых серьезных доменов.

Как часто следует обновлять семантику

Обновление семантики актуально практически для любых сайтов, включая информационные и коммерческие. Для последних даже больше, ведь там обновляется товарный ассортимент.

Я рекомендую обновлять семантическое ядро в следующих сценариях:

  • выделен новый кластер для продвижения;
  • выявлен новый товарный спрос (для коммерческий сайтов);
  • выявлен новый информационный спрос (для контентных сайтов);
  • изменение ключевых запросов, а, соответственно, и страниц, которые вы продвигаете;
  • в названии страницы указан год.

Семантическая разметка schema.org для Google — работает

Наличие семантической разметки на странице не является прямым фактором ранжирования. Другое дело, что расширенные результаты поиска Google выглядят привлекательнее и, как следствие, такие сниппеты имеют высокую кликабельность. Но никаких прямых бонусов при ранжировании ваш сайт не получит.

Наличие разметки schema.org на странице никак не помогает ранжированию сайта в Google.

О том, как сделать разметку на своем сайте и попасть в расширенные результаты поиска Google, мы подробно писали в этой статье.

Семантическая разметка обязательна для коммерческих сайтов. Размечая публикуемые на странице данные, вы можете получить определенные бонусы по сравнению с теми сайтами, которые внедрить семантическую разметку еще не успели.

Особенно актуальной разметка стала после того, как Google объявил о появлении E-A-T (expertise, authoritativeness, trustworthiness или компетентность, авторитетность, надежность). Этот алгоритм введен для того, чтобы в топ попадали только авторитетные страницы, содержащие проверенные данные.

Приведу пример: по запросу «оценка рисков долевого участия», по задумке Google, в топе поисковых результатов должна находиться статья, написанная юристом. Семантическая разметка, к слову, задействуется и для указания автора статьи.

Минимальный набор типов данных, которые нужно разметить на сайтах разных типов, следующий:

  • Website (для всех сайтов);
  • Article (особенно актуально для информационных сайтов с авторитетными публикациями);
  • Review (для магазинов);
  • Product (актуально для магазинов);
  • FAQ (для коммерческих сайтов – FAQ-блоки дают хороший трафик);
  • Organization (для сайтов компаний).

Голосовой поиск — работает

Голосовые запросы становятся все популярнее и их доля среди других типов запросов, совершаемых пользователями Google и «Яндекса», растет.

Microsoft провела интересное исследование, которое показало — именно голосовой поиск через ассистентов (Siri, Alexa, Google-ассистент, Cortana) является самым популярным способом использования голоса для взаимодействия с устройствами:

Голосовой поиск открывает практически безграничные возможности для оптимизации контента и юзабилити сайта. Возможно, уже через несколько лет управлять мобильными устройствами можно будет только голосом, а традиционные устройство ввода, такие как, например, экранная клавиатура, вовсе исчезнут.

Уже сейчас, на этапе сбора семантики, стоит предусматривать голосовой тип запросов. Естественно, они существенно отличаются от стандартных типов, которые делаются при помощи клавиатуры.

Голосовые запросы могут включать очень большое количество дополнительных слов, связок и иметь нестандартные «хвосты». Все это нужно учитывать при составлении голосового семантического ядра.

«Места рядом со мной» — работает

Локальный поиск — это алгоритм, который показывает результаты с учетом местоположения пользователя. Естественно, что присутствие в локальном поиске особенно важно для компаний и организаций.

Логика простая: чем ближе компания находится к пользователю, тем выше шансы, что окажется в поисковой выдаче.

К локальным можно отнести три типа поисковых «блоков» Google:

  • Local Organic — SERP с учетом текущего местонахождения пользователя;
  • Local Pack — карта с указанием на ней компаний, с учетом текущего местонахождения пользователя;
  • Local Knowledge Graph — сведения о компании / организации / другом объекте, с учетом текущего местонахождения пользователя.
Чтобы оказаться в локальной выдаче, обязательно зарегистрируйте свою компанию в «Google Мой Бизнес».

Для продвижения в локальной выдаче Google важен не только Title страницы, но и наличие на ней номера телефона и точного адреса компании. Если ваш сайт отсутствует в локальной выдаче, убедитесь, что его мобильная версия демонстрирует приемлемые показатели Core Web Vitals.

Обязательно обратите внимание на ленту рекомендаций «Что рядом». Этот инструмент также можно использовать для загрузки изображений и добавления отзывов о компании. Но и здесь важно не переусердствовать.

Мобильная версия сайта — работает

Поисковая оптимизация страниц под мобильные устройства — это не только сокращение скорости загрузки сайта, которое декларируется факторами Core Web Vitals.

Экран смартфона очень маленький. Поэтому структура полной версии сайта (наличие всех элементов на главной странице / главном экране) должна быть пересмотрена. В мобильной версии на экране находятся только необходимые кнопки, которые нужны пользователю.

Особенное внимание обратите на читаемость текста, расположение элементов по отношению к друг другу и сдвиги макета при загрузке.

Что касается функционального элемента мобильной версии, то он практически всегда урезан по сравнению со стандартной версией сайта. И это нормально. Главное – оставить только необходимые мобильному посетителю возможности, которые действительно ему пригодятся.

Вернемся к скорости загрузки мобильной версии. Google уже давно пытается заставить вебмастеров уменьшить скорость загрузки своих сайтов. Для этого и был введена оценка Core Web Vitals. Изучите из чего именно формируются эти показатели и попытайтесь их улучшить.

Page Experience — работает

Особенности этого алгоритма должны учитываться при поисковой оптимизации страниц в 2021 году. Page Experience состоит из уже знакомого нам Core Web Vitals, а также включает в себя три фактора:

  • наличие раздражающей рекламы;
  • качество мобильной версии сайта;
  • наличие HTTPS-протокола.

Все перечисленное влияет на пользовательский опыт самым прямым образом.

Резюме

Мы убедились, что SEO в 2021 году «живее всех живых». Да, какие-то инструменты ушли безвозвратно, но на смену им пришли новые, обладающие не меньшим потенциалом. К новым инструментам можно отнести: локальную выдачу, голосовой поиск, Core Web Vitals, обновления алгоритмов ранжирования (такие как E-A-T и Page Experience). Все это нужно учитывать при поисковой оптимизации страниц в 2021 году.

Поиск живет и развивается, но в погоне за SEO-приемами не забывайте о главных принципах ранжирования, которые нужно учитывать:

  • Тип запроса (коммерческий или информационный).
  • Тип URL.
  • Местоположение пользователя.
  • Интент запроса.

Учитывая все это, вы сможете создавать и продвигать страницы, которые действительно полезны пользователю.

#
Гайды
© «TexTerra», при полном или частичном копировании материала ссылка на первоисточник обязательна. Нашли ошибку в тексте? Выделите нужный фрагмент и нажмите ctrl + enter.

У вас есть деловой запрос? Давайте обсудим!

Оставьте свои контакты, мы свяжемся с вами в ближайшее время.

Ошибка заполнения!