В США в четвёртом квартале google обеспечивала более 93% всего органического трафика. При этом в России хоть доля Яндекса снижается, у него всё еще более 42,7% всего поискового трафика (на момент окончания 2019 года). В связи с этим крайне важно учитывать требования как гугла, так и яндекса.

Безусловно при оптимизации сайта под поисковые системы вы работаете сразу на два фронта, при этом требования ПС могут различаться. В этой статье я постараюсь рассказать о том, какие есть основные отличия в продвижении сайтов между Google и Yandex.

1. Индексирование AJAX сайтов

Пожалуй, одним из главных различий является то, что Яндекс всё еще не умеет (на момент 2019 года) работать с AJAX сайтами. Если ваш сайт написан как одностраничное приложение, вам придётся соблюдать некоторые правила для того, чтобы ваш сайт был проиндексирован.

Робот Яндекса может проиндексировать AJAX-сайт, если у каждой страницы сайта есть HTML-версия.

То есть чтобы ваш сайт был корректно проиндексирован, необходимо иметь html версию (используя элемент _escaped_fragment_) каждой страницы. Только в этом случае не будет никаких проблем.

При этом как утверждают в гугл их краулер без проблем сканирует такие ресурсы и воспринимает ваш сайт как современный браузер.

По опыту же, дела обстоят не так радужно. Да, гугл работает с одностраничными приложениями, но может не верно интерпретировать ваш контент. Яндекс же действительно не умеет работать с AJAX-ом. Поэтому если для вас имеет большое значение трафик из ЯД-а, я рекомендую пренебречь использованием большого количества скриптов. Откровенно говоря, существуют решения, которые позволят всем поисковым системам индексировать ваш SPA сайт, но это уже тема для отдельной статьи. Не плохо об этом рассказали коллеги из NetPeak. С какими фреймворками на текущий момент умеют работать поисковые системы:

Индексация фреймворков различными поисковыми системами

2. Скорость и частота сканирования

По заверению многих оптимизаторов, которые продвигают сайты под яндекс и гугл, ЯД намного реже индексирует сайты.

Роботы Google постоянно сканируют и индексируют новые страницы. То есть, когда вы публикуете новые URL-адреса, проверяете страницы инструментом “Смотреть как Googlebot” с большой долей вероятности, они будут проиндексированы в течении 24 часов. Разумеется, большое значение имеет возраст и траст сайта.

При этом Яндекс, похоже, сканирует гораздо медленнее.

3. Фильтр “Песочница”

Есть мнение, что существует так называемый фильтр “Песочница”. Это свойственно для обеих ПС. Официально его существование не подтверждено, но на практике ни раз доказано, что каким бы качественным и крутым ваш сайт ни был, первые 2-6 месяцев какого трафика из поисковых систем ожидать не приходится.

Мой личный совет, ориентироваться в первые месяцы работы на низкочастотные запросы, при таком подходе трафик из Яндекса приходит уже в первые месяцы продвижения. При этом для Google всё несколько сложнее и необходимо больше времени.

4. Манипуляция поведенческими факторами

На протяжении многих лет, эксперты по SEO рассуждали, на сколько важным являются поведенческие факторы. Большое количество экспериментов в реальных сферах бизнеса показывают, что ПФ действительно один из главных факторов ранжирования в долгосрочной перспективе.  Как позже заявили в гугл, что результаты реакции юзеров на различные результаты поисковой выдачи, измеряются таким образом, что те ресурсы по которым чаще всего кликают юзеры, в перспективе получают лучшие позиции.

С Яндексом также всё очевидно. Поведение пользователей – огромный и важнейший фактор ранжирования, который играет гораздо большую роль, чем ссылки и другие сигналы. Сайты, на которых юзеры проводят больше времени, всегда будут оцениваться лучше, чем их конкуренты.

В результате, многие специалисты по продвижению, экспериментируют с накруткой поведенческих факторов, используя чёрные методы продвижения (Black hat SEO). Яндекс еще в 2011 году предупреждал об опасностях использованиях таких методов, при этом остаётся большое количество специалистов, которые пытаются манипулировать ПФ. По сей день существуют и процветают сервисы по накрутке поведенческих.

При этом есть масса успешных и свежих кейсов. Большинство из них именно про Яндекс. Так как гугл быстрее “поощряет” такие начинания и большинство спецов не рискуют проектами своих клиентов.

На мой взгляд, риск слишком высок, а игра не стоит свеч. Основным советом, как из 10 лет назад, является планомерная работа и улучшения сайта, тем самым и юзеры будут довольны, и сайт не попадёт под санкции. Учтите! Что если вы решили поиграться с поведенческими, вы можете потерять весь поисковой трафик на огромный срок от полугода и больше. И Платон Щукин вам вряд ли поможет.

Для анализа поведенческих, яндекс рекомендует уделить внимание следующим показателям:

  1. Источники трафика.
  2. Поисковые запросы.
  3. Целевые страницы.

Сравните ваши страницы с лидерами по SERP и вынесите чек лист, что можно улучшить, чтобы юзеры провели на сайте больше времени. Подробнее об этом я расскажу в отдельном материале.

5. Внутренняя оптимизация имеет больше значения

Google предъявляет серьезные требования к качеству и актуальности контента (особенно с приходом YMYL), но у Яндекса эти метрики имеет еще большее значение. Например, переспам ключевыми словами, может иметь намного большие последствия в Яндексе, чем в гугл.

Как всегда, универсального рецепта успеха не существует, и частота обновления контента на прямую зависит от вашего бизнеса. Не стоит публиковать контент слишком часто или редко, найдите золотую середину конкретно для вашей нишы. Писать 1-2 статьи в блог, более чем достаточно для одних ниш, но критически мало для других.

Кроме того, техническая оптимизация и количество ошибок для некоторых сфер, имеет предельно высокое значение, например, для Ecommerce, где описание многих товаров дублируется или имеет низкий процент уникальности. В таких нишах уделите больше внимания техническим ошибкам на сайте, а именно:

  1. Дубли товаров с незначительными различиями (размер \ цвет). Такие страницы могут восприниматься как дубли, что негативно повлияет на ваш сайт.
  2. Навигация с использование Flash \ JS. Как уже говорилось выше, Яндекс может найти только обычные текстовые html ссылки, убедить что у вас с этим всё в порядке.
  3. Большое количество 404 страниц. Тут имеется ввиду, что более 50% страниц на вашем сайте отправляет ответ сервера как 404 (не найдено). Да, за это тоже можно получить фильтр и пессимизацию.
  4. URL страниц. Ни для кого не секрет что ЧПУ URL-ы это важно, но я до сих пор встречаю сайты, где в урле какие то не понятные символы.

Разумеется, тут перечислены далеко не все проблемы, которые могут возникнуть из-за не качественного контента или технических ошибок. В продвижении для Яндекс, уделите этому больше внимания.

Выводы

Все поисковые системы используют схожие методы ранжирования. При этом факторы и их значения могут различаться. В данной статье я рассказал про основные отличия в продвижении сайтов для Яндекс и Google. Всем высоких позиций.

Author

Меня зовут Дмитрий. Я занимаюсь поисковой оптимизацией более четырёх лет. Моя основная специализация это продвижение англоязычных сайтов. Читайте мой блог, чтобы узнать много интересного.

Write A Comment