Обучающий материал
Фишки и секреты
интернет-маркетинга
Бонусы: чек-листы, брифы, ТЗ.
Делимся опытом и знаниями
Читайте наш блог и подписывайтесь на страницу в Facebook ,
чтобы не пропустить новый материал

Google и Yandex – алгоритмы работы поисковиков (принципы, нюансы, новости 2018)

07.05.2018
SEO-продвижение сайта
Автор: Наталья Лагунова
C Users aleks Desktop ПСД 011-min

Всем читателям блога привет, рада нашей новой встрече! Сразу представим ситуацию: вы проводите SEO-оптимизацию сайта или пишите продающие тексты, а может ваш сайт попал под фильтры Google и Yandex? Все это неразрывно связано с алгоритмами работы Google и Яндекс. Понять суть мышления поисковых машин – верный путь к тому, чтобы ваш сайт, статья перенеслись в ТОП-выдачи и избежали фильтрации поисковиков.

Поэтому сегодня предлагаю остановиться именно на этой актуальной теме и узнать:

  1. Что такое поисковые алгоритмы?
  2. Общие принципы работы поисковых машин.
  3. Алгоритмы работы Google: обзор последних апдейтов.
  4. Алгоритмы работы Yandex: обзор последних апдейтов.
  5. Различия в работе алгоритмов Google и Yandex.
  6. Советы: что нужно изменить на своем сайте в 2018 году?

Давайте приступать к изучению? Мне на подготовку статьи понадобилось 28 часов и 15 авторитетных источников, у вас задача намного проще – прочесть материал (8 мин), можно добавить его в закладки (1 сек) и пользоваться (неограниченное количество времени).

Что такое поисковые алгоритмы?

По традиции начинаем с теории, в конце, как водится, практические советы от Textum как оптимизировать свой сайт под реалии 2018 г. Но не будем забегать вперед, идем по порядку:

Поисковый алгоритм позволяет поисковикам в ответ на запрос пользователей выдавать релевантные (соответствующие) запросу результаты.

 Запрос на поиск в Google

Представляете, какой был бы хаос в интернете, если бы данной системы просто не было? Вы пишите запрос купить юбку, а вам выдает портал с автодеталями.

Сегодня это кажется смешной и нереальной ситуацией. Работа поискового алгоритма строится на анализе множества факторов для оценки ценности веб-ресурсов и их содержимого для пользователей. Учитывая все это, роботы-поисковики ранжируют сайты в ТОП-выдачи и распределяют странички на 1,2,3….или последних местах.

Первая компьютерная программа для поиска в интернете

Думаю, ни для кого не секрет, что алгоритмы работы поисковых систем, например Google или Yandex, поддаются изучению и это можно использовать в своих интересах, например, для поисковой SEO-оптимизации сайтов. Но тут все не так просто. Поисковые машины действуют в интересах пользователей, стремятся выдать на их запросы действительно ценные материала, а не сайты-пустышки с обилием ключей и 0% полезной информации. Для этого алгоритмы Google, Yandex регулярно обновляются.

Давайте сначала рассмотрим общие принципы работы поисковиков, а потом уже перейдем к алгоритмам 2-х наиболее популярных систем – Google и Yandex.

Общие принципы работы поисковых систем

Конечно же, каждый поисковик как отдельная марка авто имеет свои нюансы, например, в машинах это касается мощности двигателя или разности в ходовых качествах. Но есть и общие элементы, начиная от банального – 4 колеса, заканчивая общими принципами управления транспортом.

Анекдот про водителя

Поисковые системы интернета также имеют похожие принципы работы:

  1. Сбор данных. Как только появляется новый ресурс (о чем становится известно ботам с помощью внешних ссылок, добавления сайта в аддурилку и прочего) робот сразу же пожалует в гости на страницу. Он собирает информацию о текстовом и визуальном контенте.
  2. Индексация. Сайт не появится в поисковой выдаче, пока для страницы не будет составлен обратный (инвертированный) файл индекса. Он предназначен для того, чтобы по нему быстро производить поиск и состоит из списка слов из текста. После этого сайт можно будет найти по ключевым словам на его страницах.
  3. Поиск информации. После того как поступил запрос от пользователя, например, купить книгу, роботы находят все страницы, которые подходят под этот запрос. Документы, в которых ключи наиболее подходят под запросы, попадают в выдачу Google, Yandex и т.д.
  4. Ранжирование. Здесь уже начинается самое интересное. Борьба за место под солнцем, т.е. цель любой SEO-оптимизации сайта попасть на первую страницу выдачи. Здесь имеет значение множество факторов, основные из которых: вес страницы, авторитетность домена, соответствие текста запросам и экспертность материала.

Поисковые алгоритмы анализируют частоту использования и расположение в тексте ключевых запросов на отдельной странице сайта. Обращают внимание на тег title.

Что это и зачем нужно описано в статье: Мета-теги (title, description, keywords): как правильно прописать?

Т. е. если страница имеет такое название, значит и материал должен быть по этой теме. Также берется в расчет наличие ключей в начале страницы (название, H1), первом абзаце текста.

Кроме контента веб-страницы, оцениваются внешние факторы. Например, поведение пользователей. Если посетители не находятся длительное время на ресурсе, при переходе на него сразу же закрывают страничку, то боты расценивают портал как неинтересный для интернет-сообщества и задвигают его подальше от ТОП-выдачи.

От общих принципов работы пора переходить к более конкретной информации.

Алгоритмы работы Google: обзор последних апдейтов

Дата образования Google

Несмотря на милые названия (типа Панды или Пингвина) алгоритмы современной работы Google очень строги к сайтам. Нарушение или несоответствие требованиям поисковиков приводят минимум к понижению страницы в строке выдачи, максимум – попаданию под фильтр определенного алгоритма и исключение сайта из выдачи.

Но не пугайтесь заранее, просто давайте вооружимся знаниями о работе поисковых алгоритмов Google.

Алгоритмы работы  Google

Панда Google

Был запущен почти 7 лет назад и с этого времени обновляется каждый месяц. Алгоритм Google под названием Panda создан для обнаружения и борьбы со страницами, на которых находится неуникальный, спамный, наполненный большим количеством ключей контент. Подобные веб-ресурсы существенно снижают свои позиции в рейтинге ранжирования Google.

Основная задача Панды – повышение качества сайта.

За что наказывает сайты Panda:

  • наличие плагиата (неуникальных данных) на страницах;
  • создание дублирующей информации на разных страницах одного сайта;
  • наполнение сайта, переспамленное ключевыми запросами;
  • недостаточный контент, например, обрывки текста;
  • автоматически сгенерированное содержание.

Последнее касается контента, созданного с помощью специальных программ. Такие страницы содержат несвязный текст, но с ключами для поиска.

Что нужно сделать, чтобы не попасть в немилость Панды:

  1. Проверить уникальность содержания сайта. Перед размещением статей на страничке логично определить уникальность материала (даже, если вы самостоятельно пишите его, исходя из личного опыта). Как это сделать читайте здесь: Как проверить уникальность текста: обзор лучших программ.
  2. Проверить сайт на наличие страниц-дублей. В первую очередь стоит обращать внимание на страницы с одинаковым тегом title и заголовком H1 – потенциальные кандидаты, в которых может быть дублирующая информация. Такие страницы нужно устранить либо закрыть их от роботов-поисковиков. Идеальный помощник в этом Robots.txt.

Полезная статья по теме: Создать Robots.txt – просто, как 2х2.

Оптимизаторы должны ориентироваться, в первую очередь, на удобство интерфейса сайта (в том числе его мобильной версии) для посетителей. Никаких замудренных переходов по категориям, «нет» обилию рекламы, главная ценность – качество, а не количество.

Цитата представителя Google

Самый последний апдейт Google Panda очень строг к недобросовестно выполненной оптимизации. Если сайт попал под фильтр Панды, остается только внедрять все недоработки и ждать пока апдейт завершится, а затем около года, пока запустится новое обновление.

Пингвин Google

Долгое время в ранжировании сайтов Google ориентировался на ссылочную массу. Алгоритм Penguin создали в 2012 году, чтобы выявлять веб-ресурсы с неестественной ссылочной массой. Например, оптимизаторы прибегают к услугам ссылочных бирж, где существует большая вероятность попасть не на авторитетный сайт-донор, а на сателлит.

Что такое сателлит

Google не любит таких умельцев, с помощью алгоритма Пингвин фильтрует арендованные ссылки.

Penguin накладывает санкции в случае обнаружения:

  • покупных ссылок;
  • ссылок, которые ведут со спамных веб-порталов;
  • ссылок, которые ведут с сателлитов;
  • неестественных анкоров ссылок;
  • ссылок, которые ведут с сайтов, не подходящих под тематику реципиента.

Чтобы не попасть под зоркий взгляд Пингвина, нужно периодически отслеживать свой ссылочный профиль. 2-3 спамные ссылки, конечно же, не приведут к санкциям, но внезапное получение сотен неестественных ссылок – повод привлечь внимание алгоритма Google Пингвин.

Колибри Google

С 2013 года пользователи Google в ответ на свои запросы стали получать не просто сайты с ключевиками, а результаты, подходящие по смыслу к запросу.

Цель алгоритма Колибри – предоставить релевантные результаты, основываясь на смысловой составляющей поискового запроса.

Благодаря этому алгоритму, Google улучшил понимание синонимов и разделяет содержание веб-страницы по тематике. Теперь в результатах поиска можно увидеть сайты, на которых нет прямого запроса пользователя, зато есть его синонимы.

Поиск в Google синонимы

Колибри остро реагирует на переспам конкретного ключевого запроса, по которому вы хотите продвигать сайт, если в тексте не использованы задающие тематику страницы слова. Вы очень хотите попасть в ТОП Google именно по запросу «купить платье»? Осторожно! С алгоритмом Колибри, если переборщить с ключами, можно достичь прямо противоположного эффекта.

Несколько советов как избежать столкновения с Колибри:

  • разнообразить текстовое наполнение страниц;
  • структурировать контент с помощью заголовков H1-H6;
  • использовать большое количество синонимов;
  • использовать разбавленное вхождение ключей.

Также не забываем о читабельности текста. Если он был написан в стиле робота для поисковиков с огромным количеством коряво вписанных ключей, готовьтесь, Колибри скоро прилетит и к вам.

Это были 3 основных алгоритма Google, под фильтры которых чаще всего попадают сайты.

Предлагаю ознакомиться с еще несколькими алгоритмами:

  1. Google’s Pirate Update. Алгоритм борется с сайтами, на которых выставлен пиратский контент. Чаще всего это касается ресурсов с музыкой, фильмами, книгами, которые бесплатно доступны для просмотра и скачивания. Сайты, на которые регулярно поступают жалобы за пиратское содержание, существенно понижаются в ранжировании.
  2. Голубь и Опоссум. Предоставляют релевантные результаты локального поиска, т.е. теперь показ ответов в Google на запросы зависит от местонахождения пользователей. Алгоритм Голубь позволяет по запросу, к примеру, «ресторан» получить выдачу по заведениям, которые находятся именно в вашем городе, игнорируя раскрученные ресурсы из другой местности.
  3. Mobile Friendly Update. Сайты, оптимизированные под мобильные версии, теперь более высоко ранжируются в результатах мобильного поиска Google. Пользователям теперь не нужно, к примеру, масштабировать текст, на веб-ресурсах все предусмотрено для просмотра с мобильных девайсов.
  4. Rank Brain. Представляет собой систему машинного обучения, которая по поведению посетителей веб-портала определяет насколько содержание страницы было полезно пользователям. Алгоритм Google самообучается и со временем предоставляет максимально полезные результаты.
  5. Фред. Данный алгоритм Google отфильтровывает сайты, которые пестрят обилием различных видов рекламы, страницы с огромным количеством исходящих ссылок. Фред, как и другие алгоритмы Google, борется с роботизированными текстами, которые неинтересны и не полезны посетителям сайта.

Друзья, думаю, вы уже заметили, что Google стоит на страже экспертного, полезного контента, сайтов, которые удобны для посетителей. А что же Yandex? Что ждать владельцам сайтов от этого поисковика? Читайте дальше!

Алгоритмы работы Yandex: обзор последних апдейтов

Дата основания Яндекс

Yandex также не стоит на месте и с момента своего основания ввел в работу, изменил и обновил. Внимание! 21 алгоритм. Были задействованы и антиспам-фильтры, и системы, определяющие релевантность изложенного на сайте материала. В отличие от Google, который присваивает своим алгоритмам названия из фауны, Yandex предпочитает более строгий name – названия городов.

Давайте подробнее остановимся на последних алгоритмах ранжирования Яндекс.

Палех Yandex

Алгоритм позволяет Yandex лучше понимать то, о чем его спрашивают пользователи. Благодаря Палеху поисковик находит веб-страницы, содержание которых по смыслу отвечает запросам, а не просто по наличию ключевых слов.

Может заинтересовать статья: Какие бывают ключевые слова и как их гармонично вписать в статью?

Как работает алгоритм Яндекс? У Yandex есть график частотного распределения запросов, который представлен в виде сказочной Жар-птицы. Самые частые запросы – это клюв птички, СЧ – туловище, НЧ – образуют длинный хвост пернатой.

График частотного распределения запросов Яндекс

Один из новых алгоритмов Яндекса Палех позволяет лучше отвечать на сложные запросы пользователей из категории длинного хвоста. Чтобы наиболее точно ответить на такой запрос как:

фильм про человека, который выращивал картошку на другой планете

Разработчики привлекли нейронные сети. Это один из видов машинного обучения, т.е. алгоритм Yandex не просто предоставляет релевантные ответы на запросы, но и учится в процессе работы.

Основная цель алгоритма Палех – повышение качества поиска для редких запросов и запросов, заданных на естественном языке.

Таким образом, для продвижения в Yandex можно использовать не только краткие и конкретные ключи типа: заказать книгу, но и развернутые запросы: где лучше всего недорого заказать книгу?

Баден-Баден Yandex

Нашумевший в 2017 году алгоритм Яндекса под названием Баден-Баден борется с переоптимизированными текстами.

Основная цель алгоритма Yandex – предоставлять пользователям полезные, смысловые тексты без переспама.

В зоне риска теперь сайты, у которых:

  • низкосортный, неинтересный контент;
  • страницы, на которых огромное количество ключей;
  • тексты с неественным вхождением ключевиков.

Пример такого сайта:

 Пример текста со множеством ключей

Интересно вам читать такие тексты? Я думаю, нет. Если содержание не несет смысловой нагрузки, то такой сайт – кандидат №1, чтобы попасть под санкции алгоритма Баден-Баден Yandex. Это значит, что переоптимизированные страницы потеряют свои позиции или вообще покинут зону выдачи Яндекс.

Что предпринять, чтобы не очутиться на задворках поисковой выдачи:

  • убрать спамные тексты;
  • размещать на страницах читабельный материал или вообще ничего не писать;
  • контент должен отвечать на вопросы посетителей, быть им полезен.

В качестве примера приведу одну из работ команды Textum:

Пример текста Textum

Разница с первым примером очевидна – посетители сайта даже не замечают ключи, просто читают статью об особенностях и преимуществах футболок Adidas. Хотите успешно продвигать сайт в Yandex? Забудьте о ТЗ, в которых на 1000 збп указана необходимость вписать 20 ключей.

Королев Yandex

Это один из последних алгоритмов Яндекса. Это еще более усовершенствованная система, которая умеет искать ответы не только по ключам, но и по смыслу (как и Палех). Yandex уверенно развивается и идет от машинного обучения поисковых алгоритмов к пониманию смысла запроса. Алгоритм также построен на основе нейронных сетей.

Алгоритм Королев от Yandex учится определять:

  • авторские тексты;
  • экспертные материалы;
  • сайты с полезным для пользователей содержанием.

Первые места в ТОП-выдачи Yandex отдает сайтам с интересными статьями, показывает пользователям контент, релевантный не по словесному, а по смысловому содержанию.

Поисковый алгоритм Яндекс Королев

Кроме заголовка и текста страницы, Королев также учитывает запросы, по которым на определенный сайт приходили посетители. Вся информация для обучения алгоритма собирается из поисковой статистики Yandex.

Кроме того, Королев понимает, что изображено на картинке и отвечает на запросы пользователей не только ссылками на текст, но и подходящими изображениями. Отличие этого алгоритма от Палех в том, что Палех анализирует только заголовки страниц, Королев – заголовки + содержание + картинки.

В настоящий момент Королев – самый новый алгоритм поиска Яндекс, в 2018 он продолжает самообучаться, предоставляя пользователям наиболее релевантные сайты, независимо от сложности запроса.

Различия в работе алгоритмов Google и Yandex

Что ж, друзья, полпути пройдено и с основами работы 2-х поисковых машин мы с вами ознакомились. Думаю, не лишним будет сравнить между собой особенности поисковых алгоритмов Яндекса и Гугла. Ведь чаще всего работы по продвижению сайтов проводятся под обе поисковые машины одновременно. Это помогает привлечь на веб-ресурс больше посетителей, увеличить объемы продаж.

ПАРАМЕТРЫ

 

 

GOOGLE

 

YANDEX

Количество ключей

Не приветствует статьи с большим числом прямых вхождений ключей. Оптимальная плотность вхождения ключевиков – 1,5-3%.

 

Уникальность контента

Оба поисковика за уникальные тексты при шингле равном 3-4 словам.

 

Размер текста

Хорошо относятся к оптимизированным текстам объемом от 6-10 збп.

Мета-теги страниц

Большое количество ключей в прямом вхождении лучше не употреблять, при этом словоформы можно и нужно использовать.

 

Плохо относится к частому повторению ключей, всевозможные словоформы считает за повторения.

 

Ссылки

Оба поисковика не одобряют использование одинаковых анкоров в ссылках и борются с неестественной ссылочной массой.

 

Ранжирование

Быстро реагирует на оптимизацию, выдача может поменяться несколько раз в день.

Выдача меняется чаще всего во время апдейтов.

Если вы хотите оптимизировать веб-ресурс или написать статью, которая в одинаковой мере понравится Google и Yandex, придерживайтесь золотой середины: умеренно употребляйте ключи в тексте, title и description, применяйте разбавленные анкоры, не стоит сокращать, но и не сильно растягивайте тексты.

Читайте также: Покупка вечных ссылок: 4 шага от хаоса к порядку.

 

 Анекдот про копирайтеров

5 советов: что нужно изменить на сайте в 2018 году?

Вот и пришло время практических рекомендаций от Textum.

Какие работы нужно провести в 2018 году для оптимизации сайта:

  1. Поработать с проблемными страницами. Сюда относятся низкокачественные лендинги, разделы веб-портала, перенасыщенные рекламой, страницы с дублирующим содержанием или минимальным количеством текста (до 400 слов). Также нужно постараться избавиться от страниц (с 4 уровнями вложенности), добраться до которых пользователю нужно 4 и более раза кликнув (начиная с главной страницы).
  2. Писать объемные материалы. Не целые диссертации, конечно. Например, текст на 10 000 збп будет странно смотреться в разделе с карточкой товаров, но страница с количеством слов до 400 может вызвать повышенный интерес алгоритмов Google и Yandex.
  3. Сделать сайт легче. Если на вашем ресурсе огромное количество страниц, на которых сложно найти нужную информацию – шанс попасть под надзор алгоритмов поисковиков Yandex или Google. Заблокировать ненужные страницы можно с помощью Robots.txt, также стоит удалить или комбинировать между собой похожие страницы.
  4. Улучшить внутреннюю перелинковку. Стоит добавить дополнительную навигацию на страничке, например, по интересным статьям. От циклических ссылок лучше избавиться раз и навсегда, их в одинаковой степени не любит Google и Yandex.
  5. Редактировать контент. Google и Yandex стали очень требовательными читателями и малоинформативный контент не пропустят в ТОП-выдачи. Поэтому перед размещением статей на сайте нужно еще раз спросить себя: «Полезен ли материал для пользователей, найдут ли они в нем ответы на свои вопросы?»

Полезная статья по теме: Чек-лист для проверки текста на «профпригодность»: вычитка, редактирование, форматирование (часть II).

Также обязательно наполнять сайт видео, фото, не только продающими, но и информационными ключами, например, какую юбку подобрать к блузке или как выбрать матрас. При этом нужно прописывать к картинкам alt, а к статьям мета-теги с релевантными ключами. И, конечно же, не забывайте про мобильную версию веб-портала.

Что можно сказать в конце? Поисковая оптимизация сайтов – дело нужное и важное. Но переборщить с переоптимизацией, значит попасть под действие алгоритмов Google и Yandex. Поэтому учитывайте все описанные выше рекомендации, читайте последние новости по апгрейдам поисковиков, пишите и наполняйте ресурсы интересными, полезными статьями, как это делает команда Textum.

У вас есть, что добавить к материалу? Хотите поделиться личным опытом или вы знаете еще нераскрытые секреты алгоритмов работы поисковых систем Google и Яндекс? Жду от вас комментарии здесь или на страничках группы Textum в Facebook и Instagram.

Друзья, предлагайте темы, которые вам интересны, мы обязательно рассмотрим их в следующих статьях нашего блога!

До новых встреч!

Автор: Наталья Лагунова