Хочешь в ТОП? Хватит хотеть, пора действовать!

Начать продвижение

Новый алгоритм «Королёв»: что будет с выдачей?

22 августа 2017 Яндекс презентовал алгоритм «Королёв». Новый поиск основан на нейронных сетях, позволяющих сопоставлять смысл поисковых запросов и веб-страниц. Как изменится жизнь SEO-специалистов и что будет с выдачей? Узнаем!

Алгоритм «Королёв» – логическое продолжение «Палеха». Вот пример работы этого алгоритма: пользователь вводит запрос «рассказ в котором раздавили бабочку», имея в виду рассказ Рея Брэдбери «И грянул гром», но не зная его названия. Без учета смысла алгоритм не смог бы понять, что страница с заголовком «И грянул гром – Википедия» является отличным ответом на этот запрос. А «Палех» эту задачу успешно решает.

Алгоритм «Королёв» – это еще один шаг на пути к лучшему пониманию пользователей. Теперь Яндекс при ранжировании учитывает не только заголовок страницы, но и весь текст, размещенный под заголовком на этой веб-странице.

Самообучение нейронных сетей в «Королёве» позволяет вычислять смысловое соответствие заранее, на этапе индексирования, а не в режиме реального времени, как это было в «Палехе». Таким образом, «Королёв» анализирует в тысячу раз больше веб-страниц.

Дарья Черникова, аналитик технологий Rookee:

Яндекс сообщил о новой технологии поиска «Королев». По заявлению Яндекса, эта технология направлена на то, чтобы поиск осуществлялся по смыслу, а не по словам. Это стало возможным благодаря использованию нейронных сетей. Такой подход позволяет писать информативные и понятные тексты, в которых не обязательно должны присутствовать точные вхождения запроса. Но на самом деле Яндекс делает это уже достаточно давно, просто сейчас поменялся алгоритм. Поэтому эти изменения не должны затронуть современных SEO-специалистов, которые отказались от переспамленных текстов в пользу полезных текстов для людей.

Также для внедрения этой технологии потребовались изменения архитектуры индекса. Поиск по запросу состоит из нескольких этапов. Первый этап являлся фильтрующим, т.е. удаляются из обработки страницы, в которых нет слов из запроса. Но даже после этого остается огромное количество страниц, особенно для запросов с очень частотными словами. При старой архитектуре все найденные страницы невозможно было обработать для ранжирования, т.к. время на обработку одного запроса ограничено. Поэтому использовались различные эвристики, чтобы ограничить количество документов для последующего ранжирования. Это приводило к тому, что в выдачу не попадали некоторые хорошие документы. Сейчас Яндекс проделал огромную работу: посчитал офлайн и сохранил для каждого документа некоторую информацию, которую раньше приходилось считать в режиме реального времени, и это позволяет обходить все релевантные запросу документы. В связи с этим в ближайшее время по некоторым запросам в выдачу могут попасть некоторые новые страницы, но затем ситуация нормализуется.

Ознакомиться с другими комментариями экспертов касательно изменений, произошедших в выдаче накануне запуска алгоритма, можно на SEOnews.

rookee, 25 Августа 2017
1366