2007: Первые публичные изменения алгоритмов
- «Версия 7» (2 июля 2007) – первое публичное объявление о смене формулы ранжирования. Яндекс увеличил число учитываемых факторов и сделал алгоритм запросозависимым: разные формулы ранжирования стали применяться для однословных и многословных запросов. Это обновление повысило релевантность выдачи по ряду запросов. Для оптимизаторов оно стало сигналом, что поисковик начинает открыто сообщать об алгоритмических новшествах, и нужно внимательнее следить за качеством сайта и разнообразием факторов ранжирования (контент, ссылки, метаданные и др.).
- «Родео» (7 августа 2007) – обновление алгоритма ранжирования для однословных запросов. При поиске по одному слову приоритет в выдаче получили главные страницы сайтов (т. н. «морды»). Это сделало результаты более релевантными для общих запросов: пользователи чаще видели основной сайт компании или явления по однословному запросу. Название «Родео» появилось неофициально – так Яндекс озаглавил анонс на форуме, где попросил вебмастеров оставить отзывы об изменениях. SEO-специалистам это подсказало, что для продвижения по коротким запросам важно иметь хорошо оптимизированную главную страницу с нужной информацией.
- «Версия 8» и «Восьмёрка SP1» (декабрь 2007 – январь 2008) – одно из первых крупных обновлений, давшее заметное преимущество авторитетным и трастовым ресурсам. В ранжировании усилился учёт авторитетности домена, благодаря чему крупные официальные сайты стали чаще появляться в топе. Параллельно Яндекс начал активно бороться со спамом ссылок: фильтровались массовые прогоны (автоматизированное размещение множества ссылок) – ссылки с главных страниц перестали передавать такой вес, и вебмастера переключились на покупку ссылок на внутренних страницах. Вывод для SEO: поднять сайт в выдаче стало труднее без качественного контента и авторитетности – простая накрутка ссылками начала давать меньший эффект.
Антиспам-фильтры 2007: Яндекс запустил первые санкции против некачественных сайтов. В 2007 году появился фильтр «Ты последний», который понижает в выдаче страницы с неуникальным, скопированным контентом (действует на уровне отдельных страниц)
. Это стало первым шагом в борьбе с плагиатом: чтобы страница не выпала из поиска, вебмастерам необходимо было публиковать только уникальные тексты.
2008: География и разнообразие результатов
- «Магадан» (16 мая 2008; Магадан 2.0 – 2 июля 2008) – крупное обновление, улучшившее географическую релевантность поиска. Ранее пользователю приходилось вручную выбирать «искать только в моём регионе»; после Магадана поиск стал по умолчанию показывать результаты, локальные для пользователя. Алгоритм научился определять регион сайта и запросов: местные сайты стали выше по региональным запросам. Также вдвое увеличилось число факторов ранжирования, а поиск начал распознавать транслитерацию, аббревиатуры и переводы слов. В версии 2.0 был добавлен учёт уникальности контента и новые классификаторы запросов и документов. Для SEO Магадан означал, что важно указывать регион сайта, создавать уникальный контент и прорабатывать локальные факторы, чтобы обойти конкурентов в своем регионе.
- «Находка» (11 сентября 2008) – обновление, направленное на максимальное разнообразие результатов поиска. Яндекс внедрил новый подход к машинному обучению и тезаурус (синонимический аппарат). В выдаче по многим запросам стало больше разнообразия: даже в коммерческих тематиках к сайтам компаний добавились информационные ресурсы. Поисковик ещё не полностью понимал интент пользователя, поэтому показывал разные типы результатов. Влияние: снизилась эффективность чисто ссылочного продвижения – роль контента возросла. Сайты с пустым контентом, но накрученными ссылками, стали реже попадать в топ. Оптимизаторам следовало уделять больше внимания качеству текстов и полезности сайта для пользователя, а не только внешним ссылкам.
2009: Региональные алгоритмы и машинное обучение
- «Арзамас» (серия обновлений с 10 апреля по 28 сентября 2009) – цикл региональных обновлений. Яндекс научился лучше определять геозависимость запросов и учитывать регион пользователя при ранжировании. Появились отдельные формулы для различных городов: сначала для Москвы/СПб и регионов, затем независимо для 16 крупнейших регионов РФ (так называемый Арзамас+16). Также была решена проблема омонимов – алгоритм учитывал контекст, чтобы различать одинаково написанные запросы с разными значениями. Влияние: поиск стал точнее для региональных запросов – местные компании получили преимущество на своем рынке. Владельцам сайтов стало важно указывать правильный регион в Яндекс.Вебмастере и создавать региональные версии сайтов при работе на разные города.
- «Снежинск» (17 ноября 2009) – знаковое обновление, внедрившее технологию машинного обучения MatrixNet. Количество учитываемых факторов ранжирования выросло в разы. Яндекс начал использовать около 19 отдельных локальных формул для крупнейших регионов России, что ещё более точно настроило выдачу под местные особенности. MatrixNet позволил эффективно комбинировать сотни факторов и их нелинейные зависимости. Влияние: произошли сильнейшие изменения в выдаче – многие сайты ощутили заметные перестановки позиций. Старые методы продвижения стали менее предсказуемыми; акцент сместился на комплексную оптимизацию (контент, технические факторы, удобство сайта), поскольку алгоритм стал «умнее» учитывать множество сигналов.
- «Конаково» (22 декабря 2009) – неофициальное название обновления, расширившего региональность на долгий хвост регионов. После внедрения собственных формул для 1250 городов по всей России поиск стал учитывать местоположение даже в менее крупных городах. Фактически, каждый город получил частично свою формулу ранжирования, кроме крупнейших мегаполисов, которые уже были учтены ранее. Обновление 1.1 (10 марта 2010) – также известное как Снежинск 1.1, затронуло формулу для геонезависимых запросов. То есть Яндекс отдельно доработал ранжирование общих запросов, не привязанных к региону. Для владельцев сайтов это означало необходимость учёта широкой географии – локальный бизнес получил шанс быть видимым в своем городе, а для успеха по общероссийским запросам требовалось качественное содержание и авторитетность, перекрывающие региональные факторы.
Антиспам-фильтры 2009: В разгар развития коммерческого интернета Яндекс представил фильтр АГС для борьбы с сайтами низкого качества. Первая версия (АГС-17) работала с 2009 года и вычистила из поиска так называемые «ГС» – сайты, созданные не для пользователей (сателлиты, линкопомойки)
. Фильтр массово исключал или понижал сайты с бесполезным, ворованным контентом и чрезмерным числом исходящих SEO-ссылок. В 2009-м его действие ощутили многие сетки сайтов: оптимизаторы заметили, что целые группы ресурсов выпали из индекса. Рецепт восстановления был очевиден – убрать с сайта продажу ссылок, заполнить его полезным контентом для людей. В последующие годы алгоритм АГС дорабатывался (известны версии АГС-30, -40, -2015), но суть оставалась той же
: убрать из выдачи «пустышки» и фермы ссылок.
2010: Производительность и новые факторы
- «Обнинск» (13 сентября 2010) – обновление, оптимизировавшее поисковую формулу и инфраструктуру. Яндекс повысил производительность поиска и добавил новые факторы ранжирования для геонезависимых запросов (тех, которые актуальны по всей стране). К этому моменту более 70% запросов были геонезависимыми, поэтому «Обнинск» улучшил качество выдачи в основном для общих информационных и тематических запросов. Алгоритм стал учитывать больше аспектов текста страницы и запроса, продолжая развивать идеи MatrixNet. Для SEO это значило, что даже без привязки к региону сайты ранжируются по сложной совокупности факторов – важно было улучшать сайт комплексно (качество контента, техническая оптимизация, поведенческие факторы), чтобы алгоритм учитывал ресурс как наиболее релевантный по многим сигналам.
- «Краснодар» (15 декабря 2010) – обновление, примечательное запуском технологии «Спектр». Алгоритм научился разбирать запрос на возможные интенты (намерения пользователя) и разнообразить выдачу соответствующим образом. Иными словами, по многозначным или общим запросам стали показываться разные типы результатов, покрывающие альтернативные смыслы. Например, по запросу «Java» пользователь мог увидеть и результаты про язык программирования, и про напиток, и про остров Ява. Также «Краснодар» продолжил развивать локализацию выдачи: для геозависимых запросов улучшилось ранжирование местных результатов, а число городов с независимыми формулами выросло до 1250. Влияние: поисковая выдача стала более разнотипной и ориентированной на угадывание потребности пользователя. Вебмастерам пришлось учитывать, что недостаточно быть одним из множества похожих сайтов – лучше покрывать разные потребности аудитории и стараться стать «универсальным» ответом на запрос.
Антиспам-фильтры 2010–2011: Яндекс усилил борьбу с переоптимизацией текстов. C 2010 года действует фильтр «Переспам», который вычисляет страницы с избыточным количеством ключевых слов (например, спамное повторение или выделение жирным) и резко занижает их в выдаче
. В 2011 году появился фильтр «Переоптимизация» – по сути, более строгий вариант: он тоже нацелен на чрезмерный SEO-текст, но может снижать позиции сразу по целой группе запросов
. Проще говоря, «Переспам» бьёт по отдельным страницам, а «Переоптимизация» может ударить по сайту шире, если перебор с ключевиками системный. Оба фильтра стали ответом на практику набивания страниц SEO-текстом низкого качества. После 2010–2011 гг. владельцам сайтов было необходимо пересмотреть контент: убрать «тошнотный» текст, снизить плотность ключевых слов до естественной. Иначе сайт рисковал потерять 50 и более позиций в поиске из-за текстового антиспама
.
2011: Персонализация и учет языка пользователя
- «Рейкьявик» (17 августа 2011) – первое обновление, нацеленное на персонализацию поиска под предпочтения конкретного пользователя. Главный акцент – учёт языковых предпочтений пользователя. Если человек чаще искал и просматривал страницы на определенном языке (русском, английском и т.д.), Яндекс начал подстраивать выдачу под эти предпочтения. Например, двуязычный пользователь мог чаще видеть результаты на том языке, который обычно предпочитает. Влияние: поиск стал индивидуальнее – у разных людей результаты по одному запросу могли различаться в зависимости от их истории. SEO-специалисты поняли, что важна адаптация контента под целевую аудиторию: если сайт рассчитан на русскоязычных, он должен полностью удовлетворять их ожидания (и наоборот). Также это был первый шаг к персональной выдаче – появилась необходимость учитывать пользовательский опыт (например, привлекать лояльную аудиторию, чтобы сайт становился «любимым» и персонально повышался в результатах).
Поведенческие факторы 2011: С началом персонализации Яндекс все больше внимания уделяет поведению пользователей. В алгоритмах закрепляется учет кликов, времени на сайте, возвратов к поиску и прочих сигналов удовлетворенности. Хотя конкретные алгоритмы не афишировались, SEO-сообщество заметило, что поведенческие факторы стали влиять на ранжирование – сайты с лучшим UX и удержанием аудитории выигрывают позиции. Впоследствии (2013–2015 гг.) это подтолкнуло некоторых вебмастеров к накрутке ПФ, о чем ниже.
2012: Глубокая персонализация поиска
- «Калининград» (12 декабря 2012) – продолжение темы персонализации. Яндекс начал учитывать долгосрочные интересы пользователя. Алгоритм запоминал темы, которыми человек интересовался в течение длительного времени, и использовал эти данные для ранжирования. Также в 2012-м в поиске появились персональные подсказки и повышенная релевантность для «любимых сайтов» пользователя. Например, если пользователь часто переходит на определенный сайт (новостной портал, соцсеть и т.п.), Яндекс может поднять этот домен выше по соответствующим запросам. Влияние: выдача всё больше адаптируется под каждого отдельного человека. Для SEO стало важным удерживать лояльную аудиторию: сайты начали активно работать над возвратом посетителей (закладки, подписки), ведь «любимые» ресурсы получали плюс в ранге. Также брендовые запросы (навигационные) стали критичны – у известного бренда больше шанс быть выброшенным наверх для своих постоянных пользователей.
2013: Учет текущих интересов и сессии поиска
- «Дублин» (30 мая 2013) – очередной шаг в персонализации. Введён учёт сиюминутных интересов пользователей. Алгоритм начал отслеживать, что интересует человека прямо сейчас, и адаптировать результаты даже в ходе одной поисковой сессии. Например, если пользователь последовательно задаёт несколько связанных запросов, поиск понимает контекст и может изменять выдачу «на лету» под уточнившийся интерес. Влияние: поиск стал более «умным» в рамках диалога с пользователем. Появилось понятие динамической выдачи, которая подстраивается под цепочку действий. Для оптимизаторов это означало, что контент должен покрывать цепочки смежных запросов и удерживать внимание: если ваш сайт удовлетворил пользователя на первом шаге, высок шанс, что и на следующем шаге (связанном запросе) он снова появится в выдаче.
Антиспам 2012–2013: В этот период Яндекс продолжает улучшать фильтры качества. К уже имеющимся текстовым санкциям добавляются новые. Появился т. н. «Новый текстовый антиспам», который сильно занижает страницы с переоптимизированными текстами (могут улететь вниз более чем на 50 позиций)
. Он работает жёстче прежних фильтров и фактически вычищает из топа страницы с SEO-заспамленностью. Точных дат Яндекс не раскрывал, но SEO-эксперты заметили усиление примерно к 2013 году. Кроме того, усилилось внимание к качеству ссылок: в алгоритмы встроен фильтр «Внешний/Внутренний Непот», который автоматически обесценивает или исключает из расчёта ссылки, если выявлена неестественная ссылочная активность
. Непот карает сайты, продающие ссылки (внешний), а также избыточную перелинковку внутри сайта (внутренний). В итоге к 2013 году оптимизаторам стало понятно, что и тексты, и ссылки должны выглядеть максимально естественно – любые явные попытки манипуляции алгоритм старается отфильтровать.
2014: Отмена ссылок и новые форматы выдачи
- «Началово» – алгоритм «Без ссылок» (12 марта 2014) – уникальный эксперимент Яндекса: полный отказ от учёта ссылок в ранжировании для определённой категории запросов. В Москве по группам коммерческих запросов вес ссылочных факторов был обнулён. Это нововведение потрясло SEO-рынок – ссылки долгие годы были главным инструментом продвижения. Яндекс таким образом боролся с покупными ссылками: идея в том, чтобы лишить ссылочный спам смысла. Влияние: в коммерческой выдаче Московского региона произошли серьёзные перестановки – сайты с сильным контентом и пользовательскими факторами обошли те, кто держался в топе лишь за счёт купленных ссылок. Методы оптимизации резко изменились: вместо бюджета на ссылки бизнесу пришлось вкладываться в контент, юзабилити, работу с пользователями. Однако «безссылочный» алгоритм работал не везде и не навсегда – позднее (в 2015 г.) ссылочные факторы вернулись в алгоритм, но уже с учётом новых фильтров против ссылочного спама.
- «Одесса» – алгоритм «Острова» (5 июня 2014) – обновление, больше связанное с интерфейсом выдачи, но повлиявшее и на SEO-стратегии. Яндекс запустил «островной» дизайн результатов поиска. Сайты могли внедрять интерактивные блоки («острова») прямо в сниппете – например, форму бронирования, кнопку звонка и т.п. Цель – дать пользователю возможность взаимодействовать с сайтом не покидая поисковую страницу. Влияние: на ранжирование как таковое «Острова» сильно не повлияли, но привели к новой концепции – борьбе за привлекательный сниппет. Владельцы сайтов начали адаптировать структуры данных и разметку под «острова», чтобы получить расширенные интерактивные сниппеты. К сожалению, эксперимент не получил массового успеха и позже был свернут, но он предвосхитил тренд на расширенные ответы и удобство для пользователя прямо на странице выдачи.
Антиспам 2014: В это время ужесточается подход к ссылкам. Появляется фильтр «Ссылочный взрыв», который штрафует сайты за резкий неестественный рост числа внешних ссылок
. Если за короткий срок сайт получил массу ссылок (особенно с мусорных доноров), алгоритм снижает его позиции. Доноры, участвующие во «взрыве», тоже маркируются как ненадёжные. Поэтому SEO-специалисты стали выстраивать наращивание ссылочной массы постепенно и осторожно, избегая резких «прогонов». Также действует уже упомянутый Непот-фильтр против ссылочных ферм. В итоге к 2014-му было ясно: агрессивное линк-билдинг может привести к санкциям, лучше делать упор на естественные упоминания.
2015: Объектные ответы и борьба со ссылочным спамом
- «Амстердам» – алгоритм «Объектный ответ» (1 апреля 2015) – шаг в сторону семантического поиска и интеграции собственных знаний Яндекса. В правой части поисковой выдачи появилась карточка с объектом запроса – короткая справка по сути вопроса. Яндекс начал классифицировать объекты (персоны, организации, фильмы и т.д.) и показывать сразу ключевую информацию: например, при запросе о знаменитости – фото, даты жизни, краткую биографию. База знаний Яндекса на тот момент содержала десятки миллионов объектов. Влияние: пользователи получили быстрые ответы без необходимости перехода на сайты. Для SEO это означало появление нулевой позиции – чтобы попасть в объектный ответ, сайт должен предоставлять структурированные, проверенные данные (а нередко Яндекс брал данные из своих сервисов, Википедии и т.п.). Владельцам контентных сайтов пришлось адаптироваться: использовать микроразметку, следить за качеством фактологических данных, чтобы их контент мог быть выбран для таких виджетов.
- «Минусинск» (15 мая 2015) – знаменитый алгоритм, объявивший войну SEO-ссылкам. Яндекс начал понижать в ранжировании сайты с избыточной долей покупных/оптимизаторских ссылок во входящем профиле. Сайты-нарушители теряли видимость практически по всем запросам (кроме самых брендовых). Название дано в честь города Минусинска, намекая на «ссылочную ссылку» (сибирская ссылка) для сайтов-нарушителей. Влияние: многие ресурсы из топа рухнули, вебmasters в панике начали массово снимать купленные ссылки. Это был сигнал: эпоха линкфирм и биржевых ссылок закончилась – отныне основной упор следовало делать на естественные факторы. После Минусинска Яндекс постепенно вернул учёт ссылок во всех тематиках (даже в Москве), но уже с учётом фильтра: ссылки продолжают быть фактором, но их качество и естественность теперь под жёстким контролем. SEO-совет: провести аудит ссылочного профиля, удалить явный «SEO-хлам» и впредь добывать ссылки через контент и упоминания, а не покупки.
- «Киров» – алгоритм «Многорукий бандит» (осень 2015) – внутреннее обновление, связанное с поведенческими факторами. Яндекс внедрил рандомизированный компонент в выдаче, чтобы эффективнее собирать данные о кликах пользователей. Случайным образом некоторым документам, имеющим близкую релевантность (оценку Rel+), давался небольшой «бонус» в ранге, чтобы проверить реакцию пользователей. Этот метод аналогичен задаче об многоруком бандите в теории вероятностей – цель оптимизировать выбор лучшего результата через экспериментирование. Влияние: выдача в Москве стала более динамичной – позиции могли временно скакать, даже если сайт ничего не менял. Это помогало Яндексу выявить, какой результат действительно более кликабельный и полезный для людей. В дальнейшем такой подход рандомизации распространили и на другие регионы. Для SEO это объяснило некоторые «хаотичные» изменения позиций: стало понятно, что CTR и поведение пользователей напрямую влияют на ранжирование, а поисковик специально пробует поднимать разные сайты, смотря на отклик аудитории. Оптимизаторам следовало улучшать сниппеты, заголовки и удобство страниц, чтобы при попадании в эксперимент их сайт показал лучшие поведенческие метрики и закрепился выше.
Антиспам 2015: С ростом значения поведенческих факторов Яндекс начал активно бороться с их накруткой. Появился фильтр «Накрутка поведенческих факторов (ПФ)», который штрафует сайты за искусственное увеличение кликов и посещений из поиска
. Если обнаружено, что сайт привлекает мотивированный трафик (пользователи за награду кликают по результатам) или использует ботов для имитации, его позиции резко падают – в топ-10 такой ресурс остаётся только по самым витальным (брендовым) запросам
. В 2015 году несколько громких скандалов (когда сайты массово накручивали ПФ) привели к показательной «казни» – сайты были исключены из поиска. С тех пор стало опасно заказывать накрутку поведенческих метрик. Также появились изощренные техники, караемые фильтрами: «Содействие имитации действий пользователей» – за использование скриптов или CAPTCHA, побуждающих ничего не подозревающих посетителей совершать поисковые клики (такие сайты тоже стали пессимизироваться)
. Вывод: не пытайтесь обмануть поведенческий алгоритм – Яндекс научился отлавливать как явную накрутку ботами, так и схемы вовлечения реальных пользователей в обман.
2016: Мобильный поиск и нейросети в ранжировании
- «Владивосток» (2 февраля 2016) – алгоритм, учитывающий адаптивность сайтов для мобильных устройств. С бурным ростом мобильного трафика Яндекс начал повышать в мобильной выдаче сайты, оптимизированные под смартфоны. Проекты, не имевшие мобильной версии или адаптивного дизайна, стали проигрывать позиции при поиске с телефонов. Фактически, это аналог «Mobilegeddon» у Google. Влияние: произошла перестройка мобильной выдачи – многие старые сайты просели, а адаптивные конкуренты выросли. Появился термин «Mobile-friendly» – сайт должен быть удобен на экране телефона. Оптимизаторы массово занялись мобильной оптимизацией: переводили сайты на адаптивную вёрстку, ускоряли загрузку, упрощали интерфейс для маленьких экранов. В десктопной выдаче «Владивосток» ничего не изменил, но с учётом того, что доля мобильных пользователей уже тогда была высока, влиянию алгоритма подверглось большинство проектов.
- «Палех» (2 ноября 2016) – первое внедрение нейросетей непосредственно в алгоритм ранжирования Яндекса. «Палех» научился искать документы по смысловому соответствию, а не только по прямому вхождению слов. Яндекс задействовал нейронную сеть, которая преобразует запрос в семантический вектор в пространстве из 300 измерений и ищет близкие вектора среди документов. На момент запуска анализировался векторный смысл заголовков (title) страниц. Это позволило значительно улучшить качество поиска для редких и сложных запросов на естественном языке – даже если точных ключевых слов на странице нет, но по смыслу она релевантна, Яндекс мог её показать. Влияние: пользователи получили более умные ответы на длинные вопросы. SEO-шаблоны оптимизации «под конкретные фразы» начали устаревать – важнее стало покрывать тему запроса в целом. Сайты с хорошо раскрытой темой и семантически богатыми текстами получили преимущество, особенно по НЧ-запросам. Оптимизаторам стоило обращать внимание на LSI (латентно-семантические ключи) и общую связанность текста с темой, а не только на прямое включение фразы.
Антиспам 2016: В сфере контента продолжались улучшения. К этому времени за переоптимизацию текстов уже отвечали фильтры и алгоритмы, а в 2017-м готовился ещё более серьёзный шаг (см. Baden-Baden ниже). Отдельно Яндекс начал бороться с мошенническими элементами на сайтах. Появился фильтр «Кликджекинг» – он понижает сайты, которые обманывают пользователя, скрывая невидимые кликабельные элементы на странице
. Например, наложение прозрачной ссылки на кнопку закрытия – пользователь думает, что закрыл баннер, а на самом деле перешёл по скрытой рекламе. Такие уловки начали жёстко караться. Появился и фильтр «Криптоджекинг» – пометка «Сайт может быть опасен» и понижение страниц, содержащих скрипты для скрытого майнинга криптовалют на устройствах посетителей
. Вывод: к 2016 году SEO явно разделилось на «белое» (честное, с упором на качество) и «чёрное» (манипуляции). Яндекс последовательно пресекал технические обманы пользователей, поэтому сайты с подобными «хаками» стали терять трафик.
2017: Качественный контент и понимание смысла
- «Баден-Баден» (23 марта 2017) – алгоритм, названный в честь известного курорта, но посвящённый «лечению» поисковой выдачи от переоптимизированных текстов. Если раньше за переспам текста наказывали отдельные фильтры, то теперь соответствующие факторы встроены прямо в основной алгоритм. «Баден-Баден» оценивает весь контент документа (основной текст, скрытый текст и пр.) и понижает в результатах страницы, где SEO-текст явно переспамлен ключевиками или «водой». Фильтр стал запросозависимым – то есть анализирует, по каким запросам страница переоптимизирована, и снижает её именно там. Влияние: множество сайтов с неестественными текстами ощутили падение позиций. В Яндекс.Вебмастере даже начали приходить предупреждения о низком качестве текстов на сайте. SEO-сообщество окончательно отказалось от старых методик наподобие «напиши текст 3000 символов, упоминая ключ 20 раз». Оптимизация контента перешла на новые рельсы: тексты должны быть полезны, написаны для людей, с разумным употреблением ключевых фраз. Любая попытка специально «заточить» страницу под запрос сверх меры стала риском потерять весь поисковый трафик.
- «Королёв» (22 августа 2017) – логическое развитие «Палеха» в семантическом поиске. Алгоритм «Королёв» использует нейросети для глубокого понимания смысла запроса и страницы. Главное отличие: если «Палех» сопоставлял запрос только с заголовками, то «Королёв» анализирует весь текст документа. Яндекс может понять, соответствует ли длинный подробный текст на странице тому, что имел в виду пользователь в своем запросе, даже если слова напрямую не совпадают. Это позволило еще лучше отвечать на сложные информационные запросы. Влияние: качество поиска заметно выросло для длинных вопросов, описательных запросов. Пользователь стал получать результаты «по смыслу». Для владельцев сайтов это значило, что глубокий контент выигрывает: страницы, полностью раскрывающие тему, содержащие синонимы, примеры, разные аспекты вопроса, получили преимущество. В то же время, поведенческие факторы никуда не делись – «Королёв» по-прежнему учитывает клики и удовлетворённость, а благодаря лучшему пониманию текста, алгоритм мог точнее идентифицировать, какой контент ценен пользователям. SEO-специалисты стали активнее использовать технологии анализа текста (TF-IDF, семантическое моделирование) при создании контента.
Другие фильтры 2017: В коммерческих тематиках Яндекс начал учитывать не только сайт, но и надёжность бизнеса за ним. Появился сигнал о качестве самой компании. Массово это проявится чуть позднее (в виде фильтра «Некачественный бизнес» в 2021), но уже с 2017–2018 гг. Яндекс говорил, что репутация и благонадёжность влияют на ранжирование. Также продолжалось развитие мер против рекламы: фильтры «Назойливая реклама» (за перебор всплывающих окон) и «Обманная/избыточная реклама» (за вредоносные или чрезмерные объявления) стали применяться шире
. Сайты, заваленные агрессивной рекламой (особенно всплывающей), стали проседать по позициям. Советы оптимизаторам: следить за рекламной нагрузкой на сайте, не мешать пользователю контентом ради монетизации, иначе поисковик может понизить ресурс.
2018: Интерфейсные улучшения и колдунщики
- «Андромеда» (19 ноября 2018) – комплексное обновление, которое официально подвело итог сотням небольших изменений за пост-Королёв период. Большинство новшеств касалось обогащения страницы результатов поисковыми сервисами Яндекса (т. н. колдунщики и виджеты). Основные изменения «Андромеды»: улучшены быстрые ответы (повышена их точность и число сценариев, где они появляются), расширена интеграция с другими сервисами (например, отображение из Яндекс.Коллекций, Карты, отзывы прямо в SERP). Также в выдаче появились специальные значки у сайтов – например, отметки про мобильную адаптацию, надежность (HTTPS) и т.д. Для SEO напрямую это обновление значило, что классическое понятие «10 синих ссылок» уходит в прошлое: бороться нужно не только за позицию, но и за представленность в расширенных результатах. Стоило внедрять микроразметку, интеграцию с Яндекс.Справочником (для бизнеса), заботиться о snippet-оптимизации. Кроме того, сайты заметили повышенное значение UX-факторов: Яндекс стремился удержать пользователя на своей странице (колдунщики), поэтому ценились сайты, данные с которых можно взять для таких виджетов (структурированные, авторитетные).
Поведенческие и качество 2018: В этом году Яндекс уделил внимание экспертности контента. В августе 2018 на конференции говорилось, что в оценках асессоров введён критерий E-A-T (экспертность, авторитетность, надёжность) для тем, где это критично (медицина, финансы и т.п.)
. Позже это воплотилось в алгоритме «Вега» 2019, но уже в 2018 вебмастерам стало ясно: нужен качественный экспертный контент, написанный профессионалами, с подтверждением экспертности. Сайты-агрегаторы и псевдо-справочники начали очищаться из топа по чувствительным тематикам. Кроме того, продолжилась борьба с недобросовестными приёмами: наказываются сайты, принуждающие к подписке на пуш-уведомления (фильтр за навязчивые оповещения появился в начале 2019 и уже готовился)
. Таким образом, к концу 2018 SEO-повестка всё больше смещалась к лозунгу: «Делайте сайты для людей», иначе алгоритмы, обученные на поведенческих метриках и оценках качества, рано или поздно опустят ваш ресурс.
2019: «Вега» – рост базы, скорость и экспертность
- «Вега» (17 декабря 2019) – масштабное обновление, включившее сразу несколько направлений улучшения поиска. Главное новшество – кластеризация базы документов по смыслам: индекс разделили на смысловые кластеры, что ускорило поиск и позволило почти в 2 раза увеличить объем проиндексированных страниц. Вторая часть – пререндеринг результатов: поиск начал предугадывать запрос, который пользователь может ввести, и заранее генерировать выдачу (это ускоряет показ результатов). Третье – усиление учёта экспертности при оценке асессоров: для тематик, где важна компетентность (медицина, юриспруденция и т.п.), Яндекс начал требовать от результатов признаков экспертного контента. Четвёртое – гиперлокальный поиск: алгоритм стал учитывать точное местоположение пользователя вплоть до района города, а не только город в целом. Влияние: «Вега» сделала поиск более быстрым, актуальным и «умным». Пользователи получили больше новых страниц в выдаче (за счёт расширенного индекса) и более точную локальную информацию. SEO-специалистам обновление принесло новые вызовы: нужно следить за уникальностью и полнотой контента (чтобы попасть в расширенный индекс), работать над экспертностью (E-A-T факторами) на своих сайтах – например, публиковать авторство, сертификаты, реальные отзывы, и оптимизировать сайты под локальный поиск (указывать адреса, координаты, работать с Яндекс.Картами). Также скорость сайта и техническая оптимизация снова вошли в фокус: предугадывание запросов ценит сайты, которые быстро грузятся и могут мгновенно отобразиться.
Фильтры 2019: В январе 2019 запущен фильтр «За навязчивые уведомления», пессимизирующий сайты, которые агрессивно требуют подписки на push-оповещения
Сайты-нарушители начали получать в результатах пометку, что ресурс навязывает оповещения, и теряли позиции. Также около 2019 года активизировались фильтры против обмана мобильных пользователей (редиректы, подписки на платные услуги на мобильных страницах)
Яндекс снижал трафик таким проектам
Эти меры подчёркивают: улучшая алгоритмы, поисковик параллельно зачищает выдачу от ресурсов, пытающихся обмануть или раздражать пользователя.
2020: Поиск по смыслу – алгоритм YATI
- YATI (Yet Another Transformer with Improvements) – сентябрь/ноябрь 2020. Это обновление связано с внедрением трансформерных нейросетей (аналогично прорывному алгоритму BERT в Google). Точное время запуска скрыто, но аналитики заметили резкий сдвиг метрик 30 сентября 2020. Официально Яндекс объявил о YATI 25 ноября 2020 на конференции YaC. Суть YATI – применение тяжелых глубинных нейронных сетей для поиска по смыслу. Алгоритм лучше понимает естественный язык, контекст слов, длинные запросы и соотносит их с содержимым страниц. Яндекс заявил, что YATI дал рекордное улучшение ранжирования за последние 10 лет – сопоставимое с вводом MatrixNet в 2009. Влияние: качество ответов на сложные вопросы возросло, пользователи заметили более точные результаты даже по «разговорным» запросам. Для владельцев сайтов это означало, что семантическая оптимизация выходит на первый план. Страницы, написанные естественным языком, отвечающие непосредственно на суть вопроса, начали побеждать страницы, оптимизированные лишь под формальные ключи. Также YATI, вероятно, уменьшил влияние чисто технических факторов – если по смыслу документ лучше, он выйдет выше даже при меньшем количестве входящих ссылок или других классических метрик. SEO-эксперты рекомендовали после YATI пересматривать контент: важно покрывать тему глубоко, использовать разговорные формулировки вопросов-ответов, добавлять разделы FAQ, чтобы алгоритм видел: документ действительно отвечает на запросы пользователей.
- Поведенческие факторы 2020: В эпоху YATI поведенческие метрики продолжают учитываться, но накрутить их стало ещё сложнее – алгоритмы отсеивают аномальное поведение. Появился также компонент CS YATI (Cross-lingual Semantic), который позволяет лучше понимать запросы на разных языках и переводные тексты (это упоминалось в контексте Y2 2022). Для многоязычных сайтов это плюс – качественный контент на иностранном языке тоже сможет ранжироваться, если релевантен запросу пользователя (например, по техническим темам с англоязычными источниками).
2021: «Яндекс 1» (Y1) и оценка качества бизнеса
- Y1 (10 июня 2021) – новый выпуск поискового алгоритма, который Яндекс преподносил как «поиск 2.0». Y1 объединяет более 2000 улучшений алгоритмов, накопленных за предыдущее время. База Y1 – это нейросетевые технологии трансформеров, включая предыдущий YATI, и новая языковая модель YaLM. YaLM – мощная модель, способная генерировать тексты в заданном стиле и быстро дообучаться на примерах. В Y1 Яндекс анонсировал несколько ключевых возможностей для пользователей: во-первых, существенно расширены быстрые ответы – их стало больше и они точнее. Появился поиск внутри видео (алгоритм понимает содержимое видеороликов и может находить ответы на запрос по ним). Улучшена оценка сайтов и бизнесов по отзывам – видимо, выдача стала учитывать рейтинг компаний (например, из Яндекс.Карт) и отзывы пользователей. Добавлен визуальный поиск (по изображениям) и повышена безопасность поиска. Влияние: Y1 не был одним каким-то фактором, это комплекс обновлений, но в целом поиск стал умнее и удобнее. Для SEO Y1 подтвердил тренды: нужно работать над структурированными данными (чтобы попасть в быстрые ответы и видео-поиск), следить за репутацией бизнеса онлайн (отзывы, рейтинги – всё это может влиять на видимость) и обеспечивать безопасность сайта (HTTPS, отсутствие вредоносного кода), так как Яндекс акцентирует внимание на безопасности. По сути, Y1 – это закрепление курса на нейросетевой поиск, где контент, удовлетворяющий пользователя по сути и качеству, побеждает традиционные приёмы SEO.
- Фильтр «Некачественный бизнес» (октябрь 2021) – новое санкционное нововведение, о котором Яндекс сообщил официально. Фильтр снижает позиции сайтов, стоящих за неблагонадежным или мошенническим бизнесом. Алгоритм оценивает репутацию компании: соответствие заявленных адресов и контактов реальности (проверяется по Яндекс.Картам), достоверность цен, наличие плохих отзывов и жалоб. Если бизнес признан низкокачественным – сайт теряет видимость. Влияние: пользователи реже наталкиваются на сайты-однодневки, лже-сервисы и прочих мошенников. Для честных компаний фильтр не страшен, но он заставил многих обратить внимание на качество бизнеса: пришлось лучше работать с отзывами, указывать реальные данные, не обманывать с ценами. SEO теперь включает и элемент ORM (управление репутацией), по крайней мере в глазах Яндекса.
2022: Y2 и борьба с копиями сайтов
- «Мимикрия» (5 августа 2022) – новый алгоритм, о котором известно пока немного, но его суть – наказание сайтов, копирующих контент с популярных ресурсов. Яндекс начал понижать в выдаче те сайты, что заимствуют тексты или графику у известных источников без достаточной уникальной ценности. Оценка сходства происходит по нескольким критериям:
- текстовое содержимое (плагиат или близкий рерайтинг чужих статей);
- оптимизация под навигационные запросы другого бренда (например, использование чужого названия для перехвата трафика);
- визуальное оформление и элементы сайта (логотип, фавикон, дизайн, напоминающий популярный сайт).
- Если сайт имитирует чужой (берёт чужой бренд, дизайн и контент), он попадает в зону риска и может быть серьёзно понижен. Влияние: борьба с фишингом и клонами. Пользователи чаще увидят в топе оригинальные источники, а не агрегаторы-копипастеры. Для SEO это сигнал: уникальный контент – закон, а копирование лидеров больше не прокатит. Нужно создавать свои тексты, изображения, фирменный стиль. Использование чужих товарных описаний, картинок или шаблонов теперь чревато потерей позиций.
- Y2 (25 ноября 2022) – второе издание «нового Яндекса». В основе Y2 снова лежат трансформерные нейросети, развитие алгоритмов YATI и YaLM. Сообщалось о применении доработанного YATI (названо YATI+CS, вероятно с учётом кросс-семантических связей) и улучшенной языковой модели. Для оценки качества поиска Яндекс ввёл новые метрики – «Профицит» и «Проксима» (в деталях они не раскрыты). Главные изменения Y2:
- Внедрены новые формулы ранжирования по тематикам: поиск стал лучше понимать специфические тематические запросы (например, медицинские, технические) и показывать более профильные результаты.
- Улучшен поиск видео с закадровым переводом – т.е. можно найти видео даже на иностранном языке, если в нём есть перевод или субтитры (Яндекс стал это учитывать).
- Улучшен поиск объектов (вероятно, развитие «Объектного ответа» – больше знаниевых карточек и поиск по объектам).
- Представлена концепция «Большие темы» – выделение долгосрочных интересов пользователя (то, чем человек увлекается постоянно) для персонализации выдачи.
- По сути Y2 – сборник улучшений ранжирования, накопленных за год. Влияние: поиск стал ещё более умным и персональным. Долгосрочные интересы (например, человек всегда интересуется футболом) теперь явно влияют на выдачу – в топе чаще будут сайты по любимым темам пользователя. Для SEO: важно удерживать аудиторию на длительной основе (подписки, прямые заходы), чтобы ваш сайт вошёл в «большие темы» пользователя. Кроме того, под Y2 вебмастерам стоило обратить внимание на уникальность контента – конец 2022 ознаменовался началом активной борьбы с неоригинальными материалами (см. август 2023 ниже). Ну и, конечно, техническое SEO: видео, мультимедиа, структурированные данные – всё, что помогает алгоритму правильно понять тематику и содержимое страницы.
- Фильтр «Сходство с популярным сайтом» (официально объявлен июль 2022) – по сути, синоним описанного алгоритма «Мимикрия». Яндекс обновил справку и признал, что будет выявлять сайты, слишком похожие на другие популярные источники, которые созданы с целью наживы на чужом бренде. Таких «двойников» поисковик теперь группирует с оригиналом либо вовсе скрывает, особенно по навигационным запросам. Совместно с этим упоминается фильтр «Псевдосайты» – он понижает сайты без самостоятельной ценности для пользователей (тонкие аффилиаты, копии агрегаторов и пр.). Эти инициативы конца 2022 года – продолжение курса на очистку выдачи от мусора и повышение доли оригинального контента.
2023: Оригинальный контент и нейросетевой ответ
- Алгоритм определения неоригинального контента (август 2023) – в конце лета 2023 Яндекс подтвердил доработку алгоритма, выявляющего заимствованный контент на сайтах. Этот алгоритм будет занижать в выдаче те страницы, которые состоят в основном из скопированной или переписанной информации с других ресурсов и не несут самостоятельной ценности для пользователей. При этом цитирование и некоторые виды заимствований считаются допустимыми: например, официальные описания товаров от производителя, тексты законов, цитаты и афоризмы, фольклорные произведения и т.п. – то, что естественно повторяется на многих сайтах. Но если весь сайт наполнен скопированными статьями или передранными новостями – его ждёт пессимизация. Яндекс рекомендовал устранять нарушения, удаляя неоригинальный контент, и сообщать об этом через Вебмастер – обычно через ~30 дней после очистки санкции снимаются. Влияние: в выдаче усилилась ротация в пользу авторов оригинального контента. Сайты-агрегаторы, новостные копипасты стали терять трафик, если не добавляют уникальной ценности. SEO-урок 2023: контент должен быть оригинальным. Перепубликация чужих текстов без добавления своей экспертизы – тупиковая стратегия. Нужно создавать собственные материалы или хотя бы существенно их перерабатывать, иначе алгоритмы рано или поздно понизят сайт.
- «Нейро» (16 апреля 2024) – новый этап, интегрирующий генеративный искусственный интеллект прямо в поиск. Яндекс запустил умный ответ на базе модели YandexGPT-3 (и вспомогательных ИИ). По сути, при некоторых запросах пользователь получает не просто сниппеты сайтов, а краткий и структурированный сгенерированный ответ, составленный нейросетью на основе нескольких источников. Алгоритм «Нейро» выбирает до 5 надежных документов из интернета и агрегирует их информацию в единый ответ, с указанием ссылок на источники. Это похоже на подход Bing (ChatGPT) и Google (SGE) – сочетание поисковой выдачи с AI-ответом. Влияние: для пользователей – экономия времени, можно сразу получить выжимку знаний. Для сайтов – новая дилемма. С одной стороны, если ваш ресурс попал в число тех 5 источников, вы получите трафик (ссылка на источник видна). С другой – часть пользователей удовлетворится ответом нейросети и не пойдёт ни на какой сайт. SEO-значение: ещё сильнее возрастает роль экспертного и точного контента. Алгоритм будет выбирать источники, которым доверяет – то есть сайты с высокой репутацией, хорошими поведенческими метриками и полноценным раскрытием темы. Кроме того, технически важно, чтобы роботы Яндекса могли правильно интерпретировать ваш текст: структура, заголовки, отсутствие «воды». Нейросеть должна легко извлечь факты из вашего контента. Оптимизация в эпоху ИИ-ответов сводится к тому, чтобы стать тем самым авторитетным источником, попадающим в агрегированные ответы. Это новый вызов для SEO в 2024 и далее.
Заключение
С 2007 по 2025 год поисковый алгоритм Яндекса прошёл огромный путь: от учёта примитивных факторов (ссылки, ключевые слова) до глубокого нейросетевого понимания и генерации ответов. Хронология алгоритмов показывает, что Яндекс учится на поведении пользователей и противодействует любым попыткам манипуляции выдачей. Каждое обновление – это сигнал для владельцев сайтов, как нужно развивать ресурс:
- Улучшать контент – делать его уникальным, полезным, экспертным и понятным для ИИ.
- Заботиться о пользователях – скорость, мобильность, удобство, отсутствие обмана и навязчивости.
- Строить репутацию и авторитет – как среди пользователей (бренд, отзывы), так и в глазах алгоритмов (естественные ссылки, упоминания).
- Следить за техническими новшествами – разметка, визуальный и голосовой поиск, интеграция своих данных в платформы Яндекса.
Алгоритмы Яндекса сегодня – это более 2000 факторов и их комбинаций. Но главный тренд очевиден: поисковая система стремится мыслить как человек и ценит те сайты, которые реально решают задачи пользователей. Зная историю обновлений, мы понимаем, почему одних только SEO-текстов и ссылок уже недостаточно, а где-то и вредно. Современное продвижение – это комплексная работа над качеством сайта и удовлетворением намерений аудитории, в полном соответствии с тем, куда направляют алгоритмы ранжирования.