Поисковые системы стремятся быстро и качественно улучшить поисковую выдачу, чтобы максимально точно отвечать на запросы пользователей. Для этого они постоянно работают над алгоритмами выдачи, ужесточают меры контроля за ресурсами. Первые позиции в поисковой выдаче занимают релевантные страницы, полностью отвечающие на запросы пользователей, причем с технической точки зрения они также соответствуют всем нормам и не имеют проблем с безопасностью (у них настроен SSl сертификат).
Повышение требований к сайтам можно уже заметить в новых апдейдах от Яндекса и Google. Мы рекомендуем не откладывать вопросы, связанные с качеством вашего сайта, и уже сейчас начать проверку и, при необходимости, внесение всех соответствующих изменений.
Google в 2020 году проанонсировал выход нового алгоритма Page Experience в мае 2021 года, цель которого сделать так, чтобы в ТОПе поисковой выдачи были сайты, отвечающие всем требованиям: полезности, уникальности, безопасности, технической грамотности и оптимизации. Для этого Гугл дополнил набор параметров, по которым он будет оценивать качество сайтов. Многие из них давно знакомы seo-оптимизаторам, некоторые начали активно внедрятся с осени 2020 г, но после мая 2021 г. они будут не просто желательными, а необходимыми.
Рассмотрим эти параметры более подробно. Полная статья про Google-оптимизацию
Core Web Vitals — это набор показателей, с помощью которых гугл оценивает удобство использования ресурса. Сюда включены: скорость загрузки сайта, интерактивность и визуальная стабильность.
LCP — оценка времени для основного контента (видео, превью, изображения и крупные текстовые блоки).
До того, как они полностью не прогрузятся/отобразятся, пользователь не имеет возможности полностью ознакомиться с содержимым сайта.
FID — время, необходимое на загрузку после первого ввода.
Данный параметр отображает скорость реакции сайта на взаимодействие: клик по баннеру, кнопке, любому элементу страницы. Рекомендуемое время загрузки не более 100 мс, проблемным считается сайт, скорость ответа которого превышает 300 мс.
CLS – визуальная стабильность
Данный показатель говорит о том, что все объекты на странице должны быть стабильны до того момента, пока пользователь не внесет изменения (начнет вводить данные, откроет баннер и т.д.). То есть резкое смещенине текста, горизонтальная прокрутка, плавающие значки должны быть приведены в норму. После майского апдейта показателю CLS будет уделено особое внимание.
Так данный ресурс отдает анализ проверяемых страниц:
На изображении ниже видим, что система подсказывает какие параметры нужно проработать
Данный параметр достаточно важен уже не первый год, но продолжает набирать актуальность (если посмотреть аналитику, 70-90% пользователей просматривают сайты с мобильных устройств).
Безопасность пользовательских устройств
Важнейший фактор ранжирования, который исключает возможность появления в поисковой выдаче сайтов с сомнительным кодом, угрожающих безопасности устройств и информации, находящихся на них. Наличие вредоносных ПО, вводящих в заблуждение страниц, зараженных вирусами файлов и прочих неблагонадежных элементов на сайте будут приводить к его полной блокировке и удалению из баз поисковой системы.
Наличие многочислинных всплывающих блоков и форм, агрессивной, навязчивой рекламы негативно сказывается на поведенческих факторах интернет-ресурса. Часто подобные блоки вводят в заблуждения и провоцируют на ненужные действия, не приносят пользы. В итоге пользователь скорее закроет такой сайт, чем продолжит знакомство с ним. Новые апдейты будут учитывать данные поведенческие действия и понижать в выдаче сайт с присутствием таких элементов.
На конференции YaC 2020 Яндекс анонсировал новый алгоритм обработки текста в поиске — Yati (Yet Another Transformer with Improvements). Как и другие алгоритмы (Палех, Королев) новый будет направлен на установление смысловых связок между пользовательским запросом и документом. Но нейросеть по-другому обрабатывает текст и проходит двухэтапное обучение. Теперь Яндекс поиск основан на огромных нейронных сетях, на архитектуре трансформера.
Эксперты Яндекса называют Yati самым значимым изменением в поиске Яндекса за последние 10 лет. Новый алгоритм заложил фундамент на следующие годы и обеспечил новый уровень качества поискового ответа в сети. Yati связан не с новыми требованиями и санкциями в сторону ресурсов, а направлен на улучшение алгоритмов поисковой сети. Изменения уже заметны как для пользователей, так и для владельцев сайтов.
Главное отличие алгоритма связанно с особенностями распознавания контента. Если ранее система выбирала тексты на основе математических данных: порядок слов, точное вхождение, плотность ключевых фраз и т. д. (Яндекс-робот не читал тексты, а только опирался на исходные алогритмы), то с предпоследним обновлением Королев добавился сбор синонимов и околоключевых слов, которые закладывались роботом в семантику. Далее разработчики обучили роботов распознавать именно речевые особенности текста (сеть начала «понимать» смысл текста).
Сейчас же система начала работать на основе большой базы нейросети, которая не только понимает смысл текста, собирает информацию о значении и наполнении страницы. Она оценивает ее релевантность не только по ключевикам, но и по цепочкам данных, которые заложены в основной запрос конечного пользователя. Также одним из ключевых отличий данного алгоритма стало предсказание клика пользователя — это дополнительная метрика, которая будет учитываться при ранжировании сайта.
Для того чтобы сайт занимал ТОП выдачу поисковой сети, нужно сконцентрироваться на тексте с точки зрения его полезности и соответствия материала смыслу запроса, характеру ЦА.
Центральное значение при написании текстов будет иметь:
Прежние критерии: умение правильно использовать заголовки, прописать метатеги, создать четкую структуру текста и его оформление с помощью html-тегов - никто не отменял.
Делаем вывод, что теперь более весомую роль при ранжировании будет иметь смысловая нагрузка контента и экспертность в той или иной теме. А это значит, что экспертная статья, дающая полный ответ на вопрос пользователя, будет иметь приоритет в поисковой выдаче. В своей работе именно такие тексты мы уже давно используем и активно внедряем на сайты наших клиентов.
Разработчики поисковых систем, помимо глобальных апдейтов, регулярно вводят небольшие, но вполне заметные доработки. Обычно такие обновления не анонсируются, их появление можно заметить при очередном использовании поисковой площадки. Попробуем спрогнозировать изменения выдачи Google и Яндекс в 2021 год на основе тех факторов ранжирования, которые развивались и добавлялись в этом году.
Принцип ранжирования текста E-A-T (экспертность — авторитетность — достоверность). Настало время по-настоящему профессиональных авторов. Требования поисковых систем будут ужесточаться и поэтому обращаем внимание на текстовое наполнение сайта.
E-A-T работает уже давно, но изначально применялся только в медицинской, финансовой сфере и безопасности, так называемых YMYL-ресурсов. На данный момент Google начал применять этот принцип и на другие области.
Принципы определения сайта в целом на E-A-T:
Создавая однотипные тексты по шаблону или, прибегая к помощи непрофессиональных авторов, теперь вы можете только навредить сайту и ухудшить его позиции. Лучше страница без текста, чем с текстом, который проработан не качественно.
Обновление оценочных показателей в поисковой выдаче Google.
После полного апдейда в мае 2021 г Google будет добавлять специальный символ — серый кружок со звездой внутри, так поисковая система отметит сайты, имеющие хорошие показатели пользовательского опыта.
В поисковой выдаче Яндекса уже появились изменения. В сниппете крупных интернет-магазинов появились новые показатели:
Несмотря на то, что не все алгоритмы поисковых систем еще вступили в силу, опытные сео-оптимизаторы готовятся к этому уже сейчас. Быстрота реакции и полная готовность к изменениям позволяет не только сохранить лидирующие позиции, но и улучшить их из-за медлительности других.