Англоязычные вебмастера активно обсуждают неподтвержденное обновление поискового алгоритма Google. Предполагается, что оно было выпущено в районе 20-21 апреля. Об этом пишет Search Engine Roundtable.
Вебмастера сообщают о значительных изменениях в позициях, жалуются на потерю трафика и снижение SEO-видимости до 55%. Некоторые отмечают всплеск бот-трафика, снижение количества кликов относительно просмотров и другие негативные последствия колебаний поисковой выдачи. Многие сетуют на то, что поиск уже не тот и об органическом трафике для коммерческих сайтов пора забыть.
Инструменты отслеживания SERP также фиксировали сильные изменения в указанный период:
MozCast
SemRush
RankRanger
Cognitive SEO
Напомним, 11 апреля Google завершил развертывание Product Reviews Update, который был начат в апреле 2021 года и реализован в три больших этапа в течение года.
В Яндекс.Вебмастере обновился порядок делегирования прав доступа к сайту. Если права выданы пользователем, у которого больше нет доступа к сайту или которому права были также делегированы, то полученные от него права нуждаются в повторной верификации.
Повторная верификация прав происходит на странице «Настройки» –> «Права доступа». Далее выбирается способ подтверждения:
Список пользователей, подтвердивших права, отображается на этой же странице:
Отметим, в прошлом году в разделе «Диагностика» Яндекс.Вебмастера появилось специальное уведомление о дублях из-за GET-параметров, обнаруженных на сайте.
Найти дубли вручную можно во вкладке «Индексирование» –> раздел «Страницы в поиске» –> «Исключенные страницы».
Такое решение было принято из-за низкой ценности инструмента как для пользователей Google, так и для Search Console – проще говоря, «Параметры URL» устарели.
Инструмент "Параметры URL" появился в 2009 году в прародителе Search Console, сервисе "Инструменты для веб-мастеров". Тогда интернет был совсем не такой, как сегодня. Параметры SessionID использовались повсеместно, у CMS были проблемы с организацией параметров, а браузеры часто не могли перейти по ссылкам. С помощью инструмента "Параметры URL" владельцы сайтов получили возможность контролировать, как Google сканирует их сайты. Они могли указывать определенные параметры в URL и смотреть, как это влияет на контент.
С годами системы Google стали гораздо лучше определять, какие параметры нужны на сайте, а какие нет. На самом деле только около 1% параметров, введенных на сегодня в инструменте "Параметры URL", полезны для сканирования сайтов. В связи с низкой ценностью инструмента как для Google, так и для пользователей Search Console, через месяц мы прекращаем поддержку инструмента "Параметры URL".
В дальнейшем вам не нужно будет ничего делать для определения функции параметров URL на вашем сайте, поисковые роботы Google будут работать с параметрами URL автоматически.
Если вам нужен более высокий уровень контроля, вы можете задать правила в файле robots.txt (например, указать порядок параметров в директиве allow
) или использовать атрибут hreflang
, чтобы указать другие языки контента.
Отметим, сотрудник Google Джон Мюллер неоднократно советовал вебмастерам избегать использования инструмента «Параметры URL», поскольку это чревато ошибками. Он также говорил о том, что Google часто игнорирует все, что идет после символа «?» в URL.
В Яндекс.Метрике появился новый источник трафика — «Переходы по QR-кодам». Он поможет быстрее и удобнее анализировать поведение аудитории в офлайне, создавать сегменты для рекламы в Директе и сравнивать эффективность офлайн-кампаний с другими источниками трафика.
Чтобы данные корректно присваивались новому источнику, важно правильно прописать метки в ссылках. Для отслеживания переходов по QR-кодам нужно добавлять “qr” или “qrcode” в параметр utm_medium при разметке ссылки.
Чтобы не размечать ссылку таким образом самостоятельно, можно использовать генератор кодов от Яндекса. Генератор сделает базовую разметку, и трафик попадет в источник «Переходы по QR-кодам» – для этого не придется добавлять UTM-метки вручную.
Ранее, в начале месяца, цели из Метрики стали отображаться в Директе у тех, кому недоступен сам счетчик.
Google запустил две новые функции «Refine this search» и «Broaden this search» в результатах поиска в США. Они предназначены для улучшения поисковых запросов. Об этом сообщает Search Engine Land.
Эти функции были анонсированы на мероприятии Search On в сентябре. Теперь они запущены в поиске на английском языке в США.
Что касается таких блоков, как «Things to know» и «Things to consider», то они сейчас проходят тестирование и пока не запущены.
Функция «Refine this search» помогает пользователям уточнить запрос и выбрать тот конкретный вопрос, который их интересует.
Эта функция позволяет расширить запрос и охватить более общие темы.
Что касается технологии MUM, то в этих функциях она пока не используется. Хотя изначально обе функции были анонсированы как новые варианты применения MUM в поиске.
Депутаты Госдумы хотят обязать поисковые сервисы отмечать в выдаче «неприземленные» IT-компании. Неисполнение повлечет наложение штрафа до 1 млн рублей. Соответствующие положения содержатся в законопроекте об оборотных штрафах для «неприземлившихся» иностранных интернет-компаний, которые внесли в Госдуму Александр Хинштейн и Сергей Боярский («Единая Россия»).
Документ также содержит формулировку, по которой поисковики в дальнейшем должны удалять из выдачи ссылки на компании, которые отказались исполнять закон о «приземлении». В противном случае им грозит штраф в размере до 5 млн рублей.
Председатель совета Фонда развития цифровой экономики Герман Клименко считает, что требования удалять из поисковой выдачи ссылки на иностранные IT-компании, которые не приземлятся, выполнят только российские поисковики, а зарубежные традиционно проигнорируют. По его мнению, это требование скорее ударит по российским маркетологам и SMM-специалистам, которые потеряют заказы на продвижение брендов через поисковую выдачу.
Отметим, с 1 января в России действует закон «О деятельности иностранных лиц в сети интернет на территории РФ», известный как закон о «приземлении» IТ-компаний. Согласно его требованиям, зарубежные сервисы должны открыть в России свои представительства, зарегистрировать личные кабинеты на сайте Роскомнадзора и разместить на сайтах формы обратной связи для российских пользователей.
Под действие закона подпадают 13 иностранных компаний, владеющих 22 информационными ресурсами. В их числе – Google, Apple, Meta, Twitter, TikTok, Telegram, Zoom, Viber, Spotify, Likeme Pte. ltd (Likee), Discord, Pinterest, Twitch.
Команда Ahrefs провела крупнейшее исследование Core Web Vitals, чтобы выяснить, как обстоят дела с этими показателями у сайтов.
Для этого они проанализировали данные, взятые из отчета Chrome User Experience (CrUX). В публичной выборке данные агрегируются на уровне источника (домена). В Ahrefs также решили изучить данные на уровне страницы. Для этого они использовали свой инструмент Site Audit.
Всего было проанализировано 43,66 млн уникальных страниц. Из них только 5,21 млн страниц (11,9%) имели минимум один показатель Core Web Vitals, а 93% (около 4,85 млн) – все три метрики.
В Ahrefs также заметили, что все страницы имели показатели LCP (99,79%) и CLS (99,91%), тогда как FID был доступен только на 93,08% страниц, которые имели хотя бы один показатель Core Web Vitals.
В целом около 33% сайтов достигают пороговых значений по Core Web Vitals – примерно на 10% больше, чем в прошлом году. Это показывает, что сайты стали работать быстрее.
Улучшения зафиксированы и на десктопах, и на мобильных устройствах.
В основной своей массе сайты успешно улучшают FID и CLS, но сталкиваются с трудностями при работе над LCP. Это не удивительно, большинство компонентов LCP трудно поддаются корректировке, отмечают в Ahrefs.
На мобильных устройствах эти трудности более выражены.
Что касается FID, то лишь очень небольшому количеству сайтов стоит уделять внимание этому показателю. У подавляющего большинства проблем с ним нет.
Ситуация с CLS аналогична на мобильных и десктопных устройствах.
При разбивке Core Web Vitals по скорости соединения практически ни один сайт не достигает пороговых значений при использовании 3G и более медленных типов соединения.
Например, пороговых значений LCP практически невозможно достичь при медленном соединении:
При этом только очень небольшому количеству сайтов стоит переживать о FID – даже в таких условиях.
С показателем CLS ситуация иная:
Похоже, что местоположение пользователей оказывает большое влияние на Core Web Vitals. В разных странах разные предпочтения в отношении устройств и разные сетевые инфраструктуры. Если пользователи находятся в стране, где все используют настольные ПК с быстрым интернетом, то сайт, скорее всего, будет иметь хорошие показатели Core Web Vitals, и наоборот.
Топ-10 лучших и худших стран для Core Web Vitals:
На этом уровне пороговых значений Core Web Vitals удается достичь меньшему количеству страниц (21,2%).
LCP имеет примерно те же значения, что и на уровне домена, FID – лучше , а CLS – хуже.