Гугл обновит свои методы ранжирования веб-ресурсов, что понизит в поисковой выдаче кол-во веб-сайтов с низкокачественным контентом, сделанным намеренно для поисковых машин, но не для юзеров. Эта мера показывает рвение компании биться с засильем низкокачественного либо неоригинального контента, обусловленного, в том числе, развитием искусственного ума (ИИ), к разработке которого Гугл имеет конкретное отношение.
Беда утежеляется тем, что в итоге активного использования способов оптимизации под требования поисковых машин (SEO) качество поисковой выдачи приметно снизилось. Разные SEO-стратегии, включая создание огромного объёма контента для увеличения поискового ранжирования либо создание веб-сайтов для соответствия специфичным запросам в поисковике, привели к тому, что в поисковой выдаче стали доминировать низкокачественные запасы. Исследование, проведённое Лейпцигским институтом, Институтом Баухауса в Веймаре и Центром масштабируемого анализа данных и искусственного ума (ScaDS.AI), показывает на то, что Гугл проигрывает войну с SEO-компаниями.
В ответ на это Гугл объявила об обновлении собственных главных алгоритмов ранжирования, что, как ожидается, приведёт к сокращению числа никчемных ресурсов в поисковой выдаче на 40 %. Компания также хочет биться с злоупотреблением репутацией веб-сайтов, когда площадки с своим высококачественным контентом могут располагать низкокачественные материалы, предоставленные третьими лицами, с целью заработка на репутации хостинга. В дополнение к этому вводится мера снижения в рейтинге доменов с истёкшим сроком.
При всем этом Гугл избегает именовать ИИ первопричиной препядствия. Заместо этого компания заявляет, что желает «биться с появляющимися стратегиями», такими как «применение автоматизации для масштабного сотворения низкокачественного либо неоригинального контента». Но какие точно стратегии употребляются для генерации низкопробного контента, остаётся загадкой. Похоже, из-за рвения стать компанией, ассоциируемой с ИИ, Гугл предпочитает не заострять внимание на отрицательных качествах этой технологии.
Отклик Гугл последовала за близко звучных историй, связанных со «мусором» в поисковой выдаче. В одном из постов в соцсети X было поведано о «SEO-ограблении», когда сайт, используя ИИ для копирования контента конкурирующего веб-сайта, сумел обеспечить для себя больше высочайшее место в поисковых результатах, практически «украв» 3,6 миллиона просмотров. Ещё один пост с веб-сайта обзоров продукции HouseFresh во всех деталях описывал, как Гугл по сути не приоритизирует высококачественные обзоры, а заместо этого позволяет большим издателям заполнять 1-ые странички поисковых результатов низкопробными статьями с партнёрскими ссылками.
Гугл признаёт, что текущая политика компании не наказывает веб-сайты с контентом, сгенерированным ИИ, невзирая на растущую критику со стороны юзеров и специалистов. Если Гугл не будет довольно решительна в отношении свойства поиска, она рискует утратить юзеров. Если 1-ые 10 ссылок не соответствуют их требованиям, люди могут легко обратиться к ИИ-чат-боту.