Теперь доказано! Google не может воздействовать на политические предпочтения пользователей

Теперь доказано! Google не может воздействовать на политические предпочтения пользователей

Алгоритмы не виноваты, а влияние «информационных пузырей» преувеличено.

image

Многие люди думают, что интернет-алгоритмы или наборы правил, которые определяют, что мы видим в интернете, изолируют нас в так называемых «информационных пузырях», показывая нам только то, что подтверждает нашу точку зрения.

Разнообразные алгоритмы пронизывают почти все аспекты нашего онлайн-существования и даже могут формировать наш взгляд на мир вокруг. «Они имеют некоторое влияние на то, как мы потребляем информацию и, следовательно, как мы формируем своё мнение», — говорит Катерина Огнянова , исследователь коммуникаций в Университете Ратгерса и соавтор исследования.

Порой довольно сложно измерить, насколько эти наборы правил способствуют политической поляризации. По словам исследовательницы, алгоритм может учитывать, кто мы, где мы, с какого устройства делаем поиск, нашу географию и язык. Но как точно работает алгоритм, мы не знаем наверняка. Это «чёрный ящик».

Как выяснилось, не все алгоритмы способствуют политической поляризации. Исследование, опубликованное в журнале Nature 24 мая, выявило, что поисковый движок Google не выдаёт политические новости на основе пользовательских предпочтений. Вместо этого политически поляризованные пользователи склонны сами кликать по ссылкам на соответствующие их интересам новостные сайты.

В рамках проведённого исследования его авторы отслеживали онлайн-поведение пользователей Интернета во время избирательных циклов в США 2018 и 2020 годов с помощью пользовательского расширения для веб-браузера. Инструмент мониторинга был разработан для измерения двух конкретных показателей:

  1. «воздействия» — какие источники новостей пользователям предлагает сам поисковый движок Google;
  2. «вовлечённости» — с какими источниками пользователи, по итогу, взаимодействуют после получения результатов поиска.

Исследователи собрали данные сотен пользователей и проанализировали в соответствии с возрастом участников и самоопределённой политической ориентацией. Было обнаружено, что политические пристрастия участников имели совсем небольшую зависимость от того, что им предлагал поисковик, и весьма заметную связь с тем, какой контент они выбирали сами.

То есть спустя несколько месяцев эксперимента Google не стал предлагать пользователям таких новостей, которые бы чётко соответствовали их политической позиции. Таким образом, поисковик не заключает пользователей в «информационный пузырь» и всегда оставляет за ними право выбора.

Результаты исследования заслуживают внимания, поскольку, судя по всему, опровергают обвинения в том, что у Google есть проблема с «информационными пузырями». Несколько лет назад скептики утверждали, что компания использует личные данные пользователей для персонализации результатов поиска, хотя технический гигант опровергал данный факт, заявляя, что не видит смысла в персонализации результатов.

Тем не менее, алгоритм Google небезупречен. Исследователи заметили, что в результатах иногда проскакивают ненадёжные или откровенно вводящие в заблуждение источники новостей, независимо от того, взаимодействовали с ними пользователи ранее или нет. Представители Google ознакомились с данными исследования и заявили, что компания старается поддерживать свой алгоритм «актуальным и надежным» и не отталкивается в результатах поиска от расы, религии или политических предпочтений пользователей.

Буквально на днях мы писали об опасениях Роскомнадзора на тему развития рекомендательных сервисов, поэтому было бы особенно интересно посмотреть на результаты аналогичного исследования, но справедливого для российских поисковых систем, по типу того же Яндекса. Работают ли его алгоритмы так же беспристрастно или всё-таки способствуют формированию «информационных пузырей»?

Ищем баги вместе! Но не те, что в продакшене...

Разбираем кейсы, делимся опытом, учимся на чужих ошибках

Зафиксируйте уязвимость своих знаний — подпишитесь!