Алгоритмы увеличивают разрыв: ленты социальных сетей формируют политическую поляризацию | Технология

Группа американских исследователей показала, что порядок, в котором политические сообщения отображаются на Платформы социальных сетей действительно влияют на поляризацию — один из самых обсуждаемых вопросов с момента появления социальных сетей и усугубленного ими социального неравенства. Это явление одинаково сильно, независимо от политической ориентации пользователя, отмечают ученые в статье. опубликовано в четверг в Наука.

Социальные сети являются важным источником политической информации. Для сотен миллионов людей во всем мире это даже главный канал политического взаимодействия: они получают политический контент, делятся им и выражают свое мнение через эти платформы. Учитывая актуальность социальных сетей в этой сфере, понимание того, как работают алгоритмы, которые работают на этих платформах, имеет решающее значение, но непрозрачность является нормой в отрасли. Из-за этого крайне сложно оценить, в какой степени выделение выделенного контента формирует политические взгляды пользователей.

Как исследователям удалось преодолеть алгоритмическую непрозрачность и изменить порядок сообщений, которые видят пользователи социальных сетей? Тициано Пиккарди из Стэнфордского университета и его коллеги разработали расширение для браузера, которое перехватывает и меняет порядок ленты (хронологическую шкалу публикаций) определенных социальных сетей в режиме реального времени. Инструмент использует большую языковую модель (LLM) для присвоения баллов каждому фрагменту контента, измеряя степень, в которой он содержит «антидемократические настроения и партийную враждебность» (AAPA). После оценки порядок публикаций тем или иным образом менялся — без какого-либо сотрудничества с платформой или использования ее алгоритма.

В эксперименте приняли участие 1256 участников, которые были должным образом проинформированы. Исследование было сосредоточено на X, поскольку это социальная сеть, наиболее используемая в США для выражения политических взглядов, и оно проводилось в течение нескольких недель, предшествовавших президентским выборам 2024 года, чтобы обеспечить высокую циркуляцию политических сообщений.

Участники эксперимента в течение одной недели случайным образом подвергались воздействию двух типов каналов: один с большим количеством поляризованного контента (AAPA), а другой с очень небольшим количеством. «Мы измерили влияние этих вмешательств на аффективную поляризацию (чувства участников по отношению к внешней политической группе) и эмоциональные переживания (гнев, печаль, волнение или спокойствие) с помощью опросов как во время эксперимента, так и после него», — объясняют Пиккарди и его соавторы в исследовании.

Результаты сравнивали с контрольной группой, питание которой не менялось. Исследователи обнаружили, что изменение порядка контента «значительно повлияло на аффективную поляризацию» без существенных различий, основанных на политических предпочтениях. «Изменения в алгоритме подачи вызвали изменения негативных эмоций участников во время подачи, но не после эксперимента», — отмечают авторы.

Эксперимент также показывает, что можно было бы снизить уровень поляризации в социальных сетях, просто изменив порядок публикаций так, чтобы те, у кого есть антидемократический контент менее заметны. Майкл Бернстайн, профессор информатики в Стэнфордском университете и соавтор исследования, считает, что этот инструмент может «открыть способы вмешательства, которые не только смягчают партийную враждебность, но и способствуют большему социальному доверию».

Изменения на платформах

В последние годы платформы социальных сетей претерпели значительные изменения, которые влияют на распространение политического контента. Группы модераторов контента, ответственные за фильтрацию токсичных, незаконных или разжигающих ненависть сообщений, были сокращены, поскольку в случае с Метойили полностью устранены, как это сделал X. Эта задача была оставлена ​​на усмотрение сообщества. Разрыв, позволяющий распространять проблемный контент, огромен, и некоторые исследования показывают, что меньшее количество фильтров увеличивает количество ненависти и притеснений, циркулирующих на платформах.

Более того, существенно изменилась динамика самих социальных сетей. Если раньше мы видели наиболее комментируемые и лайкающие публикации от наших контактов, то теперь алгоритм имеет полный приоритет: он решает, что видит каждый пользователь и, следовательно, что может или не может стать вирусным. Поэтому крайне важно измерить влияние алгоритма на формирование или укрепление политических идей.

“Исследователи сталкиваются с беспрецедентными ограничениями, поскольку платформы социальных сетей предпочитают не делиться данными. Отсюда важность того, чтобы Пиккарди и его коллеги представили методологию исследования, которая не требует явного сотрудничества со стороны платформ”, – говорит Дженнифер Аллен, профессор кафедры технологий, операций и статистики Нью-Йоркского университета, которая не участвовала в исследовании.

Аллен также считает, что модель, разработанную Пиккарди и его командой, можно воспроизвести для других социальных сетей и что эксперименты можно повторять в разное время, чтобы проверить их достоверность. По ее мнению, подход команды Пиккарди «представляет собой форму творческого исследования с методологией, которая адаптируется к текущей ситуации».

Зарегистрируйтесь на наш еженедельный информационный бюллетень чтобы получить больше новостей на английском языке от EL PAÍS USA Edition



Source link