Online Information Review

 

В апреле в журнале Online Information Review опубликована статья «Почему в сети так много экстремистских высказываний. Эмпирический сопоставительный анализ ситуации в Японии, Корее и США» (Why are there so many extreme opinions online?: An empirical, comparative analysis of Japan, Korea and the USA) Шиничи Ямагучи (Shinichi Yamaguchi), сотрудника Центра глобальных коммуникаций Международного университета Японии в Минамиуонуме. В более ранних исследованиях рассматривались три причины, по которым в сети мы видим так много экстремальных и экстремистских высказываний — это избирательность восприятия; диалог в сети носит более агрессивный и экстремальный характер; агрессивные и экстремальные взгляды быстрее распространяются, чем умеренные. Автор выдвинул гипотезу: люди, имеющие экстремистские взгляды, чаще выражают их через социальные сети, чем люди, придерживающиеся умеренных взглядов. Он выстроил модель публикации в социальных сетях для оценки зависимости между экстремальными высказываниями и количеством постов. Модель охватывает пользователей социальных сетей Японии, Кореи и США. Такие географические рамки позволяют выявить различия между странами и подтвердить, что данный феномен является универсальным. Анкетирование было организовано онлайн. Для количественного анализа данных, полученных в результате анкетирования (5095 анкет), была применена модель Тобита. Установлено, что чем более экстремистский характер носят высказывания, тем больше постов по двум обозначенным темам (поправки к конституции в Японии, приток иностранцев в Японию, Корею, США) опубликовано в социальных сетях трех названных стран. Кроме того, чем выше интерес к теме, тем больше выражен данный эффект. Таким образом, гипотеза получила свое подтверждение. Автор делает вывод, что пользователи должны быть готовы встретить в социальных сетях многочисленные экстремистские высказывания, однако компаниям-провайдерам следует осуществлять политику ограничения экстремизма высказываний.

  

УДК: 077:316+004.773

ГРНТИ: 19.31; 11.15.89; 04.51.54; 19.21.91

DOI: 10.1108/OIR-07-2020-0310

 

Источник:

https://www.emerald.com/insight/content/doi/10.1108/OIR-07-2020-0310/full/html

В третьем выпуске журнала Online Information Review опубликована редакторская статья Марко Бустоса (Marco Bustos), доцента Школы информационных и коммуникационных исследований Университетского колледжа Дублина Майкла Смурфита, «Пять проблем в обнаружении дезинформации и смягчении последствий ее распространения в социальных сетях» (Five challenges in detection and mitigation of disinformation on social media). Эта статья основана на приветственной речи автора на заседании Программы европейских скоординированных исследований CHIST-ERA 19 мая 2021 г.

В конце 2000-х гг. колонизация социальными сетями интернет-сообществ сопровождалась переходом от сетевых пабликов, основанных на ориентированной на пользователя и децентрализованной структуре управления, к коммерческим платформам, управляемым алгоритмами. Социальные сети стали централизованными регуляторами критически важной инфраструктуры, поддерживающей экономическое, демократическое и социальное участие. Это вызвало проблемы, связанные с распространением дезинформации, соблюдением цифровой конфиденциальности и политики доступа к данным, микротаргетингом и растущим влиянием алгоритмов в обществе. В данной статье описываются пять ключевых проблем в обнаружении и устранении дезинформации на социальных платформах:

1. Отсутствие информации о размещенных и удаленных постах. Контент, отмеченный алгоритмами социальной платформы и партнерскими агентствами по проверке фактов как дезинформация или спорная информация, очень быстро удаляется. К сожалению, широкая общественность и научное сообщество не имеют никакой возможности контроля или отслеживания удаленных записей.

2. Вынужденная обратная разработка алгоритмов социальных платформ. Возможность публичной подотчетности социальных платформ серьезно ограничена проблемами цифровой конфиденциальности, поэтому у социальных сетей нет никаких причин для расширения доступа к данным или повышения прозрачности политики удаления контента. Отдельные пользователи и журналисты, отслеживающие кампании по дезинформации, проводят обратную разработку алгоритмов социальных платформ, обычно называемую «алгоритмическим аудитом», для того чтобы получить фрагментарные доказательства или найти алгоритмические решения, которые привели к удалению или понижению рейтинга контента. Но даже когда пользователи сообщают о потенциальных кампаниях по дезинформации, социальные платформы редко раскрывают контент, который был помечен для удаления.

3. Психологические манипуляции (газлайтинг) со стороны социальных платформ. Отсутствие механизмов подотчетности и надзора за действиями социальных платформ ставят в уязвимое положение тех, на кого направлены эти действия. Люди оказываются не в состоянии определить, скоординированы ли массовые или групповые преследования, ведь решения об удалении контента, помеченного как потенциально неприемлемый, принимаются сотрудниками социальных сетей, не имеющими к этому практически никакого отношения.

4. Сложности с идентификацией ботов. При идентификации социальных ботов и оценке автоматизированной активности даже самые современные инструменты недостаточно точны и часто дают ложноотрицательные (т. е. боты классифицируются как люди) или ложноположительные (т. е. люди классифицируются как боты) результаты; особенно это касается учетных записей, размещающих контент на языках, отличных от английского.

5. Нет полной информации о кампаниях по размещению дезинформации. После скандала с неправомерным использованием данных пользователей компанией Cambridge Analytica, блокировка интерфейса прикладного программирования (API) социальных платформ, особенно Facebook и Instagram, затруднила значимые исследования операций влияния и дезинформации. Дезинформация, циркулирующая на общедоступных платформах (автор приводит в пример Twitter), может быть обнаружена лишь в ограниченной степени. Это связано с тем, что, например, в условиях обслуживания Twitter указано, что контент, удаленный пользователем или заблокированный платформой из-за нарушений, должен полностью исчезнуть с платформы. Эта специфическая особенность способствует исчезновению постов, изображений и веб-ссылок из поля зрения общественности, что имеет долгосрочные последствия для исследований операций влияния, разворачиваемых в социальных сетях.

  

УДК: 077:316

ГРНТИ: 19.31

DOI: 10.1108/OIR-08-2021-563

 

Источник:

https://www.emerald.com/insight/content/doi/10.1108/OIR-08-2021-563/full/html