В 1964 г., журнал Nature
опубликовал статью «Эпидемии
и Слухи», в котором два
математики, DJ Daley и
DG Kendall, используещие модели
чтобы изучать как распространяются слухи.
Люди были разделены на группы:
«восприимчивые» к слухам,
уже «зараженных» и распространяя его, и тех самых описываемых как«мертвый,
изолированный или невосприимчивый».
Образ умов, зараженных
ложью мощная.Более чем полвека спустя, наша борьба с интернет-слухами
которая распространяется как чума. Вот
вопрос: можем ли мы прервать эти волны гипертрансмиссии, как мы делаем это с
распространением вирусов?
В 2020 году два вопроса
объединились, когда Всемирная
Организация здравоохранения предупредила о «инфодемия» дезинформации о Ковиде.
Фейковые новости, как говорится, «распространяется быстрее и легче
чем этот вирус».
Вскоре после этого Джулиан Каук из
Йенского университета в Германии
показал, что он подверг это испытанию,
применением модели Дейли и Кендалла
к современной теории заговора.
Модели Каука моделировали, как
ложный слух о распространения коронавируса в Твиттере в течение первых шести
месяцев 2020 года и нашли те же «волнообразные узоры», что и реальное
распространение коронавируса.
Он также изучал влияние двух
контрмеры, используемые для предотвращения потока ложной информации. Он нашел
что на ранних стадиях диффузии проверки фактов были очень эффективны в отсеивание
ложного содержания, но это быстро теряет эффективность при применении
поздно. Второй способ, твит удаление показало умеренный эффект
по распространению слуха, но
был менее чувствителен ко времени.
В 2018 году Джиён Шин из
Университет Флориды также
обнаружила, что ложные слухи склонны
«мутировать» и возрождаться
зомби-подобные формы, как
вирус. Узучая в течение13 месяцев
президентские выборы в США 2012 г.,
она проследила жизненный цикл 17
популярных политических слухов, которые были распространены в Твиттере.
Шин сказала мне, что компании
с тех пор пытались смягчить проблему, попробовав для замедления движения
содержание. Например, в Твиттере
представил такие инструменты, как «цитировать твит», или попросить пользователя
прочитать статью до ретвита. «Даже просто требуя от них паузы и размышления что-то
написать, заставляет их менее вероятно, что они будут делиться дезинформацией».
В начале тестирования Twitter сказал, что найденные пользователи нажимали на статьи
они в начале тестирования Twitter сказал, что пользователи нажимали на статьи ,они
рассматривали возможность обмена на 40 процента чаще, если бы их просили прочитать
ссылку. Другими словами,
простые изменения дизайна могут помочь блокировать «суперраспространители»онлайн.
Это то, что Фрэнсис Хауген,
специалист по данным и Facebook
осведомитель, предлагает. Она
обвиняет Facebook в раздувании
ненависть и дезинформация через
его алгоритмы, утверждая, что это
систематически выбирает прибыль
над людьми, особенно над теми,
за пределами США. В интервью
с FT, Хауген сказал, что
платформу можно сделать безопаснее
без модераторов контента или
сотрудников Facebook которые прикасаются к пользовательскому контент или создание
политизированных решениях о том, что
останется онлайн. "Многие детали исследования Facebook,это что я называю
«содержательно-нейтральные» решения, — сказала она. «Дело не в том, чтобы выбрать
хорошие
и плохие идеи, это о том, чтобы сделать
распространение идей безопаснее».