✅Проблема распространения дезинформации

Ложь в Интернете

Изучение массового распространения дезинформации должно стать главным научным приоритетом, говорит биолог Карл Бергстром.

Когда Карл Бергстром работал над планами подготовки Соединенных Штатов к гипотетической пандемии в начале 2000—х годов, он и его коллеги беспокоились, что вакцины могут не попасть к тем, кто в них больше всего нуждается. “Мы думали, что проблема будет заключаться в том, чтобы люди не ставили баррикады, не останавливали грузовик, не снимали с него все вакцины и не давали их друг другу”, — вспоминает он.

Когда появился COVID—19, все пошло совсем по—другому. Четверть взрослых в США остаются непривитыми против вируса, который убил более 1 миллиона американцев. “Наша способность убедить людей в том, что это вакцина, которая спасет много жизней и что каждый должен принять ее, была намного, намного хуже, чем большинство из нас себе представляло”,—говорит Бергстром.

Он убежден, что этот катастрофический провал можно проследить в социальных сетях и их способности распространять ложную информацию. Особенно это стало явым в данном случае о вакцинах и произошло массово и быстро. “Фигня”—это сетевой термин Бергстрома для лжи, которая распространяется в Интернете, как дезинформация, которая разлетается непреднамеренно, так и ложные представления, предназначенная для преднамеренного распространения лжи.

Эволюционный биолог из Вашингтонского университета (UW), Сиэтл, Бергстром изучил эволюцию сотрудничества и коммуникации у животных, пандемии гриппа и лучшие способы ранжирования научных журналов. Но за последние 5 лет он все больше и больше интересуется тем, как “деза” распространяется через нашу информационную экосистему. Он начал бороться с этим до появления COVID—19—через популярную книгу, курс, который он читает в Центре UW для информированной общественности, и, по иронии судьбы, энергичное присутствие в социальных сетях-но пандемия подчеркнула, насколько убедительна и мощна дезинформация, говорит он.

“Дезинформация достигла кризисных масштабов”,—написали Бергстром и его коллега из UW Джевин Уэст в статье 2021 года в Трудах Национальной академии наук (PNAS). “Это создает риск для международного мира, мешает демократическому принятию решений, ставит под угрозу благополучие планеты и угрожает общественному здоровью”. В другой статье PNAS Бергстром и другие обратились с призывом к исследователям изучить дезинформацию и узнать, как ее остановить.

Эта область исследований сейчас находится на взлете. “У вас есть ученые из самых разных дисциплин, которые объединяются вокруг этой общей темы”, включая биологию, физику, социологию и психологию,—говорит Филипп Лоренц—Сприн, физик, который изучает социальные сети в Институте человеческого развития Макса Планка.

Но приток еще не объединился в согласованное поле, говорит Майкл Банг Петерсен, политолог из Орхусского университета. “Это все еще распространяется в разных дисциплинах, и мы на самом деле не так много говорим вместе”. Существуют также разногласия по поводу того, как лучше всего изучать это явление и насколько значительны его последствия. “Поле действительно находится в зачаточном состоянии”,—говорит Лоренц—Сприн.

Бергстром вырос в Мичигане, но в детстве дважды провел почти год в Австралии, где его отец, экономист, был в творческом отпуске. “Вот где я влюбился в птиц”,—говорит он. В его спальне у него был плакат всех попугаев Австралии: “Это как если бы вы вручили 8-летнему ребенку кучу карандашей и кучу контуров попугаев и просто сказали:” Сделайте их красивыми". " Корвиды-его любимые птицы из-за их когнитивных способностей. В Твиттере его аватар—ворона.

Стаи птиц

Карл Бергстром, энтузиаст птиц, который в прошлом изучал общение животных, смотрит на социальные сети через эволюционную линзу.  

Будучи студентом—биологом в Стэнфордском университете, Бергстром увлекся коммуникацией—эволюционной загадкой из-за потенциала обмана. “Если я вас слушаю, я даю вам контроль над моим поведением”,—говорит Бергстром. “Я могу делать то, что вы хотите, даже если это не в моих интересах”. В своей докторской диссертации он решил вопрос о том, как общение может оставаться полезным, когда от его неправильного использования можно получить так много.

В природе он пришел к выводу, что ответ часто заключается в том, что ложь обходится дорого.

Например, попрошайничество делает птенцов уязвимыми, поэтому у них есть стимул делать это только тогда, когда это необходимо. “Если вы просто беззащитный кусок мяса, сидящий в гнезде и никуда не можете идти, кричать во всю глотку удивительно глупо",—говорит Бергстром. “Если они на самом деле не голодны, они просто заткнутся”. В социальных сетях такие последствия едва ли существуют, говорит он: у лжецов мало стимулов заткнуться.

В начале 2000—х годов, будучи постдоком в лаборатории популяционного биолога Брюса Левина в Университете Эмори, Бергстром осознал угрозу инфекционных заболеваний. Он сотрудничал с коллегой—постдоком Марком Липсичем, ныне эпидемиологом в Гарвардской школе общественного здравоохранения Т. Х. Чана, над документами о готовности к пандемии. Затем он углубился в теорию сетей, целью которой является математическое описание свойств сетей, в том числе тех, которые распространяют болезни. “Это обратилось ко многим аспектам моих интеллектуальных интересов”,—говорит он.

Сетевая теория, в свою очередь, привела Бергстрома к распространению информации. Вместе с Мартином Росваллом, физиком из Университета Умео, он нашел способ использовать данные цитирования для создания “карт” научного предприятия, которые показывали, например, как группируются поля и какие ученые наиболее влиятельны. “Алгоритмы, которые мы придумали, оказались намного лучше, чем я ожидал”,—говорит Бергстром. “Я до сих пор не понимаю, почему они так хороши”.

Путь Бергстрома через различные дисциплины является свидетельством его любопытства и творчества, говорит Уэст: “Вам будет трудно найти кого—то, кто действительно двигался в таких разрозненных областях и оказывал влияние во всех этих разных областях”.

Примерно в 2017 году интересы Бергстрома начали объединяться вокруг темы дезинформации. Дебаты о российской дезинформации и роли, которую она сыграла в выборах Дональда Трампа президентом США в 2016 году, а также вдохновляющая встреча о дезинформации в 2017 году, организованная биологом Джо Бак—Коулманом, затем в Принстонском университете, заставили его понять, что “это на самом деле огромная проблема, и она займет все эти годы". И есть различные подходы к борьбе с ней, многие из которых я лично нашел очень интересными”,—говорит он.

БЕРГСТРОМ ВИДИТ СОЦИАЛЬНЫЕ СЕТИ, как и многие другие вещи в жизни, через эволюционную линзу. Популярные платформы используют потребность человечества в социальной проверке и постоянной болтовне, продукт нашей эволюции, говорит он. Он сравнивает это с нашей тягой к сахару, которая была полезна в среде, где сладость была редкой и сигнализировала о питательной пище, но может сделать нас больными в мире, где сахар повсюду. Facebook использует жажду людей к контакту, по его мнению, как стимулятор для ума, позволяя людям общаться с другими в большем количестве в течение одного дня, чем они могли бы иметь в течение всей жизни в прошлом человечества.

И в то время как Coca—Cola не может еженедельно настраивать свою формулу, платформы социальных сетей могут постоянно менять свои алгоритмы и тестировать новые стратегии, чтобы мы были вовлечены. “Компании социальных сетей могут проводить самые масштабные психологические эксперименты в истории на многие порядки, и они проводят их в режиме реального времени на всех нас”,—говорит Бергстром.

Часто участие происходит от грубого конфликта: “На школьном дворе люди группируются вокруг драк, и то же самое происходит в Твиттере”, - говорит он. Зейнеп Туфекчи, социолог из Колумбийского университета, соглашается. “Социальная связь—это ингруппа/аутгруппа”,—говорит Туфекчи. Это способствует поляризации и трайбализму, а также преувеличению и дезинформации, говорит она.

Онлайн—сети также подрывают традиционные эмпирические правила общения. Например, до появления Интернета слушание одной и той же информации от нескольких людей делало ее более надежной. “В физическом мире было бы почти невозможно встретить кого—либо еще, кто думает, что мир плоский”,—написал по электронной почте Стефан Левандовский, психолог из Бристольского университета. “Но в Интернете я могу связаться с другим . 000001% людей, которые придерживаются этой веры, и могут собрать (ложное) впечатление, что оно широко распространено”.

У компаний социальных сетей мало стимулов менять свою практику, потому что они зарабатывают деньги, продавая рекламу. “Сетевые структуры, по которым мы обмениваемся информацией, радикально изменились за последние 20 лет, и они изменились без какого—либо руководства”,—говорит Бергстром. “Они изменились в основном только для того, чтобы помочь некоторым технологическим стартапам продавать рекламу”.

Видеть проблему не означает, что он невосприимчив к ней. Бергстром признает, что иногда просыпается в 4 часа утра и проверяет свои упоминания в Твиттере. “Это самая глупая вещь, которую я мог бы сделать. Потому что полтора часа спустя я злюсь и не могу спать”, - говорит он. “Это работает на всех нас, даже на тех из нас, кто знает, что делает”.

В перспективе, опубликованной в PNAS в прошлом году, Бергстром и 16 других ученых из различных областей утверждали, что изучение того, как информационная экосистема влияет на коллективное поведение человека, должно стать “кризисной дисциплиной”, подобно науке о климате, которая также может предложить способы решения этой проблемы. “Эта статья просто указывала на то, что здание горит”,—говорит Бак—Коулман, ведущий автор, который теперь также находится в Центре UW для информированной общественности. Проблема в том, что мы не знаем, как погасить огонь, говорит он.

ОДНА ИЗ КЛЮЧЕВЫХ ПРОБЛЕМ заключается в том, что способ распространения информации в социальных сетях определяется проприетарными алгоритмами платформ, которые ученые не смогли изучить. “Даже если бы была кризисная дисциплина, как хочет Карл, у нас просто нет данных”,—говорит Дитрам Шойфеле, изучающий научную коммуникацию в Университете Висконсина в Мэдисоне. (Алгоритмы помогли вызвать “тектонический сдвиг в балансе сил в научной информационной экологии”,—утверждали Шойфеле и его коллега Доминик Броссар в недавней перспективе в науке.) “Единственный способ, которым мы можем создать эту дисциплину,—это заставить политиков заставлять технологические компании предоставлять доступ к данным”,—говорит Петерсен.

Исследователи пытались понять поток дезинформации и дезинформации другими способами, но результаты часто не ясны. В прошлом году в докладе Центра по борьбе с цифровой ненавистью утверждалось, что всего 12 человек, которых он назвал “дезинформационной дюжиной”, были источником 73% дезинформации о COVID-19 на Facebook. Запрет этих “суперспредеров” может значительно уменьшить количество дезинформации, предположили авторы. Но Meta, материнская компания Facebook, оттолкнулась от того, что она назвала “ошибочным повествованием” в сообщении в блоге. Отчет был основан всего на 483 фрагментах контента только из 30 групп и “никоим образом не отражает сотни миллионов сообщений, которыми люди поделились о вакцинах COVID—19 в последние месяцы на Facebook”,—сказала Мета.

кавычки

Компании социальных сетей способны проводить самые масштабные психологические эксперименты в истории и они проводят их в режиме реального времени на всех нас.

В 2018 году исследователи из Массачусетского технологического института опубликовали исследование в журнале Science, показывающее, что ложные новости распространяются “дальше, быстрее, глубже и шире, чем правда”. Причина в том, что людям нравится новизна, а ложные истории, скорее всего, будут более новыми, предположили авторы. Если это правда, это может позволить автоматически идентифицировать ложные новости, просто по тому, как они распространяются.

Но картина сложная. В статье специально рассматривалось подмножество новостей, которые были проверены независимыми организациями, такими как Snopes, что означало, что истории должны были распространяться далеко и широко, чтобы заслужить такое внимание. Исследователи повторили свои результаты с большей выборкой новостей, которая не была проверена фактами, но применимы ли выводы ко всем поддельным новостям, неясно. И повторный анализ, проведенный другими исследователями в конце прошлого года, показал, что, хотя проверенные фактами новостные сюжеты распространялись дальше, характер их распространения не отличался от истинных новостей, которые достигли аналогичного числа людей.

Бак-Коулман, который изучал, как школы рыб подавляют ложные сигналы тревоги от рыб на периферии роя, считает, что плотность связей в социальных сетях затрудняет фильтрацию плохой информации. Бергстром соглашается. “Если бы мы действительно заботились о сопротивлении дезинформации, Twitter и Facebook могли бы быть лучше, если бы они сказали: "Смотрите, у вас может быть 300 друзей, и это все", - говорит он.

Но это тоже нуждается в изучении, говорит он, как и стратегические вопросы: “Что бы сделали агенты, если бы они хотели попытаться внедрить дезинформацию в сеть? Где бы они хотели быть? И тогда обратная сторона: как вы пытаетесь противостоять этому?”

ЧТОБЫ ДОБИТЬСЯ ПРОГРЕССА, некоторые исследователи говорят, что зарождающееся поле должно меньше фокусироваться на свойствах сети и больше на ее человеческих узлах. Как и вирусы, дезинформация нуждается в распространении людей, говорит Туфекчи. “Итак, вы действительно хотите изучить людей”, включая причины, по которым люди нажимают "Нравится" или "Ретвит", и меняет ли дезинформация их поведение и убеждения.

Однако это также трудно изучить. В Центре информированной общественности UW каждый год фиксируются миллиарды онлайн—разговоров. Если определенная часть дезинформации идентифицирована, “вы можете измерить, как она усиливается, как быстро она растет, кто ее усиливает”,—говорит Уэст, который руководит центром. “Но очень трудно понять, приводит ли это к поведению, а не только к поведению, но и к убеждениям”.

Обзор 45 исследований дезинформации о вакцинах COVID—19, недавно опубликованный в качестве препринта исследователями в Норвегии, пришел к выводу, что, хотя дезинформация была безудержной, было мало высококачественных исследований ее эффектов. “Существует необходимость в более надежных проектах, чтобы стать более уверенными в фактическом влиянии дезинформации в социальных сетях на нерешительность вакцин”,—заключили авторы.

Ученые пытались изучить проблему, выделив очень небольшую часть проблемы. Недавняя статья в Nature Human BehaviorНапример , сообщалось о результатах эксперимента, проведенного в сентябре 2020 года, до того, как стали доступны вакцины против COVID—19. Исследователи спросили 4000 человек в Соединенном Королевстве и Соединенных Штатах, планируют ли они сделать прививку, подвергли их либо фактам, либо ложной информации о разрабатываемых вакцинах, а затем снова измерили их намерение. В обеих странах воздействие дезинформации привело к снижению на шесть процентных пунктов доли людей, заявивших, что они “определенно” примут вакцину.

Туфекчи не сомневается, что социальные сети оказывают большое влияние на общество: “Просто посмотрите вокруг. Это полный сдвиг в том, как информационная экология работает на социальном уровне. Как вы можете не ожидать, что это окажет влияние?” Но небольшие лабораторные исследования просто не могут должным образом измерить проблему, говорит она. “Экологический сдвиг такого рода не поддается такому изучению”. Люди в реальном мире, вероятно, подвергаются воздействию не одной дезинформации, а ее большого количества с течением времени, часто приходя к ним через друзей, семью или других людей, которым они доверяют. И онлайн—дезинформация каскадирует через информационную экосистему, подталкивая более традиционные средства массовой информации к ее распространению. “Fox News как бы конкурирует с этим материалом на Facebook”, - говорит Туфекчи. “Fox News не работает в вакууме”.

Но Шойфеле не уверен, что дезинформация имеет большое влияние. “Конечно, существует корреляция между всей этой дезинформацией и решением стольких людей не вакцинироваться, но корреляция не означает причинно—следственной связи”,—говорит он. Он считает, что люди выбирают информацию в соответствии со своим мировоззрением, а не наоборот. По его мнению, дезинформация—это симптом, но настоящая болезнь—это поляризация, политическая система и социальный климат, которые вознаграждают ее. Учитывая глубокую политическую поляризацию в Соединенных Штатах и “необычное” президентство Трампа, пандемия “всегда будет дерьмовым шоу”, говорит Шойфеле.

Недавний обзор в Natureоднако утверждал , что люди не поддаются дезинформации из—за поляризации. Авторы цитировали исследования, предполагающие, что истинной информации с большей вероятностью поверят, чем ложной информации, даже если она не соответствует политическим взглядам. “Политика не превосходит правду”,—заключили они. Настоящая проблема заключается в том, что люди делятся информацией, мало обращая внимания на то, правда ли это, пишут авторы. “Вместо того, чтобы обманываться партийностью, люди часто не могут отличить правду от вымысла, потому что они не могут остановиться и задуматься о точности того, что они видят в социальных сетях”.

Обуздание такого бездумного обмена является целью двух подходов к борьбе с дезинформацией. Один из них, известный в этой области как “подталкивание”, включает в себя все, что угодно, от маркировки подозрительной информации—например, потому, что она основана на нескольких или анонимных источниках—до затруднения обмена чем-либо. Платформа может заставить пользователей копировать и вставлять материал, прежде чем делиться им, или ограничить частоту изменения поста. “Снова и снова показывают, что у него есть некоторые преимущества, когда вы даете людям немного времени подумать об их решении поделиться чем—то”,-говорит Лоренц-Сприн.

Другой подход, “бустеринг”, предназначен для улучшения критических навыков пользователей. Это включает в себя “предварительный анализ”—обучение людей обнаружению дезинформации—и “боковое чтение”, проверку новой информации во время ее чтения путем поиска внешней информации. Эти навыки-то, чему Бергстром пытался научить в курсе, который он преподавал с Западом, и в их книге, называя ерундой: искусство скептицизма в мире, управляемом данными.

КОГДА ПАНДЕМИЯ НАЧАЛАСЬ в начале 2020 года, Бергстром изначально думал, что это будет отличная возможность изучить распространение дезинформации, опираясь на его опыт в теории сетей. “Я думал, что когда все это исчезнет в марте, я смогу просмотреть эти наборы данных и выяснить, какие модели распространения мы видели”. Но пандемия не исчезла, и Бергстром был втянут в практическую работу по объяснению науки и вызову дезинформации. Он делает это в основном в длинных потоках в Twitter, где у него теперь более 150 000 подписчиков.

Например, в начале 2020 года он взял на себя Эрика Фейгл—Динга, эпидемиолога по питанию в Гарварде, который собрал огромное количество последователей с тем, что многие ученые считали паникерскими твитами. Когда Фейгл—Дин написал в Твиттере о препринте, утверждающем, что SARS—CoV-2 содержит последовательности от ВИЧ и, вероятно, был спроектирован, Бергстром назвал его “паникером, ищущим внимания”. (Препринт был отозван в течение нескольких дней.)

Но ссора показала, что определение дезинформации сложно. Фейгл—Дин много раз звонил по тревоге—он “очень, очень обеспокоен” каждым новым вариантом, говорит Бергстром, и “будет сообщать о том, как он убьет нас всех”, но оказался прав в некоторых вещах. “Это дезинформация, если вы представляете эти вещи как уверенность и не адекватно отражаете степень неопределенности, которую мы имеем”,—говорит Бергстром.

Фейгл—Динг говорит, что использование Twitter в начале пандемии было “большой составляющей обучения” для большинства ученых, и что Бергстром и он “давно загладили свою вину и хорошо ладили с середины 2020 года”. Действительно, Бергстром беспокоится, что его тон разжег ненужное разделение и помог распространить ощущение, что ученые просто борются за их эго. “Общий урок, будь то работа с Эриком или другими, заключается в том, что мне было бы лучше быть немного суше, немного более бесстрастным”.

Сизифов камень

Бергстром понимает, что его борьба с дезинформацией — это сизифова задача. Он любит цитировать закон Брандолини, который гласит: “количество энергии, необходимое для опровержения дезинформации, на порядок больше, чем необходимо для ее производства”. “Мне нравятся идеи Карла. Я получаю выгоду от следования за ним, и я уверен, что люди, которые следуют за ним, получают выгоду от следования за ним”,—говорит она. “Но социальное решение не нуждается в Карле”.


Комментарии

Популярные сообщения