На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Науч-поп вреден! Эффект обратного действия

Мне очень нравится сериал “Адам портит всё”. Это шоу про разоблачение популярных мифов – посмотрев его, вы узнаете, почему не стоит доверять детекторам лжи, чем чревато злоупотребление гигиеной, лечат ли витаминные добавки простуду, почему разводы полезны и можно ли отличить девственницу от недевственницы.

В одном эпизоде главный герой, Адам Коновер, решил разоблачить самого себя. В этом выпуске оппонентка Коновера доказывала, что борьба с предрассудками напрасна. Ведь, согласно эффекту обратного действия, когда мы сообщаем людям достоверную информацию, которая противоречит их мнению, они лишь больше убеждаются в своей правоте. Что за эффект смотирте в новом видео, а здесь я как обычно дают текстовую версию.

Я вхожу в Комиссию РАН по борьбе с лженаукой, которая разоблачает мифы. Тем же занимаются и мои коллеги из проекта “Учёные против мифов”, где я неоднократно выступал с лекциями. И сам Адам Коновер тоже разоблачает различные заблуждения. Что, если всё, что мы делаем, даже не напрасно, а вредно? Может, чем больше мы громим лженауку, тем больше обыватели в неё верят? И вся наша деятельность – просто тлен? Давайте разбираться!

Обратная сторона популяризации

Некоторые люди невероятно фактоустойчивы. Так, по мнению американской секты “Искателей”, 21 декабря 1954 года должен был наступить конец света. Сторонники этой секты активно ждали апокалипсис, а учёные решили за ними понаблюдать. Так вот, даже после того как конец света – сюрприз – не наступил, некоторые сектанты заявили, что даже больше уверовали в своё учение. Сама реальность не смогла их переубедить – чем не пример эффекта обратного действия (ЭОД)?

Вообще ЭОД стал известен благодаря работам Брендона Найхена и Джейсона Рейфлера. На этих учёных в упомянутой выше серии ссылается Адам Коновер, а ещё они были предвестниками “”информационного апокалипсиса”, который ныне называется “эпохой постправды”. Эпоха постправды – это время, когда факты не имеют значения, люди верят во всё, что хотят, а опровержения мифов не работают. Как говорил классик: “Не важно, какой факт настоящий, решает количество панчей”.

В своём первом эксперименте Найхен и Рейфлер одной группе испытуемых читали отрывок из выступления Джорджа Буша о том, что в Ираке есть оружие массового поражения (это выступление, кстати, и послужило основанием для вторжения в 2003 году). Второй группе зачитывали тот же отрывок, но дополненный опровержением – что на самом деле никакого ОМП у страны не было.

В итоге выяснилось, что добровольцы, которые изначально сомневались в наличии ОМП у Ирака, лишь убедились в своей правоте. А вот те участники эксперимента, которые с самого начала верили в наличие оружия у Ирака, остались верны своим взглядам. Более того, если они слышали опровержение этой информации, то начинали думать: “Ага! У Саддама Хусейна оружие ну точно было”. Это и есть эффект обратного действия – или эффект бумеранга.



“На лужайки не заходить!”

Как такой эффект можно объяснить? Представьте себе лужайку и людей, которые очень любят устраивать на них пикники. И вот вы пишете объявление: “На лужайки не заходить!” Уверен: вам назло на травку придёт куча народа с мясом, углями и мангалами. В дискуссиях по поводу разных лженаучных идей – всё то же самое. Назло оппоненту спорщик может продемонстрировать своё несогласие, занять даже более радикальную позицию, чем занимает обычно, да ещё и крикнуть и порыве: “Все твои аргументы – чушь полная”.

Позже Найхен и Рейфлер решили повторить свой эксперимент, немного его модифицировав. Они решили, что исследование с одним только выступлением Буша не очень объективно – ведь оно проводилось на американцах, которые чаще всего относят себя или к республиканцам, или к демократам. Тогда учёные добавили в эксперимент ещё два тезиса – согласно первому снижение налогов повышает доходы государства. Согласно второму, тот же Буш запретил исследования на стволовых клетках (на самом деле политик лишь уменьшил финансирование исследований, в которых используются некоторые линии этих клеток).

Дизайн исследования остался тем же самым: одной группе “презентовали” тезисы без опровержения, второй – с опровеждением. В результате в случае с оружием в Ираке опровержение сработало! То есть эффект обратного действия не воспроизвёлся у самих “первоооткрывателей” эффекта. Правда, авторы выкрутились и заявили: “Но наш эффект сработал на 34 самых-самых ярых сторонниках идеи о том, что у Хусейна было оружие!” В общем, авторы немного изменили цель исследования – и тогда “всё получилось”. Вообще в науке изменение гипотез на ходу не очень приветствуется, ведь под любые данные можно подогнать гипотезу, но не суть.

В примере про налоги эффект обратного действия проявился, но оказался крайне слабым – он едва преодолел самый мягкий порог статистической значимости (p < 0,05), который многие учёные критикуют за ненадёжность. В третьем примере, со стволовыми клетками, ожидалось, что эффект обратного действия проявится на либералах. Учёные думали, они прочитают новость о “плохом” Буше (с чем согласны), а потом прочтут опровержение – и не поверят ему. Но такого не случилось. Тем не менее, авторы подкрутили статистические модели и натянули вывод в свою пользу: мол, “эффект статистически не достоверен, но направлен в нужную сторону”. Увы, так тоже часто делают. И это тоже не очень хороший знак.

Кто с бумерангом придёт, тот от бумеранга и огребёт

Исследования Найхена и Рейфлера начали цитировать и в массовой среде, и в академической. Некоторые критики науч-попа даже говорили: “Вот видите! Ваш науч-поп ужасно вреден. Наслушаются сторонники гомеопатии ваших разоблачений – и будут вам назло ещё больше сахара покупать. На врага работаете!”

В 2016 году вышла статья других учёных, которые решили проверить эффект обратного действия – но уже не на 3 примерах, а на 36. В общем, эффект подтвердился лишь в одном случае. В котором добровольцам опять зачитывали слова Буша про ОМП в Ираке. Правда, в новом эксперименте учёные решили проверить, насколько эффект зависит от формулировки. Оказалось, что достаточно немного изменить формулировку опровержения, чтобы и здесь эффект обратного действия пропал. Получается, согласно этому более новому исследованию, если ЭОД и существует, то только в очень специфических случаях, при очень конкретных формулировках. Значит, обобщать его на любые опровержения некорректно.

Когда вышла упомянутая серия, в которой Адам разоблачает сам себя, статья 2016 года уже была опубликована. И я думал: ну почему Коновер не ознакомился с последними исследованиями и процитировал старую, разобранную статью? Тем не менее, похвально, что Адам скептически относится к своей деятельности – а ещё здорово, что после этого эпизода он продолжил разоблачать мифы.

Но, быть может, эффект обратного действия всё же проявляется в каких-то определённых вопросах? В 2015 году всё те же Найхен и Рейфлер заявили, что эффект обратного действия возникает при разоблачении мифов о вакцинации. Учёные организовали новый эксперимент. Добровольцев спросили, как они относятся к вакцинации, а затем разбили на три группы. Первой группе Найхен и Рейфлер прочитали мини-лекцию, в которой разоблачили мифы о вакцинах против гриппа, второй просто рассказали, что грипп – это опасное заболевание, а третьей ничего не рассказали. В итоге выяснилось, что благодаря разоблачению добровольцы из первой группы стали меньше верить в опасность прививки против гриппа – даже если до эксперимента боялись “побочек”. Тем не менее, часть добровольцев из первой группы, опасавшихся “побочек”, заявила о том, что у них уменьшилось желание вакцинироваться. Выборка в эксперименте была маленькой. Тем не менее, по словам учёных, ЭОД проявился. Но он скорее не проявился – потому что большинство добровольцев прививаться захотели, то есть разоблачение мифа сработало как надо.

Важный момент: в ходе разоблачения авторы лишь опровергали миф о том, что от вакцины можно заразиться гриппом. Про пользу и важность вакцинации они не упоминали. Таким образом, добровольцы могли решить, что, хоть прививка и безопасна, она не очень-то и нужна. Или что грипп – не очень опасное заболевание. Кстати, многие люди, которые вакцинируются против кори, гепатита, коклюша и других инфекций, игнорируют прививку от гриппа, потому что “ну, похожу пару дней с насморком, ничего страшного”.

Эту работу Найхена и Рейфлера тоже решила перепроверить независимая группа учёных. И снова эффект не воспроизвёлся! Что же получается? У нас есть исследование, авторы которого натягивают сову на глобус и говорят, что эффект есть там, где его нет. Причём в похожих исследованиях других учёных эффект ну точно не воспроизводится. Значит, существование ЭОД не подтверждено. Или, как минимум, ЭОД – штука не универсальная.



Эффект опровержения

Существует и противоположная точка зрения, согласно которой научные знания до обывателей эффективнее всего доносить с помощью именно разоблачений. Твистов! Так, одно из исследований центра по контролю и профилактике заболеваний США, CDC, показали, что листовки с разоблачениями мифов о вакцинах эффективнее, чем листовки, в которых просто перечисляются факты о прививках. Когда люди читают разоблачения, они и вакцинируются охотнее, и больше вакцинам доверяют.

А ещё есть один крутой блогер с несколькими миллионами подписчиков – Veritasium (его настоящее имя – Дерек Маллер). Он защитил диссертацию о популяризации науки. Veritasium провёл исследование, в ходе которого одной группе добровольцев просто рассказывали истории про физику, а другой сначала давали интересную затравку в духе “Вы думали, что это так, но на самом деле всё иначе”, потом разоблачали миф и рассказывали, как на самом деле работает наука (по этому же принципу Дерек Маллер и снимает многие свои видео). Так вот, Маллер выяснил, что люди гораздо лучше усваивают и запоминают знания о физике, успешнее сдают тесты о пройденном материале, если материал преподносят через опровержение заблуждений.

Опровержение нашумевшего мифа может как минимум привлечь много внимания к лекции или выступлению. Сейчас, например, многие блогеры набирают просмотры с помощью ragebait – то есть вбрасывают то, что вызывает у аудитории сильную эмоциональную реакцию. Люди не соглашаются с автором, пишут гневные комментарии – и в итоге видео попадает в топ по просмотрам. Кстати, есть такой юмористический “закон Каннингема”. Если вам нужно срочно что-то узнать – не задавайте вопрос, лучше напишите заведомую чушь по теме на публичном форуме. К вам обязательно тут же придёт десяток специалистов и подробно объяснит, в чём ваша ошибка. И напишут правильный ответ.

Козлиные яйца против импотенции

На мой взгляд, лучший пример популяризации знаний через демонстрацию чепухи – документальный фильм “Яйца”. Это фильм про врача-альтернативщика Джона Бринкли, который пересаживал мужчинам яйца козла. Якобы для улучшения их мужского здоровья. Авторы фильма рассказывают биографию врача: что он был невероятно богат, даже владел одной из крупнейших радиостанций США. Рассказывают про то, как Бринкли начал вещать на несколько континентов, а ещё знал, как привлечь аудиторию. В США принимали законы, чтобы ограничить деятельность Бринкли и пресечь его попытки заняться политикой. При этом в фильме появляются эксперты, которые даже хвалят врача! Создаётся ощущение, что мы смотрим пропагандистское кино… Авторы картины подливают масла в огонь: рассказывают небылицы о том, что критики врача умирали, потому что их настигала карма (кого-то даже поездом переехало), что критика Бринкли – это заговор БигФармы. Ну и, конечно, описывается, как он перешёл от просто пересадок яиц к торговле прекрасной подкрашенной водой, которая всем помогала.

А ближе к концу фильм делает мощный разворот. Нам показывают, как Джона Бринкли приглашают в суд, где он обвиняет одного из своих критиков в клевете. В суд приходят эксперты и разносят врача в пух и прах. А судья показывает Бринкли книжку-биографию (по которой снята вся первая половина фильма) – и оказывается, что в биографии нет ни слова правды. Эту книгу напечатали исключительно в маркетинговых целях. Бринкли даже признаётся, что сам книгу не читал, хотя и выступил заказчиком. Потом описывается и трагичная судьба шарлатана, который до конца жизни настаивал на своей медицинской гениальности. Если бы в фильме с самого начала шёл рассказ о том, как врач занимался ерундой, думаю, кино было бы не так популярно.


При этом у разоблачения мифов есть свои недостатки. Так, мифы часто разоблачают в формате дебатов. Я довольно часто участвовал в дебатах со священниками, один раз – даже одновременно с тремя священниками, с астрологами, гомеопатами и другими людьми. Но полезны ли такие дискуссии с точки зрения просвещения? Ведь может оказаться так, что защитник науки выступил плохо. И аудитория решила: “Ага, гомеопат прав, го за сахаром!”

В научных экспериментах сложно доказать эффективность – или неэффективность – дебатов. Потому что результат всегда зависит от личных качеств людей, которые принимают участие в дискуссии. А ещё – от личности ведущего, регламента мероприятия и так далее. Например, кому ведущий предоставит последнее слово, чью сторону он занимает – учёного или энергопрактика?

Но всё же косвенные проверки эффективности научных дебатов проводились. Так, однажды добровольцам сообщали разные факты о вакцинах. Одним участникам эксперимента говорили о вакцинах только хорошее, другим – только плохое, третьим – и плохое, и хорошее. В итоге выяснилось, что худший сценарий – когда людям рассказывают только о “вреде” прививок. Лучший – когда сообщают о пользе вакцинации, то есть доносят до слушателей правдивую информацию, не приправленную мифами.

Авторы исследования выяснили, что, когда людям сначала на полном серьёзе сообщают антинаучный тезис а-ля “вакцины вызывают аутизм”, а потом этот тезис опровергают, слушатели меньше доверяют опровержениям. Иными словами, идея, которая оказалась у человека в голове первой, сильнее влияет на мнение – и от неё труднее избавиться. Поэтому лучше сразу говорить людям правду, а не ждать, пока им забьют голову ерундой! Факты вакцинируют от лжи, а усвоенная ложь даёт устойчивость к фактам.

Однажды, во время пандемии, я участвовал в дебатах с противником вакцин и лауреатом антипремии почётный академик ВРАЛ Александром Редько в студии у Ксении Собчак. Дело было так: меня пригласили поучаствовать в дискуссии. Я сначала отказался и предложил организаторам дебатов просто пригласить в студию эксперта по вакцинации, чтобы тот рассказал, как работают прививки. Но мне объяснили, что до меня пригласили другого специалиста поучаствовать в дискуссии с Редько, однако специалист в последний момент от дебатов отказался. И, мол, если не приду я, то организаторы просто предоставят площадку антипрививочнику, который, к слову, умудрился договориться до того, что вакцинация не просто опасна, а может изменить ФАМИЛИЮ (об этом он не стесняется писать в своих социальных сетях). В общем, я пришёл на дебаты. И всё вышло не так уж и плохо. Согласно опросам, до программы 65% YouTube-зрителей выступали против вакцин, 35% – за. После программы процент антипрививочников снизился до 54%. Но всё могло бы легко сложиться иначе.

Есть и ещё одна критика в адрес науч-попа, с которой я, пожалуй, согласен. Дело в том, что мифов и заблуждений очень много. И их разоблачение похоже на бой с Гидрой – одну голову отрубил, две выросло. Один миф разоблачил – на его месте два новых появилось. И эта битва может быть бесконечной.

Поэтому полезнее бороться не с самими мифами, а с их первопричинами. Например, нужно бороться с нехваткой образования. Но научно-популярные блогеры не могут повлиять на школы и заставить их ввести предмет “основы критического мышления”. Но популяризаторы науки могут популяризовать знание об ошибках мышления. Иными словами, вместо рыбы мы можем дать человеку удочку в виде критического мышления. Тогда человек уже сам сможет присматриваться к мифам и видеть из “насквозь”.

Есть, например, ошибка “после – значит вследствие”. Человек думает: “Ага, вот мне было плохо, я принял гомеопатию – и сразу полегчало. Гомеопатия работает!” Та же ошибка лежит в основе веры в уринотерапию, акупунктуру, молитву, в силу огурца, не оторванного от ботвы, и так далее. Эффективнее не говорить каждый раз: “Пить мочу не стоит”, “Не надо лечить рак содой”, “Грехи вашей прабабушки никак не влияют на то, что вы второй раз разводитесь”. А просто разобрать, почему “после” – это не значит “вследствие”. И какие ещё бывают ошибки мышления.

Есть такая игра – Fallacymania. Игроку надо вытянуть случайную карточку, на которой написана та или иная ошибка мышления. С помощью этой ошибки мышления игроку предстоит аргументировать какой-нибудь тезис. Остальным участникам надо отгадать, какая ошибка мышления досталась первому игроку. Игра классная – с её помощью можно узнать, как не дать себя обмануть и не позволить собеседнику навешать тебе лапшу на уши.

Были исследования, в которых учёные показали: с помощью примеров, демонстрирующих наши ошибки, людей можно обучать критическому мышлению. Однажды учёные пригласили группу подростков и убедили их в том, что есть материал, который при контакте с кожей улучшает способности человека – например, способность прыгать. Учёные намазывали студентов этим “материалом” (то есть то ли мелом, то ли мукой). Подростки прыгали до намазывания, а потом после него. Подростки, вымазанные мукой, в среднем прыгали лучше – вероятно, потому, что перед этим как следует потренировались. Но при этом многие студенты решили, что “материал” работает.



После этого учёные объяснили участникам эксперимента, что “материал” – не что иное как плацебо. И что “после” – не значит “вследствие”. Затем этих студентов и контрольную группу, которой не проводили ликбез по ошибкам мышления, попросили поучаствовать в ещё одном испытании. В ходе испытания его участников сажали за компьютеры. Студенты играли роль виртуальных врачей: им нужно было определить, какое из двух лекарств работает. Так вот, участники, которым ранее рассказывали об ошибках мышления, чаще определяли, какое лекарство эффективно. Они более корректно ставили “виртуальный” эксперимент с большой контрольной группой.

На это исследование ссылаются авторы большого обзора “Иллюзия причинности” (Illusions of causality: how they bias our everyday thinking and how they could be reduced). В этом обзоре, кстати, тоже содержится вывод о том, что людей можно и нужно “прививать” правильными фактами – причём чем раньше, тем лучше. А не ждать, пока придут мракобесы и убедят аудиторию, что, например, нельзя жить без натальной карты.

Я сталкивался и с такой критикой науч-попа: “Люди слишком глупы для просвещения! Они вас послушают и ничего не поймут! И станут плодить ещё больше ерунды!” Но на самом даже чуть-чуть знаний лучше, чем их отсутствие.

Ещё хочу порекомендовать четыре книги, которые помогут вам развить критическое мышление:

Даниэль Канеман “Думай медленно — решай быстро”;
Майкл Шермер “Почему люди верят в странные вещи”;
Паскаль Буайе “Объясняя религию”;
Роберт Бразертон “Недоверчивые умы”.

Если вы знаете книги, которые могут добавить этот список – пишите рекомендации в комментариях!

Ссылка на первоисточник

Картина дня

наверх