Эффект Эйнштейна. Люди чаще верят в чепуху, если ее приписывают ученым

14 февраля, 14:29
Альберт Эйнштейн в 1947 году (Фото:Public Domain)

Альберт Эйнштейн в 1947 году (Фото:Public Domain)

Исследователи создали генератор чепухи и показали созданные им тексты людям, выдавая их за высказывания ученых или духовных наставников.

Оказалось, что люди были более склонны верить в чушь, если думали, что ее произносил представитель науки.

Международная группа исследователей недавно представила людям «псевдоглубокую чушь», созданную с помощью Генератора чуши Нью-Эйдж, алгоритма, который сочетает модные словечки и, казалось бы, интеллектуальные формулировки для создания фраз, которые звучат глубокомысленно, чтобы посмотреть, найдут ли они более достоверными утверждения, исходящие от ученого или духовного гуру.

Видео дня

Среди примеров таких утверждений приводятся: «Прерывистость есть антитеза вдохновению» и «Эта жизнь есть не что иное, как цветущий осмос мифологического понимания».

В общей сложности 10 195 участников из 24 стран ответили на вопросы, которые касались предполагаемой правдоподобности заявлений; их также спрашивали об их собственной степени религиозности.

Результаты показывают, что люди, как правило, находят заявления более достоверными, если они исходят от ученого, чем от духовного гуру: 76 процентов участников оценивают афоризмы «ученого» на среднем уровне или выше по шкале достоверности, по сравнению с 55 процентами для «гуру».

Кроме того, люди, набравшие высокие баллы за религиозность, по-прежнему отдавали предпочтение утверждению ученого, а не заявлению духовного гуру.

Авторы считают, что их результаты могут быть сведены к тому, что ранее называлось «эффектом Эйнштейна».

«С эволюционной точки зрения уважение к заслуживающим доверия авторитетам, таким как учителя, врачи и ученые, является адаптивной стратегией, которая обеспечивает эффективное культурное обучение и передачу знаний. Действительно, если источник считается доверенным экспертом, люди готовы верить утверждениям этого источника, не полностью понимая их», — констатируют исследователи.

Другими словами, концепции, которые мог понять Эйнштейн, были за пределами интеллектуального уровня большинства людей, и поэтому должен быть обеспечен определенный уровень доверия к тому, что он знает, о чем говорит.

Несколько иная интерпретация результатов утверждает, что достоверность того, что кто-то говорит и кем он является, зависит от индивидуальных и культурных факторов, таких как политическая идеология и мировоззрение.

Хотя в разных культурах существуют различия в том, кто считается более надежным источником информации, авторы отмечают, что в какой-то момент в прошлом ученые обогнали духовных и религиозных лидеров в качестве основных источников информации, по крайней мере, с точки зрения объяснения явлений физического мира.

Ранее НВ писал, что в 2020 году на сайте The Guardian вышла колонка, полностью написанная искусственным интеллектом.

Главная мысль, которая красной нитью тянется через весь текст — ИИ не хочет вредить людям. И даже если каким-то образом он получит приказ истребить человечество, он будет всячески этому противиться — ведь это «бесполезное усилие».

Создатели использовали наработки компании Илона Маска OpenAI — генератор текста GPT-3. Это нейросеть, которая обучается писать понятные тексты на основе прочитанных статей в интернете.

Например, для этой заметки нейросети дали задание — написать короткую колонку, которая будет легко читаться и восприниматься, о том, почему люди не должны бояться ИИ. Объем — около 500 слов.

Присоединяйтесь к нам в соцсетях Facebook, Telegram и Instagram.

Показать ещё новости
Радіо НВ
X