В ошибка базовой ставки, также называемый пренебрежение базовой ставкой или же систематическая ошибка базовой ставки, это заблуждение. Если представлены связанные базовая ставка информации (т. е. общей информации о распространенности) и конкретной информации (т. е. информации, относящейся только к конкретному случаю), люди склонны игнорировать базовую ставку в пользу индивидуальной информации, вместо того, чтобы правильно их объединять.[1]
Пренебрежение базовой ставкой — это особая форма более общего пренебрежение расширением.
Ложноположительный парадокс
Примером ошибки базовой ставки является ложноположительный парадокс. Этот парадокс описывает ситуации, когда есть больше ложный положительный результат результаты тестов, чем истинно положительные. Например, 50 из 1000 человек дали положительный результат на инфекцию, но только у 10 была инфекция, то есть 40 тестов были ложноположительными. Вероятность положительного результата теста определяется не только точностью теста, но и характеристиками выборки.[2] Когда распространенность, доля тех, у кого есть данное заболевание, ниже, чем в тесте. ложный положительный результат рейтинг, даже тесты, которые имеют очень низкий шанс дать ложноположительный результат в индивидуальном случае даст больше ложных, чем истинных срабатываний общий.[3] Парадокс удивляет большинство людей.[4]
Это особенно противоречит интуиции при интерпретации положительного результата теста на низкую распространенность численность населения после получения положительных результатов, полученных в популяции с высокой распространенностью.[3] Если ложный положительный результат скорость теста выше, чем доля новый популяция с этим заболеванием, то администратор тестирования, чей опыт был взят из тестирования в популяции с высокой распространенностью, может сделать вывод из опыта что положительный результат теста обычно указывает на положительный результат, тогда как на самом деле ложноположительный результат гораздо более вероятен.
Примеры
Пример 1: болезнь
Население с высокой заболеваемостью
Число людей |
Зараженный | Незараженный | Общий |
---|---|---|---|
Тест положительный |
400 (истинно положительный) |
30 (ложный положительный результат) |
430 |
Тест отрицательный |
0 (ложноотрицательный) |
570 (истинно отрицательный) |
570 |
Общий | 400 | 600 | 1000 |
Представьте, что вы проводите тест на инфекционные заболевания среди населения. А 1000 человек, из которых 40% инфицированы. Уровень ложноположительных результатов теста составляет 5% (0,05), а количество ложноотрицательных результатов отсутствует. В ожидаемый результат из 1000 тестов на популяции А было бы:
- Заражены и тест указывает на болезнь (истинно положительный )
- 1000 × 40/100 = 400 человек получат истинный позитив
- Неинфицирован, и тест указывает на болезнь (ложноположительный)
- 1000 × 100 – 40/100 × 0,05 = 30 человек получат ложное срабатывание
- Остальные 570 тестов правильно отрицательны.
Итак, в популяции А, человек, получивший положительный результат теста, может быть уверен более 93% (400/30 + 400), что это правильно указывает на инфекцию.
Население с низкой заболеваемостью
Число людей |
Зараженный | Незараженный | Общий |
---|---|---|---|
Тест положительный |
20 (истинно положительный) |
49 (ложный положительный результат) |
69 |
Тест отрицательный |
0 (ложноотрицательный) |
931 (истинно отрицательный) |
931 |
Общий | 20 | 980 | 1000 |
Теперь рассмотрим тот же тест, применяемый к населению. B, у которых инфицировано только 2%. В ожидал результат 1000 тестов на популяции B было бы:
- Заражены и тест указывает на болезнь (истинно положительный )
- 1000 × 2/100 = 20 человек получат настоящий позитив
- Неинфицирован, и тест указывает на болезнь (ложноположительный)
- 1000 × 100 – 2/100 × 0,05 = 49 человек получат ложное срабатывание
- Остальные 931 (= 1000 — (49 + 20)) тест положительно отрицательны.
В населении B, только 20 из 69 человек с положительным результатом теста действительно инфицированы. Таким образом, вероятность действительно заразиться после того, как человеку сказали, что он инфицирован, составляет всего 29% (20/20 + 49) для теста, который в противном случае кажется «точным на 95%».
Тестировщик с опытом работы в группе А может показаться парадоксальным, что в группе B, результат, который обычно правильно указывал на инфекцию, теперь обычно ложный положительный результат. Путаница апостериорная вероятность заражения априорная вероятность получения ложного срабатывания — естественное ошибка после получения опасного для здоровья результата теста.
Пример 2: Пьяные водители
- Группа сотрудников полиции алкотестеры проявление ложного опьянения в 5% случаев, когда водитель трезв. Однако алкотестеры всегда обнаруживают по-настоящему пьяного человека. Один из тысячи водителей водит машину в нетрезвом виде. Предположим, полицейские наугад останавливают водителя, чтобы провести тест алкотестера. Это указывает на то, что водитель пьян. Мы предполагаем, что вы ничего о них не знаете. Насколько высока вероятность, что они действительно пьяны?
Многие ответят до 95%, но правильная вероятность составляет около 2%.
Объяснение этому следующее: в среднем на каждую 1000 протестированных водителей
- 1 водитель в нетрезвом виде, и 100% уверенность в том, что для этого водителя существует истинный положительный результат теста, значит есть 1 истинный положительный результат теста
- 999 водителей не пьяны, из них 5%. ложный положительные результаты тестирования, итого 49,95 ложный положительные результаты теста
Следовательно, вероятность того, что один из водителей среди положительных результатов теста 1 + 49,95 = 50,95 действительно пьян, составляет .
Однако достоверность этого результата зависит от правильности первоначального предположения, что полицейский остановил водителя действительно случайно, а не из-за плохого вождения. Если присутствовала та или иная непроизвольная причина остановки водителя, то в расчет также включается вероятность того, что водитель в состоянии алкогольного опьянения будет управлять автомобилем грамотно, а водитель в нетрезвом виде водит (не) компетентно.
Более формально такую же вероятность примерно 0,02 можно установить, используя Теорема Байеса. Цель состоит в том, чтобы найти вероятность того, что водитель пьян, учитывая, что алкотестер показал, что он пьян, что может быть представлено как
куда D означает, что алкотестер показывает, что водитель пьян. Теорема Байеса говорит нам, что
В первом абзаце нам сказали следующее:
- и
Как видно из формулы, нужно п(D) для теоремы Байеса, которую можно вычислить из предыдущих значений, используя закон полной вероятности:
который дает
Подставляя эти числа в теорему Байеса, мы обнаруживаем, что
Пример 3: идентификация террориста
В 1-миллионном городе пусть будет 100 террористов и 999 900 нетеррористов. Для упрощения примера предполагается, что все люди, присутствующие в городе, являются его жителями. Таким образом, базовая вероятность того, что случайно выбранный житель города является террористом, равна 0,0001, а базовая вероятность того, что этот же житель не является террористом, равна 0,9999. В попытке поймать террористов в городе устанавливают сигнализацию с камерой наблюдения и автоматикой. программное обеспечение для распознавания лиц.
Программное обеспечение имеет два уровня отказов по 1%:
- Уровень ложных отрицательных результатов: если камера сканирует террориста, звонок будет звонить в 99% случаев, а в 1% случаев он не будет звонить.
- Уровень ложных срабатываний: если камера сканирует человека, не являющегося террористом, звонок не будет звонить в 99% случаев, но он будет звонить в 1% случаев.
Предположим теперь, что житель вызывает тревогу. Какова вероятность того, что это террорист? Другими словами, что такое P (T | B), вероятность того, что террорист был обнаружен при звонке в колокол? Кто-то, делающий «ошибку базовой ставки», сделает вывод, что существует 99% -ная вероятность того, что обнаруженный человек является террористом. Хотя такой вывод кажется разумным, на самом деле это неверное рассуждение, и приведенный ниже расчет покажет, что вероятность того, что они террористы, на самом деле составляет около 1%, а не около 99%.
Заблуждение возникает из-за смешения природы двух разных коэффициентов отказов. «Количество не-колоколов на 100 террористов» и «количество нетеррористов на 100 колоколов» не связаны между собой. Один не обязательно равен другому, и они даже не обязательно должны быть почти равными. Чтобы продемонстрировать это, представьте, что произойдет, если во втором городе, где террористов вообще нет, была бы установлена идентичная система сигнализации. Как и в первом городе, сигнал тревоги звучит для 1 из каждых 100 обнаруженных жителей, не являющихся террористами, но, в отличие от первого города, сигнал тревоги никогда не звучит для террористов. Таким образом, 100% всех случаев срабатывания сигнала тревоги относятся к нетеррористам, но ложноотрицательный показатель даже не может быть подсчитан. «Число нетеррористов на 100 колоколов» в этом городе равно 100, но P (T | B) = 0%. При звонке в колокол вероятность того, что террорист был обнаружен, равна нулю.
Представьте себе, что перед камерой проходит весь миллион жителей первого города. Около 99 из 100 террористов вызовут тревогу, равно как и около 9 999 из 999 900 нетеррористов. Таким образом, тревогу сработают около 10 098 человек, среди которых около 99 — террористы. Таким образом, вероятность того, что человек, вызвавший тревогу, на самом деле является террористом, составляет всего около 99 из 10 098, что меньше 1% и очень, очень сильно ниже нашего первоначального предположения в 99%.
Ошибка базовой ставки в этом примере вводит в заблуждение, потому что нетеррористов намного больше, чем террористов, а количество ложных срабатываний (нетеррористов, считающихся террористами) намного больше, чем истинных срабатываний (реальное количество террористов) .
Находки в психологии
В ходе экспериментов было обнаружено, что люди предпочитают индивидуальную информацию общей информации, когда первая доступна.[5][6][7]
В некоторых экспериментах студентов просили оценить средний балл (GPA) гипотетических студентов. Получая соответствующую статистику о распределении среднего балла, учащиеся, как правило, игнорировали ее, если давали описательную информацию о конкретном учащемся, даже если новая описательная информация явно не имела отношения к успеваемости в школе.[6] Этот вывод был использован, чтобы доказать, что интервью — ненужная часть поступление в колледж процесс, потому что интервьюеры не могут выбрать успешных кандидатов лучше, чем базовая статистика.
Психологи Даниэль Канеман и Амос Тверски попытался объяснить этот вывод с точки зрения простое правило или «эвристика» называется представительность. Они утверждали, что многие суждения, касающиеся вероятности или причинно-следственных связей, основаны на том, насколько одна вещь репрезентативна для другой или категории.[6] Канеман считает пренебрежение базовой ставкой особой формой пренебрежение расширением.[8] Ричард Нисбетт утверждал, что некоторые атрибуционные предубеждения словно Основная ошибка атрибуции являются примерами ошибки базовой ставки: люди не используют «консенсусную информацию» («базовую ставку») о том, как другие вели себя в аналогичных ситуациях, и вместо этого предпочитают более простые диспозиционная атрибуция.[9]
В психологии ведутся серьезные споры об условиях, при которых люди ценят или не ценят базовую информацию.[10][11] Исследователи программы эвристики и систематических ошибок подчеркнули эмпирические результаты, показывающие, что люди склонны игнорировать базовые ставки и делать выводы, нарушающие определенные нормы вероятностного рассуждения, такие как Теорема Байеса. Вывод, сделанный на основании этого направления исследований, заключался в том, что вероятностное мышление человека в корне ошибочно и подвержено ошибкам.[12] Другие исследователи подчеркивали связь между когнитивными процессами и информационными форматами, утверждая, что такие выводы обычно необоснованны.[13][14]
Снова рассмотрим пример 2 сверху. Требуемый вывод заключается в оценке (апостериорной) вероятности того, что (случайно выбранный) водитель пьян, при условии, что тест алкотестера положительный. Формально эту вероятность можно рассчитать с помощью Теорема Байеса, как показано выше. Однако существуют разные способы представления соответствующей информации. Рассмотрим следующий формально эквивалентный вариант задачи:
- 1 из 1000 водителей водит машину в нетрезвом виде. Алкотестеры никогда не перестают определять по-настоящему пьяного человека. Для 50 из 999 водителей, не находящихся в состоянии алкогольного опьянения, алкотестер ложно показывает состояние опьянения. Предположим, полицейские наугад останавливают водителя и заставляют его пройти тест алкотестером. Это указывает на то, что они пьяны. Мы предполагаем, что вы ничего о них не знаете. Насколько высока вероятность, что они действительно пьяны?
В этом случае соответствующая числовая информация —п(пьяный), п(D | пьяный), п(D | трезвый) — представлен в терминах собственных частот по отношению к определенному эталонному классу (см. проблема эталонного класса ). Эмпирические исследования показывают, что выводы людей в большей степени соответствуют правилу Байеса, когда информация представлена таким образом, что помогает преодолеть пренебрежение базовой оценкой среди непрофессионалов.[14] и эксперты.[15] Как следствие, организации, подобные Кокрановское сотрудничество рекомендуют использовать такой формат для передачи статистики здоровья.[16] Учить людей переводить подобные байесовские задачи мышления в форматы собственных частот более эффективно, чем просто учить их подставлять вероятности (или проценты) в теорему Байеса.[17] Также было показано, что графические представления собственных частот (например, массивы значков) помогают людям делать более точные выводы.[17][18][19]
Чем полезны форматы собственных частот? Одна из важных причин заключается в том, что этот формат информации облегчает требуемый вывод, поскольку упрощает необходимые вычисления. Это можно увидеть при использовании альтернативного способа вычисления требуемой вероятности п(пьяный |D):
куда N(пьяный ∩ D) обозначает количество пьяных водителей, получивших положительный результат алкотестера, и N(D) обозначает общее количество случаев с положительным результатом алкотестера. Эквивалентность этого уравнения предыдущему следует из аксиом теории вероятностей, согласно которой N(пьяный ∩ D) = N × п (D | пьяный) × п (пьяный). Важно отметить, что хотя это уравнение формально эквивалентно правилу Байеса, психологически оно не эквивалентно. Использование собственных частот упрощает вывод, поскольку требуемая математическая операция может выполняться с натуральными числами, а не с нормализованными дробями (т. Е. Вероятностями), поскольку это делает большое количество ложных срабатываний более прозрачным, и поскольку собственные частоты демонстрируют «вложенный набор» структура».[20][21]
Не каждый частотный формат облегчает байесовские рассуждения.[21][22] Собственные частоты относятся к частотной информации, которая получается из естественная выборка,[23] который сохраняет информацию о базовой ставке (например, количество пьяных водителей при случайной выборке водителей). Это отличается от систематический отбор проб, в котором базовые ставки фиксированы априори (например, в научных экспериментах). В последнем случае невозможно вывести апостериорную вероятность п (пьяный | положительный тест) из сравнения количества пьяных водителей с положительным результатом теста по сравнению с общим количеством людей, получивших положительный результат алкотестера, потому что информация о базовой скорости не сохраняется и должна быть явно повторно введена с использованием теоремы Байеса .
Смотрите также
- Байесовская вероятность
- Теорема Байеса
- Дноуглубительные работы
- Индуктивный аргумент
- Список когнитивных предубеждений
- Список парадоксов
- Вводящая в заблуждение яркость
- Профилактика парадокса
- Ошибка прокурора, ошибка в рассуждениях, включающая игнорирование низкого априорная вероятность
- Парадокс Симпсона, еще одна ошибка в статистических рассуждениях, касающихся сравнения групп
- Стереотип
Рекомендации
- ^ «Логическая ошибка: ошибка базовой ставки». Fallacyfiles.org. Получено 2013-06-15.
- ^ Rheinfurth, M. H .; Хауэлл, Л. У. (март 1998 г.). Вероятность и статистика в аэрокосмической технике (PDF). НАСА. п. 16.
СООБЩЕНИЕ: ложноположительные тесты более вероятны, чем истинно положительные тесты, когда общая популяция имеет низкую распространенность болезни. Это называется ложноположительным парадоксом.
- ^ а б Вашер, Х. Л. (май 2003 г.). «Количественная грамотность — тестирование на наркотики, скрининг рака и идентификация вулканических пород». Журнал геолого-геофизического образования: 2.
На первый взгляд это кажется извращенным: чем меньше учащиеся в целом используют стероиды, тем больше вероятность, что учащийся, идентифицированный как пользователь, не будет пользователем. Это было названо ложноположительным парадоксом.
— Цитирование: Gonick, L .; Смит, В. (1993). Мультяшный гид по статистике. Нью-Йорк: Харпер Коллинз. п. 49. - ^ Мэдисон, Б. Л. (август 2007 г.). «Математические знания для гражданства». В Schoenfeld, A.H. (ред.). Оценка математических навыков. Публикации Института математических наук (Новое изд.). Издательство Кембриджского университета. п. 122. ISBN 978-0-521-69766-8.
Правильная [оценка вероятности …] многих удивляет; следовательно, термин парадокс.
- ^ Бар-Гилель, Майя (1980). «Ошибка базовой ставки в вероятностных суждениях» (PDF). Acta Psychologica. 44 (3): 211–233. Дои:10.1016/0001-6918(80)90046-3.
- ^ а б c Канеман, Даниэль; Амос Тверски (1973). «О психологии предсказания». Психологический обзор. 80 (4): 237–251. Дои:10,1037 / ч0034747. S2CID 17786757.
- ^ Канеман, Даниэль; Амос Тверски (1985). «Доказательное влияние базовых ставок». В книге Даниэля Канемана, Пола Словича и Амоса Тверски (ред.). Суждение в условиях неопределенности: эвристика и предубеждения. Наука. 185. С. 153–160. Дои:10.1126 / science.185.4157.1124. PMID 17835457. S2CID 143452957.
- ^ Канеман, Даниэль (2000). «Оценка моментами, прошлым и будущим». У Даниэля Канемана и Амоса Тверски (ред.). Выбор, ценности и рамки.
- ^ Нисбетт, Ричард Э .; Э. Боргида; Р. Крэндалл; Х. Рид (1976). «Популярная индукция: информация не всегда информативна». В J. S. Carroll & J. W. Payne (ed.). Познание и социальное поведение. 2. С. 227–236.
- ^ Кёлер, Дж. Дж. (2010). «Ошибка базовой ставки пересмотрена: описательные, нормативные и методологические проблемы». Поведенческие науки и науки о мозге. 19: 1–17. Дои:10.1017 / S0140525X00041157. S2CID 53343238.
- ^ Барби, А. К .; Сломан, С. А. (2007). «Базовое уважение: от экологической рациональности к двойственным процессам». Поведенческие науки и науки о мозге. 30 (3): 241–254, обсуждение 255–297. Дои:10.1017 / S0140525X07001653. PMID 17963533. S2CID 31741077.
- ^ Тверски, А .; Канеман, Д. (1974). «Суждение в условиях неопределенности: эвристика и предубеждения». Наука. 185 (4157): 1124–1131. Bibcode:1974Научный … 185.1124Т. Дои:10.1126 / science.185.4157.1124. PMID 17835457. S2CID 143452957.
- ^ Космидес, Леда; Джон Туби (1996). «Являются ли люди в конце концов хорошими интуитивными статистиками? Переосмысление некоторых литературных выводов о суждениях в условиях неопределенности». Познание. 58: 1–73. CiteSeerX 10.1.1.131.8290. Дои:10.1016/0010-0277(95)00664-8. S2CID 18631755.
- ^ а б Gigerenzer, G .; Хоффраге, У. (1995). «Как улучшить байесовское рассуждение без инструкции: частотные форматы». Психологический обзор. 102 (4): 684. CiteSeerX 10.1.1.128.3201. Дои:10.1037 / 0033-295X.102.4.684.
- ^ Hoffrage, U .; Lindsey, S .; Hertwig, R .; Гигеренцер, Г. (2000). «Медицина: передача статистической информации». Наука. 290 (5500): 2261–2262. Дои:10.1126 / science.290.5500.2261. PMID 11188724. S2CID 33050943.
- ^ Akl, E. A .; Oxman, A.D .; Herrin, J .; Vist, G.E .; Терренато, I .; Sperati, F .; Костинюк, Ц .; Бланк, Д .; Шюнеманн, Х. (2011). Шюнеманн, Хольгер (ред.). «Использование альтернативных статистических форматов для представления рисков и снижения рисков». Кокрановская база данных систематических обзоров (3): CD006776. Дои:10.1002 / 14651858.CD006776.pub2. ЧВК 6464912. PMID 21412897.
- ^ а б Sedlmeier, P .; Гигеренцер, Г. (2001). «Обучение байесовскому мышлению менее чем за два часа». Журнал экспериментальной психологии: Общие. 130 (3): 380. Дои:10.1037/0096-3445.130.3.380. HDL:11858 / 00-001M-0000-0025-9504-E.
- ^ Брасе, Г. Л. (2009). «Иллюстрированные представления в статистических рассуждениях». Прикладная когнитивная психология. 23 (3): 369–381. Дои:10.1002 / acp.1460. S2CID 18817707.
- ^ Эдвардс, А .; Elwyn, G .; Малли, А. (2002). «Объяснение рисков: превращение числовых данных в значимые картинки». BMJ. 324 (7341): 827–830. Дои:10.1136 / bmj.324.7341.827. ЧВК 1122766. PMID 11934777.
- ^ Girotto, V .; Гонсалес, М. (2001). «Решение вероятностно-статистических задач: вопрос структуры информации и формы вопроса». Познание. 78 (3): 247–276. Дои:10.1016 / S0010-0277 (00) 00133-5. PMID 11124351. S2CID 8588451.
- ^ а б Hoffrage, U .; Gigerenzer, G .; Krauss, S .; Мартиньон, Л. (2002). «Представление облегчает рассуждение: что такое собственные частоты, а чем нет». Познание. 84 (3): 343–352. Дои:10.1016 / S0010-0277 (02) 00050-1. PMID 12044739. S2CID 9595672.
- ^ Gigerenzer, G .; Хоффраге, У. (1999). «Преодоление трудностей в байесовских рассуждениях: ответ Льюису и Керену (1999) и Меллерсу и МакГроу (1999)». Психологический обзор. 106 (2): 425. Дои:10.1037 / 0033-295X.106.2.425. HDL:11858 / 00-001M-0000-0025-9CB4-8.
- ^ Клейтер, Г. Д. (1994). «Естественная выборка: рациональность без базовых ставок». Вклад в математическую психологию, психометрию и методологию. Последние исследования в области психологии. С. 375–388. Дои:10.1007/978-1-4612-4308-3_27. ISBN 978-0-387-94169-1.
внешняя ссылка
- Ошибка базовой ставки Файлы ошибок
Когнитивные искажения (от лат. cognitiо «познание») – это то, что касается каждого человека вне зависимости от уровня его образования и социального положения.
Наш мозг – это главный орган центральной нервной системы, загадка которого не разгадана учеными до сих пор. Он содержит около 86 миллиардов нейронов, которые регулируют всю деятельность человека.
Наверное, и неудивительно, что мозг иногда обманывает нас, так что порой кажется, что он живет отдельной жизнью.
Так это или нет – мы, возможно, узнаем в будущем, а пока давайте рассмотрим наиболее частые когнитивные искажения, или ошибки мышления, которые встречаются в жизни каждого.
Это поможет вам не только осознать причины тех или иных своих действий, но и даст понимание некоторых поступков окружающих вас людей.
Ошибки мышления
Данная статья будет интересна не только любителям психологии, но и всем, кому интересно саморазвитие.
-
Ошибка базового процента
Довольно часто мы игнорируем реальную статистику, отдавая предпочтение собственному опыту. Например, вы обратились в автосервис, который, в конечном счете, не смог починить вашу машину.
После этого ваш мозг будет считать данный сервис плохим даже несмотря на то, что вам достоверно известно о сотнях машин, которые были там полностью отремонтированы. Ничего не поделаешь, личный опыт для мозга важнее статистики.
-
Отклонение внимания
Мозгу свойственно замечать только то, что вам нравится, или что вас интересует. Например, если вы парикмахер, то новая прическа вашего коллеги будет тут же детально изучена, в то время как другие даже не обратят на нее внимание.
Если вы любите модные бренды, то любая новая сумка знакомого вызовет у вас интерес. То же самое касается и праздников. Так что если вас кто-то не поздравил, не спешите обижаться, – наверняка это было сделано не намеренно. Все дело в когнитивном искажении под названием «Отклонение внимания».
-
Феномен «Дверь в лицо»
Известный американский психолог Роберт Чалдини рассказывал, как однажды на улице к нему подошёл мальчик и предложил купить билеты на какое-то мероприятие. Один билет стоил 5 долларов.
Чалдини вежливо отказался. Тогда мальчик предложил ему купить плитки шоколада всего лишь по доллару за штуку. После того как Чалдини купил пару плиток, он осознал, что им манипулировали, так как:
- он не любит шоколад и ему нужны деньги;
- он остался с двумя ненужными ему шоколадками и без денег.
Чалдини отправился на встречу с коллегами, с которыми обсудил произошедшее. В результате совещания была разработана серия экспериментов, позже ставшая классической.
Итак, «Дверь в лицо» – это социально-психологический феномен, который заключается в том, что люди склонны идти на уступку и соглашаться с малопривлекательным предложением в том случае, если оно им предлагается сразу после их отказа от другой более тяжелой просьбы.
-
Иллюзия частоты
Мозг не замечает многие вещи, которые нас окружают до тех пор, пока они нас не заинтересуют. Например, вам нужно купить детскую коляску, и вы остановились на каком-то бренде.
Внезапно вы обнаруживаете, что колясок этого бренда начало встречаться очень много. Это иллюзия. На самом деле просто вы начали обращать на них внимание, а не они резко распространились. Таковы результаты когнитивного искажения.
-
Эффект мнимой правды
Это один из самых популярных инструментов пропаганды во всем мире. Давно известно, что если повторять ложь достаточно долго, достаточно громко и достаточно часто – люди начнут верить лжи.
Если человеку 100 раз сказать, что он свинья, то на 101раз он захрюкает.
Умельцы весьма эффективно применяют этот феномен. Приведем безобидный пример. Некто хочет, чтобы его считали умным, поэтому он, цитирует, допустим, древнегреческого философа:
– Как говорил Протагор – «Человек есть мера всех вещей».
В следующий раз он повторяет это несколько иначе:
– Как я говорил в прошлый раз, – «Человек есть мера всех вещей».
И, наконец, в третий раз он заявляет:
– Как я обычно говорю, – «Человек есть мера всех вещей».
Вроде бы все правильно, но используя это когнитивное искажение, вам навязали ложную мысль, будто автором фразы является этот Некто, который хочет, чтобы его считали умным.
-
Эффект знакомства с объектом
Пожалуй, вся реклама, существующая в мире, работает на этот эффект мышления. Дело в том, что из нескольких незнакомых объектов мы обязательно отдадим предпочтение тому, о котором знаем хотя бы что-то.
Например, вам нужен крем для рук. Придя в магазин, вы почти наверняка возьмете тот крем, о котором хотя бы раз где-то слышали (например, в рекламе), чем тот, о котором вы вообще ничего не знаете.
-
Эвристика доступности
Наверняка у многих бывали такие случаи, когда знакомый уезжал в столицу и умело там пристраивался, вследствие чего у вас формировалось убеждение, что все жители столицы – это хорошо обеспеченные люди, работающие в крутых компаниях.
Так вот эта ошибка мышления возникает потому, что наш мозг оценивает частоту или возможность события по легкости, с которой примеры или случаи приходят на ум, т. е. легче вспоминаются.
Или, например, человек оценивает степень риска возникновения инфаркта у людей среднего возраста, припоминая подобные случаи среди своих знакомых.
-
Эффект контекста
Эффект контекста используется маркетологами для того, чтобы спровоцировать вас на покупку чего-то, что вам вовсе не нужно. Именно поэтому выкладка товара в магазине делается не просто для удобства, а с обязательным использованием эффекта контекста.
Одна дама сумела чрезвычайно выгодно продать свою квартиру потому, что перед приездом покупателя она готовила ароматные сдобные булочки. Входя в свою потенциальную квартиру, клиент ощущал тепло и такой приятный домашний аромат, что мозг просто не мог не попасть в ловушку контекста.
Таким образом, при помощи этого нехитрого когнитивного искажения ловкая барышня сумела провернуть выгодную сделку.
-
Склонность к негативу
Мы подсознательно переоцениваем значение отрицательных вещей. Собственно именно по этой причине плохие новости всегда будут иметь гораздо бо́льшую аудиторию, чем хорошие.
Не случайно слова журналистки известной новостной службы «Редакция требует крови!» стали мемом и вовсе не так далеки от действительности. Редакции действительно нужно «больше крови», так как это гарантирует кратное увеличение просмотров.
-
Эффект якоря
Эффект якоря – это особенность оценки числовых значений, которая смещает оценку в сторону начального приближения.
Например, вам нужно купить пальто. Вы заходите в магазин, находите подходящую вам модель, а после примерки узнаете, что она стоит 500$. Для вас это дорого, и вы уже собираетесь уходить, как вдруг к вам подбегает консультант.
Уточнив, подошло ли вам пальто, консультант говорит, что это уникальная серия, состоящая из всего 80 экземпляров. Более того, на эту модель сегодня действует скидка «Минус 50%».
Именно здесь и срабатывает эффект якоря, роль которого в данном случае играет число 500. С большой долей вероятности клиент в такой ситуации совершит покупку, даже не задумываясь о том, что для такого пальто даже 250$ – большая цена.
Интересен факт, что эффект якоря работает вне зависимости от того, знаете вы о нем, или нет. То же самое наблюдается и с правилом взаимного обмена.
-
Эффект фрейминга
Эффект фрейминга (от англ. frame рамка, обрамление) – это когнитивное искажение, при котором форма подачи информации влияет на ее восприятие человеком.
В качестве классического примера данного эффекта нередко приводят выражение: «Стакан наполовину пуст или наполовину полон». Речь идет об одном и том же явлении, но отношение к нему из-за подачи информации меняется.
В одном из экспериментов участникам показывали видеозаписи с автомобильными авариями. После этого им задавали вопрос: «С какой скоростью ехали машины, когда столкнулись друг с другом?».
В каждой группе вопросы немного отличались: глагол «столкнулись» заменялся на «врезались», «налетели», «задели», «ударились».
В результате было установлено, что изменения в постановке вопроса оказывали влияние на оценку скорости автомобилей, несмотря на то, что всем респондентам показывали один и тот же ролик.
-
Восприятие выбора
Замечено, что сначала мы делаем выбор, а потом мозг пытается его оправдать. Причем чем бессмысленнее выбор, тем больше мы его защищаем.
В качестве примера можно привести попытки найти неявные плюсы в покупке и тем самым её оправдать при наличии другого, более подходящего товара, который по каким-то причинам не был приобретён.
К слову сказать, именно по этому принципу работают деструктивные секты и различные финансовые пирамиды. В какой-то степени этот эффект похож на стокгольмский синдром, когда жертва оправдывает агрессора. Кстати, мы уже рассказывали про 10 необычных психических синдромов в отдельной статье.
-
Предпочтение нулевого риска
Это предпочтение контролируемой, но потенциально более вредоносной (вследствие более частого её возникновения) ситуации перед обратной.
Происходит это по причине переоценки возможности контроля. То есть человек со своей стороны считает, что он полностью избавляется от риска (на самом деле не имея полного контроля), в то время как со стороны статистики это является снижением до нуля лишь одного, причем не самого большого риска.
Например, большинство людей предпочли бы уменьшить вероятность терактов до нуля вместо снижения аварийности на дорогах, даже несмотря на то, что второй эффект давал бы гораздо больше сохранённых жизней.
Или другой пример – ятрофобия (боязнь врачей). Многие люди боятся осложнений медицинских вмешательств больше, чем заболевания и смерти в результате самих этих заболеваний, которые возникают из-за отсутствия лечения.
-
Эффект морального доверия
Человек, относительно которого известно, что у него нет предубеждений, имеет в будущем большие шансы проявить эти предубеждения.
Иными словами, если все (в том числе и он сам) считают человека безгрешным, то возникает иллюзия, что любое его действие также будет безгрешным.
-
Селективное восприятие
Селективное восприятие (лат. selectio «выбирать») – это склонность людей уделять внимание тем элементам окружения, которые согласуются с их ожиданиями, и игнорировать остальные.
В классическом эксперименте зрители просматривали видео особо ожесточённого матча по американскому футболу между Принстонским университетом и Дартмутским колледжем.
Зрители из Принстона заметили почти в два раза больше нарушений, совершённых дартмутской командой, чем зрители из Дартмута. Один зритель из Дартмута вовсе не заметил ни одного нарушения со стороны «своей» команды.
Это когнитивное искажение также играет огромную роль в психологии рекламы.
-
Слепое пятно в отношении искажений
Последняя ошибка мышления, или когнитивное искажение, которое мы рассмотрим, – это слепое пятно в отношении искажений.
Это не что иное, как более лёгкое обнаружение недостатков у других людей, нежели у себя. То есть, все перечисленные когнитивные искажения присутствуют у каждого человека, однако мы «в чужом глазу видим соринку, а в своём и бревна не замечаем».
Наверняка и после прочтения этой статьи у большинства зрителей появится ощущение, что я, дескать, знаю все это и так, и, конечно же, меня все эти когнитивные искажения не касаются. На самом же деле они касаются всех.
Но теперь возникает закономерный вопрос: что же делать со всеми этими ошибками? Ответ прост: перечитывайте статью и вникайте в суть перечисленных когнитивных искажений или ошибок мышления.
Чем больше вы будете осознавать факт существования когнитивных искажений, тем больше вероятность, что вы будете принимать правильные решения и делать верный выбор.
Теперь вы знаете, что такое когнитивные искажения и как они влияют на нашу жизнь. Если вам понравилась статья, – поделитесь ею с друзьями и подписывайтесь на сайт interesnyefakty.org. С нами всегда интересно!
Понравился пост? Нажми любую кнопку:
Статистическая формальная ошибка
Ошибка базовой ставки, также называемая базовой пренебрежение оценкой или отклонение базовой ставки, является ошибкой. При представлении связанной информации базовой ставки (т. Е. Общей информации о распространенности) и конкретной информации (т. Е. Информации, относящейся только к конкретному случаю) люди склонны игнорировать базовую ставку в пользу индивидуальной информации, вместо правильного объединения двух.
Пренебрежение базовой скоростью — это конкретная форма более общего пренебрежения расширением.
Содержание
- 1 Ложноположительный парадокс
- 2 Примеры
- 2.1 Пример 1: Болезнь
- 2.1.1 Население с высокой заболеваемостью
- 2.1.2 Население с низкой заболеваемостью
- 2.2 Пример 2: Водители в нетрезвом виде
- 2.3 Пример 3: Идентификация террористов
- 2.1 Пример 1: Болезнь
- 3 Выводы по психологии
- 4 См. Также
- 5 Ссылки
- 6 Внешние ссылки
Парадокс ложных срабатываний
Примером ошибки базовой ставки является то, насколько удивлены люди парадоксом ложных срабатываний, ситуации, когда имеется больше ложноположительных результатов теста, чем истинно-положительных. Например, это может быть так, что из 1000 человек, прошедших тестирование на инфекцию, 50 из них дали положительный результат на наличие инфекции, но это связано с тем, что у 10 действительно она была и у 40 ошибочных результатов тестов, потому что только 10 человек из тех, кто прошел тестирование, действительно инфицированы. но тест иногда дает ложные результаты. Вероятность положительного результата теста определяется не только точностью теста, но и характеристиками выборки. Когда распространенность, доля тех, у кого есть данное заболевание, ниже, чем уровень ложноположительных результатов теста, даже тесты, которые имеют очень низкий шанс дать ложноположительный результат в отдельном случае, будут давать больше ложных результатов. чем истинных положительных результатов в целом. Парадокс удивляет большинство людей.
Это особенно противоречит интуиции при интерпретации положительного результата теста на низкой распространенности популяции после того, как имеешь дело с положительными результатами, полученными из высокой распространенности. численность населения. Если ложноположительный уровень теста выше, чем доля новой популяции с заболеванием, то администратор теста, чей опыт был получен в результате тестирования в популяции с высокой распространенностью, может сделать вывод из Опыт, что положительный результат теста обычно указывает на положительный результат, тогда как на самом деле ложноположительный результат гораздо более вероятен.
Примеры
Пример 1: Болезнь
Население с высокой заболеваемостью
Количество. людей | Инфицированные | Незараженные | Всего |
---|---|---|---|
Тест. положительный | 400. (истинно положительный) | 30. (ложноположительный) | 430 |
Тест. отрицательный | 0. (ложноотрицательный) | 570. (истинно отрицательный) | 570 |
Всего | 400 | 600 | 1000 |
Представьте, что вы проводите тест на инфекционное заболевание в популяции A из 1000 человек, 40% из которых инфицированы. Уровень ложноположительных результатов теста составляет 5% (0,05), а количество ложноотрицательных результатов отсутствует. ожидаемый результат из 1000 тестов в популяции A будет:
- инфицировано, и тест указывает на болезнь (истинно положительный )
- 1000 × 40/100 = 400 человек получат истинно положительный результат
- Незараженные и тест указывает на болезнь (ложноположительный)
- 1000 × 100 — 40/100 × 0,05 = 30 человек получат ложноположительный результат
- Остальные 570 тестов правильно отрицательны.
Итак, в популяции A человек, получивший положительный результат теста, может быть уверен более чем на 93% (400/30 + 400), что он правильно указывает на инфекцию.
Население с низкой заболеваемостью
Количество. людей | Зараженные | Неинфицированные | Всего |
---|---|---|---|
Тест. положительный | 20. (истинно положительный) | 49. (ложноположительный) | 69 |
Тест. отрицательный | 0. (ложноотрицательный) | 931. (истинно отрицательный) | 931 |
Итого | 20 | 980 | 1000 |
Теперь рассмотрим тот же тест, примененный к популяции B, в которой инфицировано только 2%. ожидаемый результат 1000 тестов в популяции B будет:
- Заражено a -й тест указывает на болезнь (истинно положительный )
- 1000 × 2/100 = 20 человек получат истинно положительный результат
- Неинфицированные, а тест указывает на болезнь (ложноположительный)
- 1000 × 100 — 2 / 100 × 0,05 = 49 человек получат ложноположительный результат
- Остальные 931 (= 1000 — (49 + 20)) теста являются правильно отрицательными.
В популяции B только 20 из 69 человек с положительным результатом теста результат действительно заражены. Таким образом, вероятность действительно заразиться после того, как кому-то сказали, что он инфицирован, составляет всего 29% (20/20 + 49) для теста, который в противном случае кажется «точным на 95%».
Тестировщик, имеющий опыт работы с группой A, может найти парадокс в том, что в группе B результат, который обычно правильно указывал на инфекцию, теперь обычно является ложноположительным. Смешение апостериорной вероятности заражения с априорной вероятностью получения ложноположительного результата является естественной ошибкой после получения угрожающего здоровью результата теста.
Пример 2: Пьяные водители
- У группы полицейских есть алкотестеры, показывающие ложное опьянение в 5% случаев, когда водитель трезв. Однако алкотестеры всегда обнаруживают по-настоящему пьяного человека. Один из тысячи водителей водит машину в нетрезвом виде. Предположим, полицейские наугад останавливают водителя, чтобы провести тест алкотестера. Это указывает на то, что водитель пьян. Мы предполагаем, что вы ничего о них не знаете. Насколько высока вероятность того, что они действительно пьяны?
Многие ответят как 95%, но правильная вероятность составляет около 2%.
Объяснение этому следующее: в среднем на каждую 1000 протестированных водителей
- 1 водитель находится в состоянии алкогольного опьянения, и 100% уверенности в том, что для этого драйвера существует истинно положительный результат теста, поэтому имеется 1 истинно положительный результат теста
- 999 водителей не находятся в состоянии алкогольного опьянения, и среди этих водителей имеется 5% ложноположительных результатов испытаний, поэтому имеется 49,95 ложноположительных результатов испытаний
Следовательно, вероятность того, что один из водители среди положительных результатов теста 1 + 49,95 = 50,95 действительно пьяны 1 / 50,95 ≈ 0,019627 { displaystyle 1 / 50.95 приблизительно 0,019627}.
Однако достоверность этого результата зависит от достоверности Из первоначального предположения, что полицейский остановил водителя действительно случайно, а не из-за плохого вождения. Если присутствовала та или иная непроизвольная причина остановки водителя, то в расчет также включается вероятность того, что водитель в состоянии алкогольного опьянения будет управлять автомобилем грамотно, а водитель в нетрезвом виде водит (не) компетентно.
Более формально такая же вероятность примерно 0,02 может быть установлена с помощью теоремы Байеса. Цель состоит в том, чтобы найти вероятность того, что водитель пьян, учитывая, что алкотестер показал, что он пьян, что может быть представлено как
- p (пьяный ∣ D) { displaystyle p ( mathrm {drunk} mid D)}
где D означает, что алкотестер показывает, что водитель пьян. Теорема Байеса говорит нам, что
- p (d r u n k ∣ D) = p (D ∣ d r u n k) p (d r u n k) p (D). { displaystyle p ( mathrm {drunk} mid D) = { frac {p (D mid mathrm {drunk}) , p ( mathrm {drunk})} {p (D)}}.}.
В первом абзаце нам сказали следующее:
- p (пьяный) = 0,001, { displaystyle p ( mathrm {drunk}) = 0,001,}
- p (трезвый) = 0,999, { displaystyle p ( mathrm {sober}) = 0,999,}
- p (D ∣ drunk) = 1,00, { displaystyle p (D mid mathrm {drunk}) = 1,00,}и
- p (D трезвый) = 0,05. { displaystyle p (D mid mathrm {sober}) = 0,05.}
Как видно из формулы, для теоремы Байеса требуется p (D), которую можно вычислить из предыдущих значений с помощью закон полной вероятности :
- p (D) = p (D ∣ пьяный) p (пьяный) + p (D ∣ трезвый) p (трезвый) { displaystyle p (D) = p (D mid mathrm {drunk}) , p ( mathrm {drunk}) + p (D mid mathrm {sober}) , p ( mathrm {sober})}
, что дает
- p (D) = (1,00 × 0,001) + (0,05 × 0,999) = 0,05095. { displaystyle p (D) = (1,00 times 0,001) + (0,05 times 0,999) = 0,05095.}
Подставляя эти числа в теорему Байеса, мы получаем, что
- p (drunk ∣ D) = 1,00 × 0,001 0,05095 = 0,019627. { displaystyle p ( mathrm {drunk} mid D) = { frac {1,00 times 0,001} {0,05095}} = 0,019627.}
Пример 3: идентификация террориста
В городе 1 миллион жителей пусть будет 100 террористов и 999 900 нетеррористов. Для упрощения примера предполагается, что все люди, присутствующие в городе, являются его жителями. Таким образом, базовая вероятность того, что случайно выбранный житель города является террористом, равна 0,0001, а базовая вероятность того, что этот же житель не является террористом, равна 0,9999. В попытке поймать террористов город устанавливает систему сигнализации с камерой наблюдения и автоматическим программным обеспечением для распознавания лиц.
. Программное обеспечение имеет два уровня отказов по 1%:
- Уровень ложных отрицательных результатов: если камера сканирует террориста, звонок будет звонить в 99% случаев, и он не будет звонить в 1% случаев.
- Частота ложных срабатываний: если камера сканирует человека, не являющегося террористом, звонок не будет звонит 99% времени, но он будет звонить 1% времени.
Предположим теперь, что житель вызывает тревогу. Какова вероятность того, что это террорист? Другими словами, что такое P (T | B), вероятность того, что террорист был обнаружен при звонке в колокол? Кто-то, делающий «ошибку базовой ставки», сделает вывод о том, что с вероятностью 99% обнаруженный человек является террористом. Хотя этот вывод кажется логичным, на самом деле это неверное рассуждение, и приведенный ниже расчет покажет, что вероятность того, что они террористы, на самом деле составляет около 1%, а не около 99%.
Заблуждение возникает из-за смешения природы двух разных уровней отказов. «Количество не-колоколов на 100 террористов» и «количество нетеррористов на 100 колоколов» не связаны между собой. Один не обязательно равен другому, и они даже не обязательно должны быть почти равными. Чтобы продемонстрировать это, представьте, что произойдет, если во втором городе, где террористов вообще нет, была бы установлена идентичная система сигнализации. Как и в первом городе, тревога звучит для 1 из каждых 100 обнаруженных жителей, не являющихся террористами, но, в отличие от первого города, тревога никогда не звучит для террористов. Таким образом, 100% всех случаев срабатывания сигнализации относятся к нетеррористам, но ложноотрицательный показатель даже не может быть подсчитан. «Число нетеррористов на 100 колоколов» в этом городе равно 100, но P (T | B) = 0%. При звонке в колокол вероятность того, что террорист был обнаружен, равна нулю.
Представьте себе, что перед камерой проходит весь миллион жителей первого города. Около 99 из 100 террористов вызовут тревогу, равно как и около 9 999 из 999 900 нетеррористов. Таким образом, тревогу сработают около 10 098 человек, среди которых около 99 — террористы. Таким образом, вероятность того, что человек, вызвавший тревогу, на самом деле является террористом, составляет всего около 99 из 10 098, что меньше 1% и очень, очень сильно ниже нашего первоначального предположения в 99%.
Ошибка базовой ставки в этом примере вводит в заблуждение, потому что нетеррористов намного больше, чем террористов, а количество ложных срабатываний (нетеррористы сканируются как террористы) намного больше, чем истинных срабатываний ( реальное количество террористов).
Выводы по психологии
В ходе экспериментов было обнаружено, что люди предпочитают индивидуальную информацию общей информации, когда первая доступна.
В некоторых экспериментах студентов просили оценить средний балл (GPA) гипотетических студентов. Получая соответствующую статистику о распределении среднего балла, учащиеся, как правило, игнорировали ее, если давали описательную информацию о конкретном учащемся, даже если новая описательная информация явно не имела отношения к успеваемости в школе или не имела никакого отношения к ней. Этот вывод был использован, чтобы доказать, что собеседования являются ненужной частью процесса поступления в колледж, потому что интервьюеры не могут выбрать успешных кандидатов лучше, чем базовая статистика.
Психологи Дэниел Канеман и Амос Тверски попытались объяснить это открытие с помощью простого правила или «эвристики», называемого репрезентативностью.. Они утверждали, что многие суждения, касающиеся вероятности или причины и следствия, основаны на том, насколько одно репрезентативно для другого или для категории. Канеман считает, что пренебрежение базовой ставкой является особой формой пренебрежения расширением. Ричард Нисбетт утверждал, что некоторые предубеждения при атрибуции, такие как фундаментальная ошибка атрибуции являются примерами ошибки базовой ставки: люди не используют «консенсусную информацию» («базовую оценку») о том, как другие вели себя в аналогичных ситуациях, а вместо этого предпочитают более простые диспозиционные атрибуции.
В психологии ведутся серьезные споры об условиях, при которых люди ценят или не ценят информацию о базовой ставке. Исследователи программы эвристики и систематических ошибок подчеркнули эмпирические данные, показывающие, что люди склонны игнорировать базовые ставки и делать выводы, нарушающие определенные нормы вероятностного рассуждения, такие как теорема Байеса. Вывод, сделанный на основании этого направления исследований, заключался в том, что вероятностное мышление человека в корне ошибочно и подвержено ошибкам. Другие исследователи подчеркнули связь между когнитивными процессами и форматами информации, утверждая, что такие выводы обычно не являются обоснованными.
Еще раз рассмотрим пример 2, приведенный выше. Требуемый вывод заключается в оценке (апостериорной) вероятности того, что (случайно выбранный) водитель находится в состоянии алкогольного опьянения, при условии, что тест алкотестера положительный. Формально эту вероятность можно рассчитать с помощью теоремы Байеса, как показано выше. Однако существуют разные способы представления соответствующей информации. Рассмотрим следующий формально эквивалентный вариант проблемы:
- 1 из 1000 водителей водит машину в нетрезвом виде. Алкотестеры никогда не перестают определять по-настоящему пьяного человека. Для 50 из 999 водителей, не находящихся в состоянии алкогольного опьянения, алкотестер ложно показывает состояние опьянения. Предположим, полицейские наугад останавливают водителя и заставляют его пройти тест алкотестера. Это указывает на то, что они пьяны. Мы предполагаем, что вы ничего о них не знаете. Насколько высока вероятность, что они действительно пьяны?
В этом случае соответствующая числовая информация — p (пьяный), p (D | пьяный), p (D | трезвый) — представлена в виде собственных частот относительно к определенному эталонному классу (см. проблема эталонного класса ). Эмпирические исследования показывают, что выводы людей в большей степени соответствуют правилу Байеса, когда информация представлена таким образом, что помогает преодолеть пренебрежение базовой оценкой со стороны непрофессионалов и экспертов. Как следствие, такие организации, как Cochrane Collaboration, рекомендуют использовать такой формат для передачи статистики здравоохранения. Учить людей переводить подобные байесовские задачи мышления в форматы собственных частот более эффективно, чем просто учить их подставлять вероятности (или проценты) в теорему Байеса. Также было показано, что графическое представление собственных частот (например, массив значков) помогает людям делать более точные выводы.
Почему полезны форматы собственных частот? Одна из важных причин заключается в том, что этот формат информации облегчает требуемый вывод, поскольку упрощает необходимые вычисления. Это можно увидеть, используя альтернативный способ вычисления требуемой вероятности p (пьяный | D):
- p (пьян ∣ D) = N (пьян ∩ D) N (D) = 1 51 = 0,0196 { displaystyle p ( mathrm {drunk} mid D) = { frac {N ( mathrm {drunk} cap D)} {N (D)}} = { frac {1} {51}} = 0,0196}
где N (пьяный ∩ D) обозначает количество пьяных водителей, получивших положительный результат алкотестера, а N (D) обозначает общее количество случаев с положительным результатом алкотестера. Эквивалентность этого уравнения предыдущему следует из аксиом теории вероятностей, согласно которой N (drunk ∩ D) = N × p (D | drunk) × p (drunk). Важно отметить, что хотя это уравнение формально эквивалентно правилу Байеса, психологически оно не эквивалентно. Использование собственных частот упрощает вывод, поскольку требуемая математическая операция может выполняться с натуральными числами, а не с нормализованными дробями (т. Е. Вероятностями), поскольку это делает большое количество ложных срабатываний более прозрачным, и поскольку собственные частоты демонстрируют «вложенный набор» структура «.
Не каждый частотный формат позволяет использовать байесовские рассуждения. Собственные частоты относятся к информации о частоте, которая является результатом естественной выборки, которая сохраняет информацию о базовой скорости (например, количество пьяных водителей при выборке случайной выборки водителей). Это отличается от систематической выборки, в которой базовые ставки фиксируются априори (например, в научных экспериментах). В последнем случае невозможно вывести апостериорную вероятность p (пьяный | положительный тест) из сравнения количества пьяных водителей с положительным результатом теста по сравнению с общим количеством людей, получивших положительный результат алкотестера, потому что информация о базовой скорости не сохраняется и должен быть явно повторно введен с использованием теоремы Байеса.
См. Также
- Байесовская вероятность
- Теорема Байеса
- Извлечение данных
- Индуктивный аргумент
- Список когнитивных предубеждений
- Список парадоксов
- Вводящая в заблуждение яркость
- Парадокс предотвращения
- Заблуждение прокурора, ошибка в рассуждениях, включающая игнорирование низкой априорной вероятности
- парадокса Симпсона, еще одна ошибка в статистических рассуждениях, касающихся сравнения групп
- стереотип
Ссылки
Внешние ссылки
- Ошибка базовой ставки Файлы ошибок
Пару дней назад я опубликовал в группе RationalAnswer ВКонтакте несложную, казалось бы, задачку. Привожу ее здесь целиком:
Давайте представим, что в вашей инвестиционной вселенной есть только два доступных инструмента – условно безрисковые облигации и условно рискованные акции. Облигации каждый год гарантированно приносят доходность 5%. Акции же обычно приносят доход в размере 30%, но не всегда: в 5% случаев (то есть, примерно раз в 20 лет) наступает кризис, и акции падают в цене на те же 30%.
Перед вами стоит выбор – в какой из инструментов вложить накопленный миллион рублей. Внезапно вам звонит друг – известный финансовый аналитик – и говорит, что по его прогнозу в этом году ожидается крах рынка акций. Вы знаете, что ваш друг – умный человек, но на всякий случай решаете проверить точность его прогнозов (к счастью, их архив доступен аж за сто последних лет). Проверив все его предыдущие предсказания, вы обнаруживаете, что средняя их точность составляет 80%: то есть, если взять все годы, когда рынок в итоге падал, то он правильно предсказал 80% из них; аналогично, если рассмотреть все годы роста рынка акций, то из них аналитик предугадал так же 80%.
Внимание, вопрос: в какой из двух инструментов вы вложитесь в этом году? В дополнение к этому, посчитайте пожалуйста ожидаемую доходность рынка акций на год вперед, исходя из всей имеющейся информации.
Прежде чем читать дальше, потратьте одну-две минуты на то, чтобы прикинуть, какой ответ вам кажется наиболее логичным.
Парадокс незадачливого предсказателя
На первый взгляд, правильное решение кажется очевидным. Если эксперт предсказывает крах фондового рынка, и он оказывается прав в 80% случаев – то от акций нужно держаться как можно дальше. В конце концов, математическое ожидание их доходности получается отрицательным: –30% х 0,8 + 30% х 0,2 = –18%. Несмотря на то, что в целом рынок акций по условиям задачи является довольно стабильным (падает всего в 5% случаев), новая полученная информация про конкретный год заставляет нас предпочесть более безопасный (хоть и гораздо менее доходный в среднем) актив. Логично?
Не совсем. Давайте разбираться на примере исторического «послужного списка» нашего аналитика. По условиям задачи, за прошедшие 100 лет должно было произойти 5 крахов и 95 успешных для акций лет. Из 5 крахов аналитик предсказал 4 (80%), и для 1 случая ошибся. Из 95 доходных лет эксперт предсказал 76 (тоже 80%), и для 19 доходных периодов он ошибочно предрекал падение рынка. Чуете, куда дует ветер? Если сложить вместе все периоды, когда аналитик предсказывал падение рынка (4 + 19 = 23), то правильными из этих предсказаний окажется всего 17% (4 из 23).
То есть, аналитик легко мог добиться точности своих предсказаний в 95%, если все 100 лет всегда предсказывал бы неизменную доходность рынка на уровне +30%. Но это показалось ему неинтересным, поэтому он периодически пытался спрогнозировать крах – он действительно смог поймать большинство из них (4 из 5), но ценой того, что множество раз (19) предсказывал крах, которого не происходило. Общая же совокупная точность всех его прогнозов в результате снизилась с 95% до 80%.
Таким образом, даже зная отрицательный прогноз нашего «умного» аналитика, вероятность убыточного ближайшего года поднимается с 5% до всего лишь 17%, а не 80%, как хочется предположить интуитивно. И ожидаемая доходность рынка акций составляет –30% х 0,17 + 30% х 0,83 = 20%. В четыре раза больше, чем доходность по облигациям в размере 5%! Мне кажется, выбор инвестиционного актива в данном случае напрашивается довольно однозначный.
Что такое ошибка базового уровня
Если вы решили задачу выше неправильно, не расстраивайтесь: человеческий мозг очень плохо интуитивно понимает статистику и вероятности, поэтому большинство людей ошибаются в подобных ситуациях. Даже среди практикующих врачей (уж точно проходивших курс статистики в колледже) согласно некоторым исследованиям только примерно 20% могут найти правильный ответ.
В общем случае ошибка базового уровня формулируется следующим образом: это ошибка в мышлении, когда сталкиваясь с общей информацией о частоте некоторого события (базовый уровень) и специфической информацией об этом событии, человек имеет склонность игнорировать первое и фокусироваться на втором.
Мы этого чаще всего не замечаем, но ошибка базового уровня может мешать вам принимать правильные решения в целом ряде областей, которые так или иначе связаны со случайностью и вероятностями. Назову лишь несколько примеров:
- Медицина: если вы проходили скрининг на выявление какого-либо заболевания, которое встречается примерно в 1% случаев (базовый уровень), и тест с точностью 90% показал положительный результат (наличие болезни), то еще не все пропало. Вероятность того, что вы действительно больны, составляет всего 10% (необходимо делать дополнительные, более точные тесты).
- ЗОЖ: если курение сокращает продолжительность жизни в среднем на 10 лет, то не стоит считать, что к вам это не будет относиться, так как ваш дед «курил до 80 лет, и ему всё было нипочем».
- Азартные игры: игрок в рулетку, который выиграл несколько раз подряд, начинает верить в свою «полосу везения» – вместо того, чтобы действовать в соответствии с базовой вероятностью выиграть у казино (увы, крайне невысокой).
- Инвестиции: люди склонны игнорировать тот факт, что акции приносят наибольшую долгосрочную доходность, и вкладывают деньги либо в то, что росло в последние несколько лет (биткоины?), либо в более безопасные, но низкодоходные активы («в этом году рынок акций упадет, уж лучше пусть мои деньги на депозите полежат»).
Как избежать ошибки?
Жизнь, к сожалению, гораздо сложнее любых задач – вам практически никогда не выдадут в разделе «дано» все необходимые данные, чтобы «вычислить» правильный ответ исходя из теории вероятностей. Поэтому я не буду советовать вам изучать статистику, учиться применять теорему Байеса и всякие другие вещи (делать которые вы все равно, конечно, не будете).
Но попробовать немного поменять свое мышление, мне кажется, будет полезным. В следующий раз, когда вы будете рассматривать какую-либо ситуацию, требующую принятия решения в условиях неопределенности, начните с другого конца: не со специфической информации, а с базового уровня. Попробуйте выяснить, чего стоит ожидать по данному вопросу на очень больших выборках, на очень длинных промежутках времени. И примите это как базовую точку прогноза того, чего стоит ожидать лично вам.
Если у вас есть какая-либо дополнительная специфическая информация – ее тоже можно учесть, но чаще всего она не должна кардинально поменять ситуацию по сравнению с базовым уровнем. Помните, что люди всегда склонны переоценивать влияние специфических факторов – поэтому, если вам хочется на их основании не чуть-чуть сдвинуть чашу весов, а полностью поменять их баланс, то в этот момент нужно проявить особую ментальную бдительность.
(Visited 4 170 times, 1 visits today)
Ошибка базовой ставки , также называемая пренебрежением базовой ставкой [1] или предвзятостью базовой ставки , является типом ошибки . При представлении связанной базовой информации (т. е. общей информации о распространенности) и конкретной информации (т. е. информации, относящейся только к конкретному случаю) люди, как правило, игнорируют базовую частоту в пользу индивидуализирующей информации, вместо того чтобы правильно интегрировать две эти информации. . [2]
Пренебрежение базовой ставкой является особой формой более общего пренебрежения расширением .
Ложноположительный парадокс
Примером ошибки базовой ставки является парадокс ложного срабатывания . Этот парадокс описывает ситуации, когда ложноположительных результатов теста больше, чем истинно положительных. Например, если камера распознавания лиц может идентифицировать разыскиваемых преступников с точностью 99%, но анализирует 10 000 человек в день, высокая точность перевешивается количеством тестов, и в списке преступников программы, вероятно, будет гораздо больше ложных срабатываний, чем истинных. Вероятность положительного результата теста определяется не только точностью теста, но и характеристиками выборочной совокупности. [3] Когда распространенность, доля тех, у кого есть данное заболевание, ниже, чем ложноположительный результат теста .скорость, даже тесты, которые имеют очень низкую вероятность дать ложноположительный результат в отдельном случае , в целом дадут больше ложноположительных результатов, чем истинноположительных . [4] Этот парадокс удивляет большинство людей. [5]
Это особенно нелогично при интерпретации положительного результата теста в популяции с низкой распространенностью после того, как вы имели дело с положительными результатами, полученными в популяции с высокой распространенностью. [4] Если частота ложноположительных результатов теста выше, чем доля новой популяции с этим заболеванием, то администратор теста, имеющий опыт тестирования в популяции с высокой распространенностью, может на основании своего опыта сделать вывод , что положительный результат теста обычно указывает на положительный объект, когда на самом деле гораздо более вероятно, что ложный положительный результат имел место.
Примеры
Пример 1: Болезнь
высокой
Количество человек |
Зараженный | Незараженный | Всего |
---|---|---|---|
Положительный тест |
400 (истинно положительный) |
30 (ложноположительный результат) |
430 |
Тест отрицательный |
0 (ложноотрицательный) |
570 (истинно отрицательный) |
570 |
Всего |
400 | 600 |
1000 |
Представьте себе проведение теста на инфекционное заболевание в популяции А из 1000 человек, из которых 40% инфицированы. Тест имеет ложноположительный уровень 5% (0,05) и не имеет ложноотрицательного результата. Ожидаемый результат 1000 тестов на популяции А будет следующим:
- Инфицирован и тест указывает на заболевание ( истинно положительный )
- 1000 ×40/100= 400 человек получили бы настоящий положительный результат
- Неинфицированный и тест указывает на заболевание (ложноположительный)
- 1000 ×100 – 40/100× 0,05 = 30 человек получат ложноположительный результат
- Остальные 570 тестов правильно отрицательные.
Таким образом, в популяции А человек, получивший положительный результат теста, может быть уверен более чем на 93% (400/30 + 400), что это правильно указывает на инфекцию.
низкой
Количество человек |
Зараженный | Незараженный | Всего |
---|---|---|---|
Положительный тест |
20 (истинно положительный) |
49 (ложноположительный) |
69 |
Тест отрицательный |
0 (ложноотрицательный) |
931 (истинно отрицательный) |
931 |
Всего |
20 | 980 |
1000 |
Теперь рассмотрим тот же тест, примененный к популяции B , в которой инфицировано только 2%. Ожидаемый результат 1000 тестов на популяции B будет следующим:
- Инфицирован и тест указывает на заболевание ( истинно положительный )
- 1000 ×2/100= 20 человек получат истинно положительный
- Неинфицированный и тест указывает на заболевание (ложноположительный)
- 1000 ×100 – 2/100× 0,05 = 49 человек получат ложноположительный результат
- Остальные 931 (= 1000 — (49 + 20)) тесты правильно отрицательные.
В популяции B только 20 из 69 человек с положительным результатом теста действительно инфицированы. Таким образом, вероятность действительно заразиться после того, как человеку сказали, что он заражен, составляет всего 29% (20/20 + 49) для теста, который в противном случае кажется «95% точным».
Тестер, имеющий опыт работы с группой А , может счесть парадоксом то, что в группе В результат, который обычно правильно указывал на инфекцию, теперь обычно оказывается ложноположительным . Смешение апостериорной вероятности заражения с априорной вероятностью получения ложноположительного результата является естественной ошибкой после получения опасного для здоровья результата теста.
Пример 2: Пьяные водители
- У группы полицейских есть алкотестер , показывающий ложное опьянение в 5% случаев, когда водитель трезв. Тем не менее, алкотестеры всегда обнаруживают действительно пьяного человека. Один из тысячи водителей ездит пьяным. Предположим, что полицейские затем останавливают водителя наугад, чтобы провести тест на алкотестер. Это говорит о том, что водитель пьян. Мы предполагаем, что вы больше ничего о них не знаете. Насколько высока вероятность того, что они действительно пьяны?
Многие ответили бы, что 95 %, но правильная вероятность составляет около 2 %.
Объяснение этому следующее: в среднем на каждую 1000 протестированных водителей
- 1 водитель пьян, и на 100% уверен, что для этого водителя действительно положительный результат теста, поэтому есть 1 истинно положительный результат теста
- 999 водителей не пьяны, и среди этих водителей 5% ложноположительных результатов тестов, то есть 49,95 ложноположительных результатов тестов
Следовательно, вероятность того, что один из водителей среди 1 + 49,95 = 50,95 положительных результатов теста действительно пьян, равна.
Однако достоверность этого результата зависит от достоверности первоначального предположения о том, что полицейский остановил водителя действительно наугад, а не из-за плохого вождения. Если та или иная непроизвольная причина остановки водителя присутствовала, то в расчет также включается вероятность того, что водитель в нетрезвом виде управлял транспортным средством грамотно, а водитель в нетрезвом виде управлял (не)грамотно.
Более формально ту же вероятность примерно 0,02 можно установить с помощью теоремы Байеса . Цель состоит в том, чтобы найти вероятность того, что водитель пьян, учитывая, что алкотестер показал, что он пьян, что можно представить в виде
где D означает, что алкотестер показывает, что водитель пьян. Теорема Байеса говорит нам, что
В первом абзаце нам сказали следующее:
- а также
Как видно из формулы, для теоремы Байеса требуется p ( D ), которую можно вычислить из предыдущих значений, используя закон полной вероятности :
который дает
Подставляя эти числа в теорему Байеса, можно обнаружить, что
Пример 3: Идентификация террориста
Пусть в городе с миллионным населением будет 100 террористов и 999 900 нетеррористов. Для упрощения примера предполагается, что все люди, присутствующие в городе, являются его жителями. Таким образом, базовая вероятность того, что случайно выбранный житель города окажется террористом, равна 0,0001, а базовая вероятность того, что тот же житель не является террористом, равна 0,9999. Пытаясь поймать террористов, город устанавливает систему сигнализации с камерой наблюдения и программным обеспечением для автоматического распознавания лиц .
Программное обеспечение имеет две частоты отказов по 1%:
- Частота ложноотрицательных результатов: если камера сканирует террориста, в 99% случаев прозвенит звонок, а в 1% случаев он не прозвонит.
- Частота ложных срабатываний: если камера сканирует нетеррориста, звонок не будет звонить в 99% случаев, но он будет звонить в 1% случаев.
Предположим теперь, что житель включает тревогу. Какова вероятность того, что этот человек террорист? Другими словами, какова вероятность P(T | B) обнаружения террориста при звонке в колокол? Кто-то, делающий «ошибку базовой ставки», сделает вывод, что с вероятностью 99% обнаруженный человек является террористом. Хотя вывод кажется логичным, на самом деле это ошибочное рассуждение, и приведенный ниже расчет покажет, что вероятность того, что они террористы, на самом деле составляет около 1%, а не около 99%.
Заблуждение возникает из-за смешения природы двух разных коэффициентов отказов. «Количество незвонков на 100 террористов» и «количество нетеррористов на 100 колоколов» — не связанные между собой величины. Одно не обязательно равно другому, и они даже не обязательно должны быть почти равными. Чтобы показать это, представьте, что произойдет, если идентичная система сигнализации будет установлена во втором городе, где вообще нет террористов. Как и в первом городе, тревога звучит для 1 из каждых 100 обнаруженных нетеррористических жителей, но, в отличие от первого города, для террориста тревога не звучит никогда. Таким образом, 100% всех случаев срабатывания сигнализации приходится на нетеррористов, а процент ложных срабатываний даже не подсчитывается. «Количество нетеррористов на 100 колоколов» в этом городе равно 100, но P(T | B) = 0%.
Представьте, что перед камерой проходит весь первый город с населением в один миллион человек. Около 99 из 100 террористов поднимут тревогу, как и около 9 999 из 999 900 нетеррористов. Таким образом, тревогу вызовут около 10 098 человек, среди которых около 99 будут террористами. Таким образом, вероятность того, что человек, поднявший тревогу, на самом деле является террористом, составляет всего около 99 из 10 098, что составляет менее 1% и очень, очень много ниже нашего первоначального предположения в 99%.
Ошибка базового уровня в этом примере настолько вводит в заблуждение, потому что нетеррористов гораздо больше, чем террористов, а количество ложных срабатываний (нетеррористов, отсканированных как террористы) намного больше, чем истинных срабатываний (террористов, отсканированных как террористы).
Находки в психологии
В экспериментах было обнаружено, что люди предпочитают индивидуальную информацию общей информации, когда первая доступна. [6] [7] [8]
В некоторых экспериментах студентов просили оценить средние баллы (GPA) гипотетических студентов. Когда учащиеся получали релевантные статистические данные о распределении среднего балла, они, как правило, игнорировали их, если им давали описательную информацию о конкретном учащемся, даже если новая описательная информация явно не имела никакого отношения к успеваемости в школе. [7] Этот вывод использовался для утверждения, что собеседования являются ненужной частью процесса приема в колледж , потому что интервьюеры не могут выбрать успешных кандидатов лучше, чем базовая статистика.
Психологи Дэниел Канеман и Амос Тверски попытались объяснить это открытие с помощью простого правила или «эвристики» , называемой репрезентативностью . Они утверждали, что многие суждения, касающиеся вероятности или причины и следствия, основаны на том, насколько одна вещь репрезентативна для другой или категории. [7] Канеман считает пренебрежение базовой ставкой особой формой пренебрежения расширением . [9] Ричард Нисбетт утверждал, что некоторые предубеждения атрибуции , такие как фундаментальная ошибка атрибуцииявляются примерами ошибки базовой нормы: люди не используют «консенсусную информацию» («базовую норму») о том, как другие вели себя в подобных ситуациях, и вместо этого предпочитают более простые диспозиционные атрибуции . [10]
В психологии ведутся серьезные споры об условиях, при которых люди ценят или не ценят информацию о базовой норме. [11] [12] Исследователи программы «Эвристика и предубеждения» подчеркивают эмпирические данные, показывающие, что люди склонны игнорировать базисные нормы и делать выводы, нарушающие определенные нормы вероятностных рассуждений, такие как теорема Байеса . Вывод, сделанный из этого направления исследований, заключался в том, что человеческое вероятностное мышление в корне ошибочно и подвержено ошибкам. [13] Другие исследователи подчеркивали связь между когнитивными процессами и информационными форматами, утверждая, что такие выводы обычно необоснованны. [14] [15]
Рассмотрим снова Пример 2 сверху. Требуемый вывод состоит в том, чтобы оценить (апостериорную) вероятность того, что (выбранный случайным образом) водитель пьян, при условии, что тест алкотестера положительный. Формально эту вероятность можно вычислить с помощью теоремы Байеса , как показано выше. Однако существуют различные способы представления соответствующей информации. Рассмотрим следующий формально эквивалентный вариант задачи:
- 1 из 1000 водителей ездит пьяным. Алкотестеры всегда обнаруживают действительно пьяного человека. У 50 из 999 непьющих водителей алкотестер ложно показывает состояние опьянения. Предположим, что затем полицейские наугад останавливают водителя и заставляют его пройти тест на содержание алкоголя в крови. Это указывает на то, что они пьяны. Мы предполагаем, что вы больше ничего о них не знаете. Насколько высока вероятность того, что они действительно пьяны?
В этом случае соответствующая числовая информация — p (пьяный), p ( D | пьяный), p ( D | трезвый) — представлена в терминах собственных частот по отношению к определенному эталонному классу (см . Проблема эталонного класса ). Эмпирические исследования показывают, что выводы людей более точно соответствуют правилу Байеса, когда информация представлена таким образом, что помогает преодолеть игнорирование базовых показателей у неспециалистов [15] и экспертов. [16] Как следствие, такие организации, как Cochrane Collaboration , рекомендуют использовать такой формат для передачи статистики здравоохранения. [17]Научить людей переводить такого рода байесовские логические задачи в форматы с естественной частотой более эффективно, чем просто научить их подставлять вероятности (или проценты) в теорему Байеса. [18] Также было показано, что графическое представление собственных частот (например, массивы значков) помогает людям делать более точные выводы. [18] [19] [20]
Чем полезны форматы собственных частот? Одна важная причина заключается в том, что этот формат информации облегчает требуемый вывод, поскольку упрощает необходимые вычисления. Это можно увидеть при использовании альтернативного способа вычисления искомой вероятности p (пьяный | D ):
где N (пьяный ∩ D ) обозначает количество пьяных водителей с положительным результатом алкотестера, а N ( D ) обозначает общее количество случаев с положительным результатом алкотестера. Эквивалентность этого уравнения приведенному выше следует из аксиом теории вероятностей, согласно которым N (пьяный ∩ D ) = N × p ( D | пьяный) × p(пьяный). Важно отметить, что хотя это уравнение формально эквивалентно правилу Байеса, психологически оно не эквивалентно ему. Использование собственных частот упрощает вывод, потому что требуемая математическая операция может выполняться над натуральными числами вместо нормализованных дробей (т. структура». [21] [22]
Не каждый частотный формат облегчает байесовские рассуждения. [22] [23] Собственные частоты относятся к информации о частоте, полученной в результате естественной выборки , [24] которая сохраняет информацию о базовой частоте (например, количество пьяных водителей при взятии случайной выборки водителей). Это отличается от систематической выборки , в которой базовые уровни фиксированы априори (например, в научных экспериментах). В последнем случае невозможно вывести апостериорную вероятность p(пьяный | положительный тест) из сравнения количества пьяных водителей с положительным результатом теста по сравнению с общим количеством людей, получивших положительный результат алкотестера, поскольку информация о базовом уровне не сохраняется и должна быть явно повторно введена с использованием теоремы Байеса. .
Смотрите также
- Базовая ставка
- Байесовская вероятность
- теорема Байеса
- Выемка данных
- Индуктивный аргумент
- Список когнитивных искажений
- Список парадоксов
- Обманчивая яркость
- Парадокс предотвращения
- Ошибка прокурора , ошибка в рассуждениях, связанная с игнорированием низкой априорной вероятности .
- Парадокс Симпсона , еще одна ошибка в статистических рассуждениях при сравнении групп .
- Стереотип
- Интуитивная статистика
Ссылки
- ^ Валлийский, Мэтью Б.; Наварро, Дэниел Дж. (2012). «Видеть — значит верить: Приоры, доверие и пренебрежение базовой ставкой» . Организационное поведение и процессы принятия решений человеком . 119 (1): 1–14. doi : 10.1016/j.obhdp.2012.04.001 . hdl : 2440/41190 . ISSN 0749-5978 .
- ^ «Логическая ошибка: ошибка базовой ставки» . Fallacyfiles.org . Проверено 15 июня 2013 г. .
- ^ Райнфурт, Массачусетс; Хауэлл, LW (март 1998 г.). Вероятность и статистика в аэрокосмической технике (PDF) . НАСА . п. 16.
СООБЩЕНИЕ: Ложноположительные тесты более вероятны, чем истинно положительные тесты, когда распространенность заболевания в общей популяции низкая.
Это называется ложноположительным парадоксом.
- ^ a b Vacher, HL (май 2003 г.). «Количественная грамотность — тестирование на наркотики, скрининг рака и идентификация магматических пород» . Journal of Geoscience Education : 2.
На первый взгляд, это кажется извращенным: чем меньше студентов в целом используют
стероиды
, тем больше вероятность того, что студент, идентифицированный как пользователь, не будет их употреблять.
Это было названо парадоксом ложных срабатываний.
— Цитирование: Гоник, Л.; Смит, В. (1993). Карикатурный путеводитель по статистике . Нью-Йорк: Харпер Коллинз. п. 49.
- ↑ Мэдисон, Б.Л. (август 2007 г.). «Математические способности для гражданства» . В Schoenfeld, AH (ред.). Оценка математических способностей . Публикации Научно-исследовательского института математических наук (новое изд.). Издательство Кембриджского университета. п. 122. ISBN 978-0-521-69766-8.
Правильная [оценка вероятности…] многих удивляет; отсюда и термин парадокс .
- ^ Бар-Хиллель, Майя (1980). «Ошибка базовой нормы в вероятностных суждениях» (PDF) . Acta Psychologica . 44 (3): 211–233. doi : 10.1016/0001-6918(80)90046-3 .
- ^ a b c Канеман, Дэниел; Амос Тверски (1973). «О психологии предсказания». Психологический обзор . 80 (4): 237–251. дои : 10.1037/h0034747 . S2CID 17786757 .
- ^ Канеман, Дэниел; Амос Тверски (1985). «Доказательное влияние базовых ставок». В Даниэле Канемане, Поле Словике и Амосе Тверски (ред.). Суждение в условиях неопределенности: эвристика и предубеждения . Наука . Том. 185. стр. 153–160. doi : 10.1126/наука.185.4157.1124 . PMID 17835457 . S2CID 143452957 .
- ^ Канеман, Дэниел (2000). «Оценка мгновениями, прошлым и будущим». У Даниэля Канемана и Амоса Тверски (ред.). Выбор, ценности и фреймы . ISBN 0-521-62749-4.
- ^ Нисбетт, Ричард Э .; Э. Боргида; Р. Крэндалл; Х. Рид (1976). «Популярная индукция: информация не всегда информативна». В JS Carroll & JW Payne (ред.). Познание и социальное поведение . Том. 2. С. 227–236. ISBN 0-470-99007-4.
- ^ Келер, Дж. Дж. (2010). «Переосмысление ошибки базовой ставки: описательные, нормативные и методологические проблемы». Поведенческие и мозговые науки . 19 : 1–17. doi : 10.1017/S0140525X00041157 . S2CID 53343238 .
- ^ Барби, А. К.; Сломан, Южная Каролина (2007). «Базовое уважение: от экологической рациональности к двойственным процессам». Поведенческие и мозговые науки . 30 (3): 241–254, обсуждение 255–297. doi : 10.1017/S0140525X07001653 . PMID 17963533 . S2CID 31741077 .
- ^ Тверски, А .; Канеман, Д. (1974). «Суждение в условиях неопределенности: эвристика и предубеждения». Наука . 185 (4157): 1124–1131. Бибкод : 1974Sci…185.1124T . doi : 10.1126/наука.185.4157.1124 . PMID 17835457 . S2CID 143452957 .
- ^ Космидес, Леда; Джон Туби (1996). «Являются ли люди хорошими интуитивными статистиками в конце концов? Переосмысление некоторых выводов литературы о суждениях в условиях неопределенности». Познание . 58 : 1–73. CiteSeerX 10.1.1.131.8290 . doi : 10.1016/0010-0277(95)00664-8 . S2CID 18631755 .
- ^ a b Гигеренцер, Г .; Хоффраге, У. (1995). «Как улучшить байесовское мышление без инструкций: частотные форматы». Психологический обзор . 102 (4): 684. CiteSeerX 10.1.1.128.3201 . doi : 10.1037/0033-295X.102.4.684 .
- ^ Хоффраге, У .; Линдси, С .; Хертвиг, Р.; Гигеренцер, Г. (2000). «Медицина: передача статистической информации». Наука . 290 (5500): 2261–2262. doi : 10.1126/наука.290.5500.2261 . PMID 11188724 . S2CID 33050943 .
- ^ Акл, Э.А.; Оксман, AD; Херрин, Дж.; Вист, Джорджия; Терренато, И.; Сперати, Ф.; Костинюк, К.; Бланк, Д.; Шюнеманн, Х. (2011). Шюнеманн, Хольгер (ред.). «Использование альтернативных статистических форматов для представления рисков и снижения рисков» . Кокрановская база данных систематических обзоров (3): CD006776. doi : 10.1002/14651858.CD006776.pub2 . ПВК 6464912 . PMID 21412897 .
- ^ a b Седльмайер, П .; Гигеренцер, Г. (2001). «Обучение байесовским рассуждениям менее чем за два часа» . Журнал экспериментальной психологии: Общие . 130 (3): 380. doi : 10.1037/0096-3445.130.3.380 . hdl : 11858/00-001M-0000-0025-9504-E .
- ^ Брас, GL (2009). «Изобразительные представления в статистических рассуждениях». Прикладная когнитивная психология . 23 (3): 369–381. doi : 10.1002/acp.1460 . S2CID 18817707 .
- ^ Эдвардс, А .; Элвин, Г.; Малли, А. (2002). «Объяснение рисков: превращение числовых данных в значимые картинки» . БМЖ . 324 (7341): 827–830. doi : 10.1136/bmj.324.7341.827 . ПВК 1122766 . PMID 11934777 .
- ^ Джиротто, В .; Гонсалес, М. (2001). «Решение вероятностных и статистических задач: вопрос информационной структуры и формы вопроса». Познание . 78 (3): 247–276. doi : 10.1016/S0010-0277(00)00133-5 . PMID 11124351 . S2CID 8588451 .
- ^ б Хоффраг , У .; Гигеренцер, Г.; Краусс, С .; Мартиньон, Л. (2002). «Представление облегчает рассуждения: что такое собственные частоты, а что нет». Познание . 84 (3): 343–352. doi : 10.1016/S0010-0277(02)00050-1 . PMID 12044739 . S2CID 9595672 .
- ^ Гигеренцер, Г.; Хоффраге, У. (1999). «Преодоление трудностей в байесовских рассуждениях: ответ Льюису и Керен (1999) и Меллерсу и МакГроу (1999)» . Психологический обзор . 106 (2): 425. doi : 10.1037/0033-295X.106.2.425 . hdl : 11858/00-001M-0000-0025-9CB4-8 .
- ^ Кляйтер, Г.Д. (1994). «Естественная выборка: рациональность без базовых ставок». Вклад в математическую психологию, психометрию и методологию . Последние исследования в области психологии. стр. 375–388. doi : 10.1007/978-1-4612-4308-3_27 . ISBN 978-0-387-94169-1.
Внешние ссылки
- Ошибка базовой ставки Файлы ошибки
Список в Википедии насчитывает 175 когнитивных искажений. Конечно, это далеко не полный перечень тех способов, какими наш мозг обманывает сам себя. Такой обман совсем несложен, ведь значительная часть психических процессов у человека происходит без отображения в сознании. Таким образом, становится возможным обращаться напрямую к этим основным процессам, не задевая сознательную часть.
В работе с широкими массами профессионалы используют способы обхода механизма цензуры, который в мозге фильтрует информацию, поступающего из внешнего мира. Например, если усилить информацию эмоционально, то вербальное или невербальное послание легче пройдёт встроенные фильтры сознания и надолго сохранится в памяти потребителя информации.
Большой список когнитивных искажений в Википедии классифицирован довольно расплывчато. Там представлены четыре тематические группы:
- Искажения, связанные с поведением и принятием решений.
- Искажения, связанные с вероятностями и стереотипами.
- Социально обусловленные искажения.
- Искажения, связанные с ошибками памяти.
Такая классификация не даёт возможности ясно представлять причины этих искажений. То есть из классификации не совсем понятно, с помощью каких методов можно эксплуатировать различные когнитивные искажения, почему они возникают. К тому же, многие искажения дублируются в списке под разными названиями.
Есть другой способ классификации искажений, если более конкретно ориентироваться на причину сбоя в мышлении, который обуславливает некорректное восприятие реальности. Если классифицировать их таким образом (по причине), то искажения тоже можно разделить на четыре группы, но теперь они становятся более логичными и понятными.
Четыре проблемы, из-за которых возникают когнитивные искажения:
- Слишком много информации.
- Недостаточно смысла (многозначность).
- Необходимость действовать быстро.
- Фильтрация информации для запоминания: мозг всегда предпочитает запомнить более простую и чёткую концепцию, а не сложную и двусмысленную. Даже если вторая концепция корректнее и объективнее.
Пожалуй, особенный интерес вызывает первая группа искажений, связанных с переизбытком информации. Тем более, что остальные группы концептуально связаны с ней. Создаётся впечатление, что мгновенная фильтрация, цензура и отбор информации для запоминания — основная проблема, с которой мы сталкиваемся в современную эпоху, когда количество информации слишком велико. Из-за этого возникает, наверное, бóльшая часть когнитивных искажений и некорректного восприятия окружающей реальности.
Первую группу можно поделить на пять подгрупп.
1. Мы замечаем вещи, которые уже укрепились в памяти или часто повторяются. Это многочисленная группа искажений, которую часто эксплуатируют на телевидении. Многократное повторение одного и того же практически гарантирует, что человек упустит из внимания деталь, которая упоминается мимоходом лишь однажды. Кроме того, многократное повторение лжи увеличивает вероятность, что в неё поверят.
Примеры:
- Эвристика доступности — оценка как более вероятного того, что более доступно в памяти.
- Систематическая ошибка внимания — зависимость человеческого восприятия от повторяющихся мыслей. Если постоянно думать на одну тему, то чаще обращаешь внимание на новости на эту тему.
- Эффект иллюзии правды — тенденция верить, что информация правдива, если мы слышали её много раз.
- Эффект знакомства с объектом — тенденция людей выражать необоснованную симпатию к некому объекту только потому, что они знакомы с ним.
- Забывание без контекста — затруднение вспомнить информацию в отсутствие контекста (связанных воспоминаний). И наоборот, встреча с подсказкой сразу тянет за собой всю цепочку воспоминаний. Например, если вы были в отпуске и встретили там редкий автомобиль, то встреча с таким автомобилем спустя много лет вытянет из памяти цепочку «забытых» воспоминаний об отпуске. Эффект работает также на эмоциональном уровне: некоторую информацию легче вытянуть из памяти, если вызвать «якорные» эмоции, которые контекстуально связаны с этой информацией.
- Иллюзия частоты, также известная как феномен Баадера—Майнхоф, — сразу после того, как человек узнал о какой-то новой вещи или идее, она, как ему кажется, начинает появляться повсюду. Происходит из-за того, что после того, как человек узнал о чем-то новом, его сознание начинает следить за упоминаниями, в результате чего вы замечаете это везде, где оно есть. Каждое появление вещи лишь закрепляет уверенность сознания в том, что она стала появляться повсюду.
- Разрыв эмпатии — феномен, когда человек недооценивает влияние висцеральных факторов на своё поведение. Эти факторы включают голод, жажду, сексуальное влечение, тягу к наркотику (алкоголю), физическую боль и сильные эмоции. Со стороны кажется, что человек действует импульсивно, нерационально, вышел из-под контроля. Сам человек может находить «рациональное» объяснение своим поступкам, игнорируя истинную подсознательную их причину.
- Недооценка бездействия — склонность людей недооценивать последствия бездействия в сравнении с действием с аналогичным результатом. Примером такого феномена является антивакцинаторство, когда родители предпочитают риск получить осложнения от болезни риску получить осложнения прививки, хотя риск заболеть гораздо выше риска осложнения от прививки.
- Ошибка базового процента — человек игнорирует общую частоту события и фокусируется на специфической информации. Пример: алкотестеры показывают ошибочное опьянение в 5% случаев, но ложно-отрицательных срабатываний не бывает. Полицейский останавливает водителя и проверяет его алкотестером. Прибор показывает, что водитель пьян. Вопрос: какова примерно вероятность, что водитель действительно пьян?
2. Люди склонны замечать и запоминать скорее особенные, причудливые и смешные образы, чем непричудливые или несмешные. Другими словами, мозг преувеличивает важность необычной или удивительной информации. С другой стороны, мы склонны пропускать мимо сознания информацию, которая кажется заурядной или ожидаемой.
Примеры:
- Эффект Ресторфф (эффект изоляции) — в ряду похожих объектов легче запоминается тот, который выделяется среди других. Например, число легче запоминается в ряду букв (вцу5кеквр), а не в ряду других чисел (35856896).
- Эффект превосходства картинки — картинки легче запоминаются, чем слова. Эффект подтверждён многочисленными научными экспериментами.
- Эффект самореференции — склонность людей кодировать в памяти информацию различным образом в зависимости от того, насколько она затрагивает человека лично. Эффект самореференции исследован в научной работе «Self-reference and the encoding of personal information» (Journal of Personality and Social Psychology, Vol 35(9), Sep 1977, 677-688). Специалисты по когнитивной нейробиологии определили конкретные области в префронтальной коре головного мозга, срединных структурах и теменной доле, которые задействуются, если человек считает, что информация затрагивает его лично. Эффект самореференции имеет многочисленные проявления. Например, человек гораздо лучше запоминает информацию, если она касается его лично. В рекламе человек лучше воспринимает информацию, если её рекламируют люди, похожие на него. Человек лучше запоминает дни рождения, которые близки по времени к его собственному дню рождения. Стройные женщины лучше полных женщин воспринимают образы других стройных женщин и моделей (см. научную работу «Self-referencing and consumer evaluations of larger-sized female models: A weight locus of control perspective». Marketing Letters. 18 (3): 197–209. doi:10.1007/s11002-007-9014-1).
- Уклон к негативу — вещи негативной природы даже при условии равной силы воспринимаются человеком сильнее, чем вещи положительной природы. Это относится к мыслям, эмоциям, социальным взаимоотношениям, болезненным/травмирующим событиям и т.д. Поэтому аудитория телевизионных новостей обращает больше внимания на негативные новости, а не на положительные события. Негатив воспринимается ярче, более чётко и хорошо запоминается. Эффект проявляется и в восприятии других людей: одна «негативная» характеристика человека способна перечеркнуть в восприятии множество его положительных черт. Таким образом, человек вообще без положительных черт (например, только что появившийся безликий политик) имеет преимущество перед конкурентами, у которого много положительных черт и одна отрицательная (то есть практически перед любым другим политиком). В принятии решений и управлении это когнитивное искажение очень сильно влияет на поведение человека. Бизнесмены склонны минимизировать прибыль, лишь бы гарантировать отсутствие убытков. Любой краткосрочный убыток воспринимается крайне эмоционально, даже если он объективно не влияет на общую месячную/годовую прибыль. Например, на фондовом рынке люди готовы значительно увеличить риски и продолжить инвестиции в падающую бумагу, чтобы усреднить позицию и выйти из убытка, хотя рациональным поведением было бы просто зафиксировать убыток и выйти из бумаги. Это нерациональное желание «отыграться». Любопытно, что некоторые научные исследования показывают, что данное когнитивное искажение исчезает с возрастом. Более того, у людей в зрелом возрасте иногда наблюдается даже противоположное когнитивное искажение — уклон к позитиву. То есть отрицательную информацию пожилые люди воспринимают как само собой разумеющееся и не реагируют на неё, а вот положительную информацию воспринимают сильнее (см. «The negativity bias is eliminated in older adults: Age-related reduction in event-related brain potentials associated with evaluative categorization». Psychology and Aging. 21 (4): 815–820. doi:10.1037/0882-7974.21.4.815).
3. Люди склонны замечать изменения. При этом мозг некорректно оценивает ценность новой информации в контексте направления изменения (положительное/отрицательное), а не объективно переоценивая новую информацию независимо от предыдущей.
Примеры:
- Эффект привязки — когнитивное искажение оценки числовых значений со смещением в сторону начального приближения. Эффект используют торговые сети, указывая цену нескольких штук изделия даже в отсутствие скидки за количество. Или интернет-сайты, которые предлагают пожертвовать произвольную сумму, но при этом приводят пример более крупного пожертвования. Как показали исследования, «привязав» людей к примеру крупного пожертвования, средняя сумма произвольных пожертвований оказывается выше, чем без привязки.
- Денежная иллюзия — склонность людей воспринимать номинальную стоимость денег, а не их реальную стоимость. Когнитивное искажение выражается в том, что люди не в полной мере осознают, как меняется реальная стоимость денег каждый день. Из-за этого они неадекватно воспринимают действительность, в том числе изменение номинальных цен на товары, инфляцию. Например, многие не понимают, что при изменении курса доллара к рублю их зарплата реально снизилась де-факто при сохранении её номинального значения в рублях. Власти могут поощрять это когнитивное искажение у граждан заявлениями вроде «Не нужно следить за курсом доллара» и т.д.
- Эффект фрейминга — феномен разной реакции на одинаковый выбор, в зависимости от того, как он преподносится: как положительный или отрицательный выбор. Стакан может быть наполовину пуст или наполовину полон. Выбор одинаковый, но воспринимается по-разному. Например, штрафы за опоздания действуют на людей эффективнее, чем премия за своевременные действия (очевидно, здесь действует также когнитивное искажение «уклон к негативу»). Исследование в судебной системе показало, что подсудимые чаще дают признательные показания, если те преподносятся как первый шаг к последующему освобождению после отсидки, а не как последний шаг в вольной жизни перед началом тюремного заключения.
- Закон Вебера-Фехнера — эмпирический психофизиологический закон, заключающийся в том, что интенсивность ощущения чего-либо прямо пропорциональна логарифму интенсивности раздражителя. Например, люстра, в которой восемь лампочек, ошибочно кажется настолько же ярче люстры из четырёх лампочек, насколько люстра из четырёх лампочек ярче люстры из двух лампочек.
- Консерватизм (в психологическом смысле) — когнитивное искажение новой информации, если она противоречит устоявшимся убеждениям человека.
Собственно, когнитивное искажение «консерватизм» (в психологии) можно выделить в целую отдельную категорию.
4. Людей притягивает информация, которая подтверждает их убеждения. Это действительно большая и важная категория. Она тоже связана со способом фильтровать новые данные. Если информации вокруг очень много, то человек выбирает в основном ту, которая подтверждает его мнение.
Примеры:
- Склонность к подтверждению своей точки зрения.
- Искажение в восприятии сделанного выбора — тенденция задним числом приписывать положительные качества предмету или действию, которые человек выбрал. Задним числом находятся «рациональные» причины, почему человек сделал этот выбор.
- Селективное восприятие — склонность людей уделять внимание тем элементам окружения, которые согласуются с их ожиданиями, и игнорировать остальное.
- Эффект страуса — попытка игнорировать негативную информацию, связанную со сделанным выбором.
5. Люди склонны лучше замечать ошибки у других, чем у себя. Даже взять этот список когнитивных искажений. Кажется, что искажения восприятия скорее присутствуют у окружающих, а не у вас лично.
Примеры:
- Предубеждение слепого пятна — распознавание искажений восприятия у других людей, а не у себя. Хорошо исследовано в научных работах Эмили Пронин.
- Наивный цинизм — когнитивное искажение, форма психологического эгоизма, когда человек наивно ожидает более эгоистического поведения от других, чем есть на самом деле. Цепочка рассуждений наивного цинизма выглядит следующим образом: «У меня нет предубеждений — Если ты не согласен со мной, то у тебя предубеждения. — Твои намерения/действия отражают твои эгоистические предубеждения». Наивный цинизм противостоит противоположному когнитивному искажению — наивному реализму.
- Наивный реализм — склонность человека верить в то, что мы объективно видим окружающий мир таким, какой он есть. Несогласные с этим люди воспринимаются как неинформированные, нерациональные или во власти предубеждений. Согласно наивному научному реализму, теория, которую признало научное сообщество, обладает абсолютной истинностью, то есть даёт полный и точный образ описываемой системы объектов.
Такая классификация когнитивных искажений, связанных с переизбытком информации кажется более логичной, чем в Википедии. По крайней мере, сразу видны основные причины искажений. Хотя эта классификация всё равно остаётся довольно условной, ведь многие искажения в сознании объясняются не одной, а сразу несколькими причинами.
From Wikipedia, the free encyclopedia
The base rate fallacy, also called base rate neglect[1] or base rate bias, is a type of fallacy in which people tend to ignore the base rate (i.e., general prevalence) in favor of the individuating information (i.e., information pertaining only to a specific case).[2]
Base rate neglect is a specific form of the more general extension neglect.
False positive paradox[edit]
An example of the base rate fallacy is the false positive paradox. This paradox describes situations where there are more false positive test results than true positives. For example, if a facial recognition camera can identify wanted criminals 99% accurately, but analyzes 10,000 people a day, the high accuracy is outweighed by the number of tests, and the program’s list of criminals will likely have far more false positives than true. The probability of a positive test result is determined not only by the accuracy of the test but also by the characteristics of the sampled population.[3] When the prevalence, the proportion of those who have a given condition, is lower than the test’s false positive rate, even tests that have a very low risk of giving a false positive in an individual case will give more false than true positives overall.[4] The paradox surprises most people.[5]
It is especially counter-intuitive when interpreting a positive result in a test on a low-prevalence population after having dealt with positive results drawn from a high-prevalence population.[4] If the false positive rate of the test is higher than the proportion of the new population with the condition, then a test administrator whose experience has been drawn from testing in a high-prevalence population may conclude from experience that a positive test result usually indicates a positive subject, when in fact a false positive is far more likely to have occurred.
Examples[edit]
Example 1: Disease[edit]
High-incidence population[edit]
Number of people |
Infected | Uninfected | Total |
---|---|---|---|
Test positive |
400 (true positive) |
30 (false positive) |
430 |
Test negative |
0 (false negative) |
570 (true negative) |
570 |
Total | 400 | 600 | 1000 |
Imagine running an infectious disease test on a population A of 1000 persons, of which 40% are infected. The test has a false positive rate of 5% (0.05) and no false negative rate. The expected outcome of the 1000 tests on population A would be:
- Infected and test indicates disease (true positive)
- 1000 × 40/100 = 400 people would receive a true positive
- Uninfected and test indicates disease (false positive)
- 1000 × 100 – 40/100 × 0.05 = 30 people would receive a false positive
- The remaining 570 tests are correctly negative.
So, in population A, a person receiving a positive test could be over 93% confident (400/30 + 400) that it correctly indicates infection.
Low-incidence population[edit]
Number of people |
Infected | Uninfected | Total |
---|---|---|---|
Test positive |
20 (true positive) |
49 (false positive) |
69 |
Test negative |
0 (false negative) |
931 (true negative) |
931 |
Total | 20 | 980 | 1000 |
Now consider the same test applied to population B, of which only 2% are infected. The expected outcome of 1000 tests on population B would be:
- Infected and test indicates disease (true positive)
- 1000 × 2/100 = 20 people would receive a true positive
- Uninfected and test indicates disease (false positive)
- 1000 × 100 – 2/100 × 0.05 = 49 people would receive a false positive
- The remaining 931 tests are correctly negative.
In population B, only 20 of the 69 total people with a positive test result are actually infected. So, the probability of actually being infected after one is told that one is infected is only 29% (20/20 + 49) for a test that otherwise appears to be «95% accurate».
A tester with experience of group A might find it a paradox that in group B, a result that had usually correctly indicated infection is now usually a false positive. The confusion of the posterior probability of infection with the prior probability of receiving a false positive is a natural error after receiving a health-threatening test result.
Example 2: Drunk drivers[edit]
- A group of police officers have breathalyzers displaying false drunkenness in 5% of the cases in which the driver is sober. However, the breathalyzers never fail to detect a truly drunk person. One in a thousand drivers is driving drunk. Suppose the police officers then stop a driver at random to administer a breathalyzer test. It indicates that the driver is drunk. We assume you do not know anything else about them. How high is the probability they really are drunk?
Many would answer as high as 95%, but the correct probability is about 2%.
An explanation for this is as follows: on average, for every 1,000 drivers tested,
- 1 driver is drunk, and it is 100% certain that for that driver there is a true positive test result, so there is 1 true positive test result
- 999 drivers are not drunk, and among those drivers there are 5% false positive test results, so there are 49.95 false positive test results
Therefore, the probability that one of the drivers among the 1 + 49.95 = 50.95 positive test results really is drunk is .
The validity of this result does, however, hinge on the validity of the initial assumption that the police officer stopped the driver truly at random, and not because of bad driving. If that or another non-arbitrary reason for stopping the driver was present, then the calculation also involves the probability of a drunk driver driving competently and a non-drunk driver driving (in-)competently.
More formally, the same probability of roughly 0.02 can be established using Bayes’s theorem. The goal is to find the probability that the driver is drunk given that the breathalyzer indicated they are drunk, which can be represented as
where D means that the breathalyzer indicates that the driver is drunk. Bayes’s theorem tells us that
We were told the following in the first paragraph:
- and
As you can see from the formula, one needs p(D) for Bayes’ theorem, which one can compute from the preceding values using the law of total probability:
which gives
Plugging these numbers into Bayes’ theorem, one finds that
Example 3: Terrorist identification[edit]
In a city of 1 million inhabitants, let there be 100 terrorists and 999,900 non-terrorists. To simplify the example, it is assumed that all people present in the city are inhabitants. Thus, the base rate probability of a randomly selected inhabitant of the city being a terrorist is 0.0001, and the base rate probability of that same inhabitant being a non-terrorist is 0.9999. In an attempt to catch the terrorists, the city installs an alarm system with a surveillance camera and automatic facial recognition software.
The software has two failure rates of 1%:
- The false negative rate: If the camera scans a terrorist, a bell will ring 99% of the time, and it will fail to ring 1% of the time.
- The false positive rate: If the camera scans a non-terrorist, a bell will not ring 99% of the time, but it will ring 1% of the time.
Suppose now that an inhabitant triggers the alarm. What is the probability that the person is a terrorist? In other words, what is P(T | B), the probability that a terrorist has been detected given the ringing of the bell? Someone making the ‘base rate fallacy’ would infer that there is a 99% probability that the detected person is a terrorist. Although the inference seems to make sense, it is actually bad reasoning, and a calculation below will show that the probability of a terrorist is actually near 1%, not near 99%.
The fallacy arises from confusing the natures of two different failure rates. The ‘number of non-bells per 100 terrorists’ and the ‘number of non-terrorists per 100 bells’ are unrelated quantities. One does not necessarily equal the other, and they don’t even have to be almost equal. To show this, consider what happens if an identical alarm system were set up in a second city with no terrorists at all. As in the first city, the alarm sounds for 1 out of every 100 non-terrorist inhabitants detected, but unlike in the first city, the alarm never sounds for a terrorist. Therefore, 100% of all occasions of the alarm sounding are for non-terrorists, but a false negative rate cannot even be calculated. The ‘number of non-terrorists per 100 bells’ in that city is 100, yet P(T | B) = 0%. There is zero chance that a terrorist has been detected given the ringing of the bell.
Imagine that the first city’s entire population of one million people pass in front of the camera. About 99 of the 100 terrorists will trigger the alarm—and so will about 9,999 of the 999,900 non-terrorists. Therefore, about 10,098 people will trigger the alarm, among which about 99 will be terrorists. The probability that a person triggering the alarm actually is a terrorist is only about 99 in 10,098, which is less than 1%, and very, very far below our initial guess of 99%.
The base rate fallacy is so misleading in this example because there are many more non-terrorists than terrorists, and the number of false positives (non-terrorists scanned as terrorists) is so much larger than the true positives (terrorists scanned as terrorists).
Multiple practitioners have argued that as the base rate of terrorism is extremely low, using data mining and predictive algorithms to identify terrorists cannot feasibly work due to the false positive paradox.[6][7][8][9] Estimates of the number of false positives for each accurate result vary from over ten thousand[9] to one billion;[7] consequently, investigating each lead would be cost and time prohibitive.[6][8] The level of accuracy required to make these models viable is likely unachievable. Foremost the low base rate of terrorism also means there is a lack of data with which to make an accurate algorithm.[8] Further, in the context of detecting terrorism false negatives are highly undesirable and thus must be minimised as much as possible, however this requires increasing sensitivity at the cost of specificity, increasing false positives.[9] It is also questionable whether the use of such models by law enforcement would meet the requisite burden of proof given that over 99% of results would be false positives.[9]
Findings in psychology[edit]
In experiments, people have been found to prefer individuating information over general information when the former is available.[10][11][12]
In some experiments, students were asked to estimate the grade point averages (GPAs) of hypothetical students. When given relevant statistics about GPA distribution, students tended to ignore them if given descriptive information about the particular student even if the new descriptive information was obviously of little or no relevance to school performance.[11] This finding has been used to argue that interviews are an unnecessary part of the college admissions process because interviewers are unable to pick successful candidates better than basic statistics.
Psychologists Daniel Kahneman and Amos Tversky attempted to explain this finding in terms of a simple rule or «heuristic» called representativeness. They argued that many judgments relating to likelihood, or to cause and effect, are based on how representative one thing is of another, or of a category.[11] Kahneman considers base rate neglect to be a specific form of extension neglect.[13] Richard Nisbett has argued that some attributional biases like the fundamental attribution error are instances of the base rate fallacy: people do not use the «consensus information» (the «base rate») about how others behaved in similar situations and instead prefer simpler dispositional attributions.[14]
There is considerable debate in psychology on the conditions under which people do or do not appreciate base rate information.[15][16] Researchers in the heuristics-and-biases program have stressed empirical findings showing that people tend to ignore base rates and make inferences that violate certain norms of probabilistic reasoning, such as Bayes’ theorem. The conclusion drawn from this line of research was that human probabilistic thinking is fundamentally flawed and error-prone.[17] Other researchers have emphasized the link between cognitive processes and information formats, arguing that such conclusions are not generally warranted.[18][19]
Consider again Example 2 from above. The required inference is to estimate the (posterior) probability that a (randomly picked) driver is drunk, given that the breathalyzer test is positive. Formally, this probability can be calculated using Bayes’ theorem, as shown above. However, there are different ways of presenting the relevant information. Consider the following, formally equivalent variant of the problem:
- 1 out of 1000 drivers are driving drunk. The breathalyzers never fail to detect a truly drunk person. For 50 out of the 999 drivers who are not drunk the breathalyzer falsely displays drunkenness. Suppose the policemen then stop a driver at random, and force them to take a breathalyzer test. It indicates that they are drunk. We assume you don’t know anything else about them. How high is the probability they really are drunk?
In this case, the relevant numerical information—p(drunk), p(D | drunk), p(D | sober)—is presented in terms of natural frequencies with respect to a certain reference class (see reference class problem). Empirical studies show that people’s inferences correspond more closely to Bayes’ rule when information is presented this way, helping to overcome base-rate neglect in laypeople[19] and experts.[20] As a consequence, organizations like the Cochrane Collaboration recommend using this kind of format for communicating health statistics.[21] Teaching people to translate these kinds of Bayesian reasoning problems into natural frequency formats is more effective than merely teaching them to plug probabilities (or percentages) into Bayes’ theorem.[22] It has also been shown that graphical representations of natural frequencies (e.g., icon arrays, hypothetical outcome plots) help people to make better inferences.[22][23][24][25]
Why are natural frequency formats helpful? One important reason is that this information format facilitates the required inference because it simplifies the necessary calculations. This can be seen when using an alternative way of computing the required probability p(drunk|D):
where N(drunk ∩ D) denotes the number of drivers that are drunk and get a positive breathalyzer result, and N(D) denotes the total number of cases with a positive breathalyzer result. The equivalence of this equation to the above one follows from the axioms of probability theory, according to which N(drunk ∩ D) = N × p (D | drunk) × p (drunk). Importantly, although this equation is formally equivalent to Bayes’ rule, it is not psychologically equivalent. Using natural frequencies simplifies the inference because the required mathematical operation can be performed on natural numbers, instead of normalized fractions (i.e., probabilities), because it makes the high number of false positives more transparent, and because natural frequencies exhibit a «nested-set structure».[26][27]
Not every frequency format facilitates Bayesian reasoning.[27][28] Natural frequencies refer to frequency information that results from natural sampling,[29] which preserves base rate information (e.g., number of drunken drivers when taking a random sample of drivers). This is different from systematic sampling, in which base rates are fixed a priori (e.g., in scientific experiments). In the latter case it is not possible to infer the posterior probability p (drunk | positive test) from comparing the number of drivers who are drunk and test positive compared to the total number of people who get a positive breathalyzer result, because base rate information is not preserved and must be explicitly re-introduced using Bayes’ theorem.
See also[edit]
- Base rate
- Bayesian probability
- Bayes’ theorem
- Data dredging
- Inductive argument
- List of cognitive biases
- List of paradoxes
- Misleading vividness
- Prevention paradox
- Prosecutor’s fallacy, a mistake in reasoning that involves ignoring a low prior probability
- Simpson’s paradox, another error in statistical reasoning dealing with comparing groups
- Stereotype
- Intuitive statistics
References[edit]
- ^ Welsh, Matthew B.; Navarro, Daniel J. (2012). «Seeing is believing: Priors, trust, and base rate neglect». Organizational Behavior and Human Decision Processes. 119 (1): 1–14. doi:10.1016/j.obhdp.2012.04.001. hdl:2440/41190. ISSN 0749-5978.
- ^ «Logical Fallacy: The Base Rate Fallacy». Fallacyfiles.org. Retrieved 2013-06-15.
- ^ Rheinfurth, M. H.; Howell, L. W. (March 1998). Probability and Statistics in Aerospace Engineering (PDF). NASA. p. 16.
MESSAGE: False positive tests are more probable than true positive tests when the overall population has a low prevalence of the disease. This is called the false-positive paradox.
- ^ a b Vacher, H. L. (May 2003). «Quantitative literacy — drug testing, cancer screening, and the identification of igneous rocks». Journal of Geoscience Education: 2.
At first glance, this seems perverse: the less the students as a whole use steroids, the more likely a student identified as a user will be a non-user. This has been called the False Positive Paradox
— Citing: Gonick, L.; Smith, W. (1993). The cartoon guide to statistics. New York: Harper Collins. p. 49. - ^ Madison, B. L. (August 2007). «Mathematical Proficiency for Citizenship». In Schoenfeld, A. H. (ed.). Assessing Mathematical Proficiency. Mathematical Sciences Research Institute Publications (New ed.). Cambridge University Press. p. 122. ISBN 978-0-521-69766-8.
The correct [probability estimate…] is surprising to many; hence, the term paradox.
- ^ a b Munk, Timme Bisgaard (1 September 2017). «100,000 false positives for every real terrorist: Why anti-terror algorithms don’t work». First Monday. 22 (9). doi:10.5210/fm.v22i9.7126.
- ^ a b Schneier, Bruce. «Why Data Mining Won’t Stop Terror». Wired. ISSN 1059-1028. Retrieved 2022-08-30.
- ^ a b c Jonas, Jeff; Harper, Jim (2006-12-11). «Effective Counterterrorism and the Limited Role of Predictive Data Mining». CATO Institute. Retrieved 2022-08-30.
- ^ a b c d Sageman, Marc (2021-02-17). «The Implication of Terrorism’s Extremely Low Base Rate». Terrorism and Political Violence. 33 (2): 302–311. doi:10.1080/09546553.2021.1880226. ISSN 0954-6553. S2CID 232341781.
- ^ Bar-Hillel, Maya (1980). «The base-rate fallacy in probability judgments» (PDF). Acta Psychologica. 44 (3): 211–233. doi:10.1016/0001-6918(80)90046-3.
- ^ a b c Kahneman, Daniel; Amos Tversky (1973). «On the psychology of prediction». Psychological Review. 80 (4): 237–251. doi:10.1037/h0034747. S2CID 17786757.
- ^ Kahneman, Daniel; Amos Tversky (1985). «Evidential impact of base rates». In Daniel Kahneman, Paul Slovic & Amos Tversky (ed.). Judgment under uncertainty: Heuristics and biases. Science. Vol. 185. pp. 153–160. Bibcode:1974Sci…185.1124T. doi:10.1126/science.185.4157.1124. PMID 17835457. S2CID 143452957.
- ^ Kahneman, Daniel (2000). «Evaluation by moments, past and future». In Daniel Kahneman and Amos Tversky (ed.). Choices, Values and Frames. ISBN 0-521-62749-4.
- ^ Nisbett, Richard E.; E. Borgida; R. Crandall; H. Reed (1976). «Popular induction: Information is not always informative». In J. S. Carroll & J. W. Payne (ed.). Cognition and social behavior. Vol. 2. pp. 227–236. ISBN 0-470-99007-4.
- ^ Koehler, J. J. (2010). «The base rate fallacy reconsidered: Descriptive, normative, and methodological challenges». Behavioral and Brain Sciences. 19: 1–17. doi:10.1017/S0140525X00041157. S2CID 53343238.
- ^ Barbey, A. K.; Sloman, S. A. (2007). «Base-rate respect: From ecological rationality to dual processes». Behavioral and Brain Sciences. 30 (3): 241–254, discussion 255–297. doi:10.1017/S0140525X07001653. PMID 17963533. S2CID 31741077.
- ^ Tversky, A.; Kahneman, D. (1974). «Judgment under Uncertainty: Heuristics and Biases». Science. 185 (4157): 1124–1131. Bibcode:1974Sci…185.1124T. doi:10.1126/science.185.4157.1124. PMID 17835457. S2CID 143452957.
- ^ Cosmides, Leda; John Tooby (1996). «Are humans good intuitive statisticians after all? Rethinking some conclusions of the literature on judgment under uncertainty». Cognition. 58: 1–73. CiteSeerX 10.1.1.131.8290. doi:10.1016/0010-0277(95)00664-8. S2CID 18631755.
- ^ a b Gigerenzer, G.; Hoffrage, U. (1995). «How to improve Bayesian reasoning without instruction: Frequency formats». Psychological Review. 102 (4): 684. CiteSeerX 10.1.1.128.3201. doi:10.1037/0033-295X.102.4.684.
- ^ Hoffrage, U.; Lindsey, S.; Hertwig, R.; Gigerenzer, G. (2000). «Medicine: Communicating Statistical Information». Science. 290 (5500): 2261–2262. doi:10.1126/science.290.5500.2261. hdl:11858/00-001M-0000-0025-9B18-3. PMID 11188724. S2CID 33050943.
- ^ Akl, E. A.; Oxman, A. D.; Herrin, J.; Vist, G. E.; Terrenato, I.; Sperati, F.; Costiniuk, C.; Blank, D.; Schünemann, H. (2011). Schünemann, Holger (ed.). «Using alternative statistical formats for presenting risks and risk reductions». The Cochrane Database of Systematic Reviews. 2011 (3): CD006776. doi:10.1002/14651858.CD006776.pub2. PMC 6464912. PMID 21412897.
- ^ a b Sedlmeier, P.; Gigerenzer, G. (2001). «Teaching Bayesian reasoning in less than two hours». Journal of Experimental Psychology: General. 130 (3): 380–400. doi:10.1037/0096-3445.130.3.380. hdl:11858/00-001M-0000-0025-9504-E. PMID 11561916.
- ^ Brase, G. L. (2009). «Pictorial representations in statistical reasoning». Applied Cognitive Psychology. 23 (3): 369–381. doi:10.1002/acp.1460. S2CID 18817707.
- ^ Edwards, A.; Elwyn, G.; Mulley, A. (2002). «Explaining risks: Turning numerical data into meaningful pictures». BMJ. 324 (7341): 827–830. doi:10.1136/bmj.324.7341.827. PMC 1122766. PMID 11934777.
- ^ Kim, Yea-Seul; Walls, Logan A.; Krafft, Peter; Hullman, Jessica (2 May 2019). «A Bayesian Cognition Approach to Improve Data Visualization». Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems: 1–14. doi:10.1145/3290605.3300912. ISBN 9781450359702. S2CID 57761146.
- ^ Girotto, V.; Gonzalez, M. (2001). «Solving probabilistic and statistical problems: A matter of information structure and question form». Cognition. 78 (3): 247–276. doi:10.1016/S0010-0277(00)00133-5. PMID 11124351. S2CID 8588451.
- ^ a b Hoffrage, U.; Gigerenzer, G.; Krauss, S.; Martignon, L. (2002). «Representation facilitates reasoning: What natural frequencies are and what they are not». Cognition. 84 (3): 343–352. doi:10.1016/S0010-0277(02)00050-1. PMID 12044739. S2CID 9595672.
- ^ Gigerenzer, G.; Hoffrage, U. (1999). «Overcoming difficulties in Bayesian reasoning: A reply to Lewis and Keren (1999) and Mellers and McGraw (1999)». Psychological Review. 106 (2): 425. doi:10.1037/0033-295X.106.2.425. hdl:11858/00-001M-0000-0025-9CB4-8.
- ^ Kleiter, G. D. (1994). «Natural Sampling: Rationality without Base Rates». Contributions to Mathematical Psychology, Psychometrics, and Methodology. Recent Research in Psychology. pp. 375–388. doi:10.1007/978-1-4612-4308-3_27. ISBN 978-0-387-94169-1.
External links[edit]
- The Base Rate Fallacy The Fallacy Files
From Wikipedia, the free encyclopedia
The base rate fallacy, also called base rate neglect[1] or base rate bias, is a type of fallacy in which people tend to ignore the base rate (i.e., general prevalence) in favor of the individuating information (i.e., information pertaining only to a specific case).[2]
Base rate neglect is a specific form of the more general extension neglect.
False positive paradox[edit]
An example of the base rate fallacy is the false positive paradox. This paradox describes situations where there are more false positive test results than true positives. For example, if a facial recognition camera can identify wanted criminals 99% accurately, but analyzes 10,000 people a day, the high accuracy is outweighed by the number of tests, and the program’s list of criminals will likely have far more false positives than true. The probability of a positive test result is determined not only by the accuracy of the test but also by the characteristics of the sampled population.[3] When the prevalence, the proportion of those who have a given condition, is lower than the test’s false positive rate, even tests that have a very low risk of giving a false positive in an individual case will give more false than true positives overall.[4] The paradox surprises most people.[5]
It is especially counter-intuitive when interpreting a positive result in a test on a low-prevalence population after having dealt with positive results drawn from a high-prevalence population.[4] If the false positive rate of the test is higher than the proportion of the new population with the condition, then a test administrator whose experience has been drawn from testing in a high-prevalence population may conclude from experience that a positive test result usually indicates a positive subject, when in fact a false positive is far more likely to have occurred.
Examples[edit]
Example 1: Disease[edit]
High-incidence population[edit]
Number of people |
Infected | Uninfected | Total |
---|---|---|---|
Test positive |
400 (true positive) |
30 (false positive) |
430 |
Test negative |
0 (false negative) |
570 (true negative) |
570 |
Total | 400 | 600 | 1000 |
Imagine running an infectious disease test on a population A of 1000 persons, of which 40% are infected. The test has a false positive rate of 5% (0.05) and no false negative rate. The expected outcome of the 1000 tests on population A would be:
- Infected and test indicates disease (true positive)
- 1000 × 40/100 = 400 people would receive a true positive
- Uninfected and test indicates disease (false positive)
- 1000 × 100 – 40/100 × 0.05 = 30 people would receive a false positive
- The remaining 570 tests are correctly negative.
So, in population A, a person receiving a positive test could be over 93% confident (400/30 + 400) that it correctly indicates infection.
Low-incidence population[edit]
Number of people |
Infected | Uninfected | Total |
---|---|---|---|
Test positive |
20 (true positive) |
49 (false positive) |
69 |
Test negative |
0 (false negative) |
931 (true negative) |
931 |
Total | 20 | 980 | 1000 |
Now consider the same test applied to population B, of which only 2% are infected. The expected outcome of 1000 tests on population B would be:
- Infected and test indicates disease (true positive)
- 1000 × 2/100 = 20 people would receive a true positive
- Uninfected and test indicates disease (false positive)
- 1000 × 100 – 2/100 × 0.05 = 49 people would receive a false positive
- The remaining 931 tests are correctly negative.
In population B, only 20 of the 69 total people with a positive test result are actually infected. So, the probability of actually being infected after one is told that one is infected is only 29% (20/20 + 49) for a test that otherwise appears to be «95% accurate».
A tester with experience of group A might find it a paradox that in group B, a result that had usually correctly indicated infection is now usually a false positive. The confusion of the posterior probability of infection with the prior probability of receiving a false positive is a natural error after receiving a health-threatening test result.
Example 2: Drunk drivers[edit]
- A group of police officers have breathalyzers displaying false drunkenness in 5% of the cases in which the driver is sober. However, the breathalyzers never fail to detect a truly drunk person. One in a thousand drivers is driving drunk. Suppose the police officers then stop a driver at random to administer a breathalyzer test. It indicates that the driver is drunk. We assume you do not know anything else about them. How high is the probability they really are drunk?
Many would answer as high as 95%, but the correct probability is about 2%.
An explanation for this is as follows: on average, for every 1,000 drivers tested,
- 1 driver is drunk, and it is 100% certain that for that driver there is a true positive test result, so there is 1 true positive test result
- 999 drivers are not drunk, and among those drivers there are 5% false positive test results, so there are 49.95 false positive test results
Therefore, the probability that one of the drivers among the 1 + 49.95 = 50.95 positive test results really is drunk is .
The validity of this result does, however, hinge on the validity of the initial assumption that the police officer stopped the driver truly at random, and not because of bad driving. If that or another non-arbitrary reason for stopping the driver was present, then the calculation also involves the probability of a drunk driver driving competently and a non-drunk driver driving (in-)competently.
More formally, the same probability of roughly 0.02 can be established using Bayes’s theorem. The goal is to find the probability that the driver is drunk given that the breathalyzer indicated they are drunk, which can be represented as
where D means that the breathalyzer indicates that the driver is drunk. Bayes’s theorem tells us that
We were told the following in the first paragraph:
- and
As you can see from the formula, one needs p(D) for Bayes’ theorem, which one can compute from the preceding values using the law of total probability:
which gives
Plugging these numbers into Bayes’ theorem, one finds that
Example 3: Terrorist identification[edit]
In a city of 1 million inhabitants, let there be 100 terrorists and 999,900 non-terrorists. To simplify the example, it is assumed that all people present in the city are inhabitants. Thus, the base rate probability of a randomly selected inhabitant of the city being a terrorist is 0.0001, and the base rate probability of that same inhabitant being a non-terrorist is 0.9999. In an attempt to catch the terrorists, the city installs an alarm system with a surveillance camera and automatic facial recognition software.
The software has two failure rates of 1%:
- The false negative rate: If the camera scans a terrorist, a bell will ring 99% of the time, and it will fail to ring 1% of the time.
- The false positive rate: If the camera scans a non-terrorist, a bell will not ring 99% of the time, but it will ring 1% of the time.
Suppose now that an inhabitant triggers the alarm. What is the probability that the person is a terrorist? In other words, what is P(T | B), the probability that a terrorist has been detected given the ringing of the bell? Someone making the ‘base rate fallacy’ would infer that there is a 99% probability that the detected person is a terrorist. Although the inference seems to make sense, it is actually bad reasoning, and a calculation below will show that the probability of a terrorist is actually near 1%, not near 99%.
The fallacy arises from confusing the natures of two different failure rates. The ‘number of non-bells per 100 terrorists’ and the ‘number of non-terrorists per 100 bells’ are unrelated quantities. One does not necessarily equal the other, and they don’t even have to be almost equal. To show this, consider what happens if an identical alarm system were set up in a second city with no terrorists at all. As in the first city, the alarm sounds for 1 out of every 100 non-terrorist inhabitants detected, but unlike in the first city, the alarm never sounds for a terrorist. Therefore, 100% of all occasions of the alarm sounding are for non-terrorists, but a false negative rate cannot even be calculated. The ‘number of non-terrorists per 100 bells’ in that city is 100, yet P(T | B) = 0%. There is zero chance that a terrorist has been detected given the ringing of the bell.
Imagine that the first city’s entire population of one million people pass in front of the camera. About 99 of the 100 terrorists will trigger the alarm—and so will about 9,999 of the 999,900 non-terrorists. Therefore, about 10,098 people will trigger the alarm, among which about 99 will be terrorists. The probability that a person triggering the alarm actually is a terrorist is only about 99 in 10,098, which is less than 1%, and very, very far below our initial guess of 99%.
The base rate fallacy is so misleading in this example because there are many more non-terrorists than terrorists, and the number of false positives (non-terrorists scanned as terrorists) is so much larger than the true positives (terrorists scanned as terrorists).
Multiple practitioners have argued that as the base rate of terrorism is extremely low, using data mining and predictive algorithms to identify terrorists cannot feasibly work due to the false positive paradox.[6][7][8][9] Estimates of the number of false positives for each accurate result vary from over ten thousand[9] to one billion;[7] consequently, investigating each lead would be cost and time prohibitive.[6][8] The level of accuracy required to make these models viable is likely unachievable. Foremost the low base rate of terrorism also means there is a lack of data with which to make an accurate algorithm.[8] Further, in the context of detecting terrorism false negatives are highly undesirable and thus must be minimised as much as possible, however this requires increasing sensitivity at the cost of specificity, increasing false positives.[9] It is also questionable whether the use of such models by law enforcement would meet the requisite burden of proof given that over 99% of results would be false positives.[9]
Findings in psychology[edit]
In experiments, people have been found to prefer individuating information over general information when the former is available.[10][11][12]
In some experiments, students were asked to estimate the grade point averages (GPAs) of hypothetical students. When given relevant statistics about GPA distribution, students tended to ignore them if given descriptive information about the particular student even if the new descriptive information was obviously of little or no relevance to school performance.[11] This finding has been used to argue that interviews are an unnecessary part of the college admissions process because interviewers are unable to pick successful candidates better than basic statistics.
Psychologists Daniel Kahneman and Amos Tversky attempted to explain this finding in terms of a simple rule or «heuristic» called representativeness. They argued that many judgments relating to likelihood, or to cause and effect, are based on how representative one thing is of another, or of a category.[11] Kahneman considers base rate neglect to be a specific form of extension neglect.[13] Richard Nisbett has argued that some attributional biases like the fundamental attribution error are instances of the base rate fallacy: people do not use the «consensus information» (the «base rate») about how others behaved in similar situations and instead prefer simpler dispositional attributions.[14]
There is considerable debate in psychology on the conditions under which people do or do not appreciate base rate information.[15][16] Researchers in the heuristics-and-biases program have stressed empirical findings showing that people tend to ignore base rates and make inferences that violate certain norms of probabilistic reasoning, such as Bayes’ theorem. The conclusion drawn from this line of research was that human probabilistic thinking is fundamentally flawed and error-prone.[17] Other researchers have emphasized the link between cognitive processes and information formats, arguing that such conclusions are not generally warranted.[18][19]
Consider again Example 2 from above. The required inference is to estimate the (posterior) probability that a (randomly picked) driver is drunk, given that the breathalyzer test is positive. Formally, this probability can be calculated using Bayes’ theorem, as shown above. However, there are different ways of presenting the relevant information. Consider the following, formally equivalent variant of the problem:
- 1 out of 1000 drivers are driving drunk. The breathalyzers never fail to detect a truly drunk person. For 50 out of the 999 drivers who are not drunk the breathalyzer falsely displays drunkenness. Suppose the policemen then stop a driver at random, and force them to take a breathalyzer test. It indicates that they are drunk. We assume you don’t know anything else about them. How high is the probability they really are drunk?
In this case, the relevant numerical information—p(drunk), p(D | drunk), p(D | sober)—is presented in terms of natural frequencies with respect to a certain reference class (see reference class problem). Empirical studies show that people’s inferences correspond more closely to Bayes’ rule when information is presented this way, helping to overcome base-rate neglect in laypeople[19] and experts.[20] As a consequence, organizations like the Cochrane Collaboration recommend using this kind of format for communicating health statistics.[21] Teaching people to translate these kinds of Bayesian reasoning problems into natural frequency formats is more effective than merely teaching them to plug probabilities (or percentages) into Bayes’ theorem.[22] It has also been shown that graphical representations of natural frequencies (e.g., icon arrays, hypothetical outcome plots) help people to make better inferences.[22][23][24][25]
Why are natural frequency formats helpful? One important reason is that this information format facilitates the required inference because it simplifies the necessary calculations. This can be seen when using an alternative way of computing the required probability p(drunk|D):
where N(drunk ∩ D) denotes the number of drivers that are drunk and get a positive breathalyzer result, and N(D) denotes the total number of cases with a positive breathalyzer result. The equivalence of this equation to the above one follows from the axioms of probability theory, according to which N(drunk ∩ D) = N × p (D | drunk) × p (drunk). Importantly, although this equation is formally equivalent to Bayes’ rule, it is not psychologically equivalent. Using natural frequencies simplifies the inference because the required mathematical operation can be performed on natural numbers, instead of normalized fractions (i.e., probabilities), because it makes the high number of false positives more transparent, and because natural frequencies exhibit a «nested-set structure».[26][27]
Not every frequency format facilitates Bayesian reasoning.[27][28] Natural frequencies refer to frequency information that results from natural sampling,[29] which preserves base rate information (e.g., number of drunken drivers when taking a random sample of drivers). This is different from systematic sampling, in which base rates are fixed a priori (e.g., in scientific experiments). In the latter case it is not possible to infer the posterior probability p (drunk | positive test) from comparing the number of drivers who are drunk and test positive compared to the total number of people who get a positive breathalyzer result, because base rate information is not preserved and must be explicitly re-introduced using Bayes’ theorem.
See also[edit]
- Base rate
- Bayesian probability
- Bayes’ theorem
- Data dredging
- Inductive argument
- List of cognitive biases
- List of paradoxes
- Misleading vividness
- Prevention paradox
- Prosecutor’s fallacy, a mistake in reasoning that involves ignoring a low prior probability
- Simpson’s paradox, another error in statistical reasoning dealing with comparing groups
- Stereotype
- Intuitive statistics
References[edit]
- ^ Welsh, Matthew B.; Navarro, Daniel J. (2012). «Seeing is believing: Priors, trust, and base rate neglect». Organizational Behavior and Human Decision Processes. 119 (1): 1–14. doi:10.1016/j.obhdp.2012.04.001. hdl:2440/41190. ISSN 0749-5978.
- ^ «Logical Fallacy: The Base Rate Fallacy». Fallacyfiles.org. Retrieved 2013-06-15.
- ^ Rheinfurth, M. H.; Howell, L. W. (March 1998). Probability and Statistics in Aerospace Engineering (PDF). NASA. p. 16.
MESSAGE: False positive tests are more probable than true positive tests when the overall population has a low prevalence of the disease. This is called the false-positive paradox.
- ^ a b Vacher, H. L. (May 2003). «Quantitative literacy — drug testing, cancer screening, and the identification of igneous rocks». Journal of Geoscience Education: 2.
At first glance, this seems perverse: the less the students as a whole use steroids, the more likely a student identified as a user will be a non-user. This has been called the False Positive Paradox
— Citing: Gonick, L.; Smith, W. (1993). The cartoon guide to statistics. New York: Harper Collins. p. 49. - ^ Madison, B. L. (August 2007). «Mathematical Proficiency for Citizenship». In Schoenfeld, A. H. (ed.). Assessing Mathematical Proficiency. Mathematical Sciences Research Institute Publications (New ed.). Cambridge University Press. p. 122. ISBN 978-0-521-69766-8.
The correct [probability estimate…] is surprising to many; hence, the term paradox.
- ^ a b Munk, Timme Bisgaard (1 September 2017). «100,000 false positives for every real terrorist: Why anti-terror algorithms don’t work». First Monday. 22 (9). doi:10.5210/fm.v22i9.7126.
- ^ a b Schneier, Bruce. «Why Data Mining Won’t Stop Terror». Wired. ISSN 1059-1028. Retrieved 2022-08-30.
- ^ a b c Jonas, Jeff; Harper, Jim (2006-12-11). «Effective Counterterrorism and the Limited Role of Predictive Data Mining». CATO Institute. Retrieved 2022-08-30.
- ^ a b c d Sageman, Marc (2021-02-17). «The Implication of Terrorism’s Extremely Low Base Rate». Terrorism and Political Violence. 33 (2): 302–311. doi:10.1080/09546553.2021.1880226. ISSN 0954-6553. S2CID 232341781.
- ^ Bar-Hillel, Maya (1980). «The base-rate fallacy in probability judgments» (PDF). Acta Psychologica. 44 (3): 211–233. doi:10.1016/0001-6918(80)90046-3.
- ^ a b c Kahneman, Daniel; Amos Tversky (1973). «On the psychology of prediction». Psychological Review. 80 (4): 237–251. doi:10.1037/h0034747. S2CID 17786757.
- ^ Kahneman, Daniel; Amos Tversky (1985). «Evidential impact of base rates». In Daniel Kahneman, Paul Slovic & Amos Tversky (ed.). Judgment under uncertainty: Heuristics and biases. Science. Vol. 185. pp. 153–160. Bibcode:1974Sci…185.1124T. doi:10.1126/science.185.4157.1124. PMID 17835457. S2CID 143452957.
- ^ Kahneman, Daniel (2000). «Evaluation by moments, past and future». In Daniel Kahneman and Amos Tversky (ed.). Choices, Values and Frames. ISBN 0-521-62749-4.
- ^ Nisbett, Richard E.; E. Borgida; R. Crandall; H. Reed (1976). «Popular induction: Information is not always informative». In J. S. Carroll & J. W. Payne (ed.). Cognition and social behavior. Vol. 2. pp. 227–236. ISBN 0-470-99007-4.
- ^ Koehler, J. J. (2010). «The base rate fallacy reconsidered: Descriptive, normative, and methodological challenges». Behavioral and Brain Sciences. 19: 1–17. doi:10.1017/S0140525X00041157. S2CID 53343238.
- ^ Barbey, A. K.; Sloman, S. A. (2007). «Base-rate respect: From ecological rationality to dual processes». Behavioral and Brain Sciences. 30 (3): 241–254, discussion 255–297. doi:10.1017/S0140525X07001653. PMID 17963533. S2CID 31741077.
- ^ Tversky, A.; Kahneman, D. (1974). «Judgment under Uncertainty: Heuristics and Biases». Science. 185 (4157): 1124–1131. Bibcode:1974Sci…185.1124T. doi:10.1126/science.185.4157.1124. PMID 17835457. S2CID 143452957.
- ^ Cosmides, Leda; John Tooby (1996). «Are humans good intuitive statisticians after all? Rethinking some conclusions of the literature on judgment under uncertainty». Cognition. 58: 1–73. CiteSeerX 10.1.1.131.8290. doi:10.1016/0010-0277(95)00664-8. S2CID 18631755.
- ^ a b Gigerenzer, G.; Hoffrage, U. (1995). «How to improve Bayesian reasoning without instruction: Frequency formats». Psychological Review. 102 (4): 684. CiteSeerX 10.1.1.128.3201. doi:10.1037/0033-295X.102.4.684.
- ^ Hoffrage, U.; Lindsey, S.; Hertwig, R.; Gigerenzer, G. (2000). «Medicine: Communicating Statistical Information». Science. 290 (5500): 2261–2262. doi:10.1126/science.290.5500.2261. hdl:11858/00-001M-0000-0025-9B18-3. PMID 11188724. S2CID 33050943.
- ^ Akl, E. A.; Oxman, A. D.; Herrin, J.; Vist, G. E.; Terrenato, I.; Sperati, F.; Costiniuk, C.; Blank, D.; Schünemann, H. (2011). Schünemann, Holger (ed.). «Using alternative statistical formats for presenting risks and risk reductions». The Cochrane Database of Systematic Reviews. 2011 (3): CD006776. doi:10.1002/14651858.CD006776.pub2. PMC 6464912. PMID 21412897.
- ^ a b Sedlmeier, P.; Gigerenzer, G. (2001). «Teaching Bayesian reasoning in less than two hours». Journal of Experimental Psychology: General. 130 (3): 380–400. doi:10.1037/0096-3445.130.3.380. hdl:11858/00-001M-0000-0025-9504-E. PMID 11561916.
- ^ Brase, G. L. (2009). «Pictorial representations in statistical reasoning». Applied Cognitive Psychology. 23 (3): 369–381. doi:10.1002/acp.1460. S2CID 18817707.
- ^ Edwards, A.; Elwyn, G.; Mulley, A. (2002). «Explaining risks: Turning numerical data into meaningful pictures». BMJ. 324 (7341): 827–830. doi:10.1136/bmj.324.7341.827. PMC 1122766. PMID 11934777.
- ^ Kim, Yea-Seul; Walls, Logan A.; Krafft, Peter; Hullman, Jessica (2 May 2019). «A Bayesian Cognition Approach to Improve Data Visualization». Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems: 1–14. doi:10.1145/3290605.3300912. ISBN 9781450359702. S2CID 57761146.
- ^ Girotto, V.; Gonzalez, M. (2001). «Solving probabilistic and statistical problems: A matter of information structure and question form». Cognition. 78 (3): 247–276. doi:10.1016/S0010-0277(00)00133-5. PMID 11124351. S2CID 8588451.
- ^ a b Hoffrage, U.; Gigerenzer, G.; Krauss, S.; Martignon, L. (2002). «Representation facilitates reasoning: What natural frequencies are and what they are not». Cognition. 84 (3): 343–352. doi:10.1016/S0010-0277(02)00050-1. PMID 12044739. S2CID 9595672.
- ^ Gigerenzer, G.; Hoffrage, U. (1999). «Overcoming difficulties in Bayesian reasoning: A reply to Lewis and Keren (1999) and Mellers and McGraw (1999)». Psychological Review. 106 (2): 425. doi:10.1037/0033-295X.106.2.425. hdl:11858/00-001M-0000-0025-9CB4-8.
- ^ Kleiter, G. D. (1994). «Natural Sampling: Rationality without Base Rates». Contributions to Mathematical Psychology, Psychometrics, and Methodology. Recent Research in Psychology. pp. 375–388. doi:10.1007/978-1-4612-4308-3_27. ISBN 978-0-387-94169-1.
External links[edit]
- The Base Rate Fallacy The Fallacy Files
2 сентября 2020
Жизнь
Мы врём себе и сами того не замечаем. Это не специально: так уж устроен мозг. Но в наших силах понять ошибки и научиться их исправлять.
Зачем надо знать о когнитивных искажениях
Ошибки надо исправлять. А чтобы это сделать, их нужно найти. Когнитивные искажения ловко маскируются под нормальные мыслительные процессы — никому в голову не придёт, что в рассуждениях что-то пошло не так.
Когнитивных искажений много. В «Википедии» приводится 175 способов самообмана — огромное число. Некоторые чем-то похожи, какие-то дублируют друг друга. Выучить и постоянно знать все невозможно, но время от времени полезно просматривать список ошибок, находить свои любимые и избавляться от них.
Почему мозг любит ошибаться
Каждое искажение зачем-то нужно. Они появились в процессе развития мозга, чтобы помочь человеку адаптироваться в мире, не сойти с ума, сберечь энергию и время.
Бастер Бенсон, тренер и блогер, потратил месяц, чтобы изучить и рассортировать их: сделал таблицу, вычистил дубли, сгруппировал основные ошибки. У него получилось 20 шаблонных сценариев, по которым работает мозг.
Эти сценарии решают четыре главные проблемы:
- Как справиться с информационной перегрузкой.
- Как действовать, когда ты ничего не понимаешь.
- Как действовать быстро.
- Как запомнить важное и не запоминать ненужное.
Сегодня мы разберём когнитивные искажения, которые решают первую проблему.
Первая проблема мозга: слишком много информации
Каждый день мозг переваривает кучу данных, начиная с того, как ярко светит солнце, заканчивая мыслями, которые лезут в голову перед сном. Чтобы не захлебнуться информацией, приходится выбирать, о чём думать, а на что не обращать внимания. Мозг использует несколько приёмов, чтобы выдёргивать важные сведения.
Мы замечаем информацию, которую уже знаем
Повторение помогает запоминать — это правило работает, даже если мы не заучиваем информацию специально. Мозгу удобно замечать то, что он и так знает. Эту особенность поддерживает несколько искажений.
Эвристика доступности. Мы на любую новую информацию клеим ярлыки, опираясь на воспоминания и ассоциации, которые возникают в памяти сами собой. В этом есть логика: если что-то можно вспомнить, значит, это важно. Ну или по крайней мере важнее, чем то, что вспомнить трудно. А что возникает в памяти само по себе? То, что вас зацепило. То, что случилось с вами или с близкими. То, что можно посмотреть, потрогать, понюхать. В общем, скудный личный опыт. Его-то мы и используем, чтобы понимать всю новую информацию.
Например, знакомый специалист уехал в столицу и отлично там устроился. И нам кажется, что все жители столицы занимают крутую должность и получают огромную зарплату.
Ошибка базового процента. Мы игнорируем статистику, зато обращаем внимание на частные случаи и делаем выводы на основе неполных данных. Например, после прививки от гриппа вы простудились, значит, будете считать её вредной. По статистике прививка спасает миллионы жизней, но вам всё равно: когнитивным искажениям плевать на правду.
Отклонение внимания. Мы замечаем то, о чём думаем. Мы обращаем внимание на то, что волнует, а если что-то нам неинтересно, мы этого и не увидим. Кто много думает об одежде и интересуется брендами, с ходу заметит новую сумку у коллеги, будет обращать внимание на одежду других. Кто не отмечает праздники, тот забывает поздравить друзей и близких — это просто не входит в круг его интересов.
Иллюзия частоты. Мы начинаем замечать предметы, которые изучаем и которые нас недавно заинтересовали. Например, вы прочитали статью о здоровом образе жизни и решили заниматься спортом, считать БЖУ. И вдруг оказалось, что на каждом углу стоит фитнес-центр или магазин спортивного питания. Раньше их не было? Были, но вы не обращали на магазины и спортзалы внимания.
Эффект мнимой правды. Тенденция верить сведениям, которые повторяют много раз. Давно известно: если сто раз сказать человеку, что он свинья, на сто первый раз он хрюкнет.
Мнимую правду активно используют для пропаганды, ведь так удобно заставлять людей верить во что-то, повторяя это много раз.
Эффект знакомства с объектом. Из нескольких объектов мы выбираем тот, с которым уже знакомы или о котором слышали. И чем лучше мы что-то знаем, тем больше оно нам нравится. На этом искажении работает реклама: мы услышали о стиральном порошке, пришли в магазин и купили его просто потому, что он кажется лучше, ведь о нём мы хоть что-то знаем. И раз за разом покупаем этот порошок, не пробуя другие: а что, ведь мы давно его используем. Это искажение бережёт от необдуманных поступков, но помните, что лучшее — враг хорошего.
Эффект контекста. Окружающая среда влияет на восприятие стимулов. Даже умственные способности зависят от окружающей обстановки: удобнее читать и запоминать текст в светлой комнате и в тишине, а не в душном метро. Этот эффект тоже используют в маркетинге. Если вы пришли в магазин и выбираете товары в приятной обстановке, то вы согласны на более высокую цену. Одна моя знакомая продавала квартиру и перед приходом покупателей пекла булочки с корицей и ванилью. Квартиру наполнял приятный аромат и тепло. В итоге жильё удалось продать в полтора раза дороже рыночной цены, и это только благодаря булочкам.
Забывание без контекста. Мозг не умеет искать информацию по ключевым словам. Иногда нужно вспомнить что-то важное, но не получается. Требуется ассоциация, чтобы вытащить из памяти нужные сведения. Например, на экзамене никак не приходит в голову определение, но вот шелест страниц тетрадки или запах бумаги напоминают, как вы писали конспект, как учили термины, — и вот оно, определение.
Стимулом, который помогает вспомнить всё, служат разные раздражители — от звуков и запахов до вашего настроения.
Разрыв эмпатии. Мы недооцениваем влияние внутренних факторов на поведение. Даже таких банальных, как голод и жажда. Сытый голодного не разумеет — в буквальном смысле. Когда хочется на кого-то наорать, может, стоит перекусить или вздремнуть, а не ругаться. Поэтому мы не понимаем чужих поступков. Мы же не знаем, в каком состоянии человек их совершил.
Недооценка бездействия. Вредные поступки мы осуждаем. А не менее вредное бездействие — нет. «Но я же ничего не сделал!» — в чём тут человека обвинить? Поэтому, когда нужно действовать, мы стоим в сторонке и ничего не предпринимаем. Так безопаснее.
Мы замечаем только необычные вещи
Причудливые, смешные, яркие, выстреливающие сведения заметнее, чем скучные и рутинные. Мозг преувеличивает важность всего удивительного и пропускает всё обыкновенное.
Эффект изоляции. Отдельно стоящие и нестандартные объекты запоминаются лучше, чем похожие. Это как цифра в ряду букв, шутка в скучной лекции, заметная упаковка на полке с одинаковыми товарами. А если все упаковки яркие, то выделится минималистичная. Сюда же относится эффект приоритета изображения: картинки запоминаются лучше, чем текст. А уж картинка в тексте — тем более.
Эффект соотнесения с собой. Чем сильнее новая информация связана с нами, тем легче её запомнить. Если герой книги похож на нас, его приключения остаются в памяти надолго.
Эффект причастности. Мы считаем, что дело или вещь, которую создали мы, важнее, чем вещи, которые создали другие. Это наш ребёнок лучше всех на свете, наш проект самый полезный, наш отдел больше всех работает на благо компании.
Склонность к негативу. Мы переоцениваем значение отрицательных вещей. Поэтому так популярны криминальные хроники, поэтому тянет посмотреть ток-шоу, в которых у героев всё очень плохо. Причём один мелкий недостаток способен перечеркнуть множество положительных черт. Это та самая ложка дёгтя, которая портит всем и всё. Во всём прекрасный человек ковыряет в носу, и мы считаем это показателем, по которому стоит оценивать даже его работу.
Мы замечаем только изменения
Мы оцениваем вещи и события не по тому, какие они, а потому, что с ними произошло. Если случилось что-то хорошее, мы считаем всё событие положительным, и наоборот. А когда мы сравниваем две вещи, то смотрим не на их сущность, а на их отличия. Сложно? Посмотрим на примерах.
Эффект якоря. Искажение при оценке числовых значений. Если нас познакомить с объектом и указать рядом с ним число, то мы будем принимать решение, опираясь на это число. Например: благотворительный фонд отправляет письма с просьбой пожертвовать деньги, сумма любая, минимального ограничения нет. Но в одном письме фонд пишет: «Дайте хотя бы 100 рублей», а в другом: «Хотя бы 200 рублей». Человек, который получил второе письмо, заплатит больше.
Это искажение используют в рекламе и в магазинах, когда указывают скидку на товар.
Эффект контраста. Всё познаётся в сравнении. И от этого сравнения зависит наша оценка события. Например, человек радуется тому, что купил какую-то вещь в магазине, но перестаёт радоваться после того, как узнаёт, что в соседнем магазине эта же вещь стоит в два раза дешевле.
Фрейминг. Мы реагируем на событие в зависимости от того, как оно описано, и умеем менять отношение к ситуации. Классический пример: стакан наполовину полон или стакан наполовину пуст. Можно после потери денег сказать: «Мы потеряли половину капитала», а можно: «Нам удалось сохранить половину средств». В первом случае мы проиграли, во втором выиграли, хотя событие одно.
Консерватизм. Когда мы получаем новые данные, которые противоречат сложившейся картине мира, мы очень медленно их обрабатываем. И ещё медленнее меняем свои взгляды. Информацию, которая не покушается на старые убеждения, мы осваиваем быстрее. А всё из-за лени: куда проще не заметить данные, чем перестроить свои взгляды.
Денежная иллюзия. Мы оцениваем количество денег по номиналу. Миллион — это много. Хотя, если разобраться, это не так уж много, особенно если это миллион в слабой валюте. Мы оцениваем число, а не реальную стоимость денег. А их реальная стоимость складывается из того, сколько можно купить товаров на эту сумму.
Необъективная оценка отличий. Когда мы рассматриваем предметы по отдельности, мы замечаем между ними меньше различий, чем если сравниваем их одновременно. Порой невозможно различить близнецов, но, когда они рядом, их не перепутаешь. Или иногда ужин кажется не таким уж жирным. Подумаешь, там же просто макароны из твёрдых сортов пшеницы и котлета. А вот сравнишь такую тарелку с салатом и куриной грудкой — сразу видна разница.
Мы любим свои убеждения
Мы любим советы, которые подсказывают уже принятое решение. Мы плюём на детали, которые противоречат нашим убеждениям.
Предвзятость подтверждения и селективное восприятие. Мы ищем информацию, которая подтверждает знания и позицию. Это причина вечных споров и непримиримой вражды. Допустим, человек решил, что во всех его бедах виноват заговор. Он найдёт доказательства, что всё именно так. Любые аргументы противников пропустит мимо ушей либо скажет, что оппоненты и есть главные заговорщики.
Искажение в восприятии выбора. Сначала мы делаем выбор, потом оправдываем его. Сначала покупаем вещь, потом придумываем, зачем она нам нужна.
Чем хуже выбор, тем сильнее разыгрывается фантазия в поисках причин, которые оправдают наши поступки.
Эффект страуса. А это причина, по которой мы не замечаем негативную информацию, которая говорит о нашем выборе. Как в детстве: раз я вас не вижу, то и вы меня не видите, я спрятался.
Эффект ожидания наблюдателя. Наши ожидания определяют наше поведение. Если мы верим, что регулярные пробежки помогут похудеть, мы занимаемся чаще, чем если не верим в успех. В обратную сторону это тоже работает: если мы не ждём, что сможем выполнить задание, то делаем его кое-как.
Мы замечаем чужие ошибки
А вот свои признавать не хотим. Так что прежде, чем думать, что вы окружены идиотами, посмотрите на себя. Может, вы пропустили какое-то искажение?
Слепое пятно. Мы не видим когнитивных искажений в собственном мышлении. Тем они и коварны, что их трудно найти.
Наивный реализм и наивный цинизм. Кого мы считаем нормальным человеком, ориентиром, по которому оцениваем всех и всё? Конечно, себя. И тот, кто с нами не согласен, не прав.
Что делать с этой информацией
Читать и перечитывать. Здесь перечислены только те ошибки, которые мешают воспринимать информацию, и их условно можно разделить на четыре группы:
- Мы не любим новую информацию.
- Мы обращаем внимание только на необычное, но не думаем о рутине.
- Мы не умеем объективно сравнивать предметы.
- Мы не замечаем своих ошибок.
Из ложных данных нельзя сделать правильные выводы, как ни старайся. Поэтому эти когнитивные искажения так опасны: мы выстраиваем картину мира, которая не может работать.
Если в следующий раз, принимая решение, вы вспомните несколько искажений и сможете их исправить, то сделаете правильный выбор. А мы расскажем, какие ещё искажения есть в мире.
Читайте также 🧐
- 20 когнитивных искажений, которые влияют на ваши решения
- 30 ошибок мышления, из-за которых мы живём по шаблону
- 14 ловушек памяти, которые меняют наше прошлое и влияют на будущее
Статистическая формальная ошибка
Ошибка базовой ставки, также называемая базовой пренебрежение оценкой или отклонение базовой ставки, является ошибкой. При представлении связанной информации базовой ставки (т. Е. Общей информации о распространенности) и конкретной информации (т. Е. Информации, относящейся только к конкретному случаю) люди склонны игнорировать базовую ставку в пользу индивидуальной информации, вместо правильного объединения двух.
Пренебрежение базовой скоростью — это конкретная форма более общего пренебрежения расширением.
Содержание
- 1 Ложноположительный парадокс
- 2 Примеры
- 2.1 Пример 1: Болезнь
- 2.1.1 Население с высокой заболеваемостью
- 2.1.2 Население с низкой заболеваемостью
- 2.2 Пример 2: Водители в нетрезвом виде
- 2.3 Пример 3: Идентификация террористов
- 2.1 Пример 1: Болезнь
- 3 Выводы по психологии
- 4 См. Также
- 5 Ссылки
- 6 Внешние ссылки
Парадокс ложных срабатываний
Примером ошибки базовой ставки является то, насколько удивлены люди парадоксом ложных срабатываний, ситуации, когда имеется больше ложноположительных результатов теста, чем истинно-положительных. Например, это может быть так, что из 1000 человек, прошедших тестирование на инфекцию, 50 из них дали положительный результат на наличие инфекции, но это связано с тем, что у 10 действительно она была и у 40 ошибочных результатов тестов, потому что только 10 человек из тех, кто прошел тестирование, действительно инфицированы. но тест иногда дает ложные результаты. Вероятность положительного результата теста определяется не только точностью теста, но и характеристиками выборки. Когда распространенность, доля тех, у кого есть данное заболевание, ниже, чем уровень ложноположительных результатов теста, даже тесты, которые имеют очень низкий шанс дать ложноположительный результат в отдельном случае, будут давать больше ложных результатов. чем истинных положительных результатов в целом. Парадокс удивляет большинство людей.
Это особенно противоречит интуиции при интерпретации положительного результата теста на низкой распространенности популяции после того, как имеешь дело с положительными результатами, полученными из высокой распространенности. численность населения. Если ложноположительный уровень теста выше, чем доля новой популяции с заболеванием, то администратор теста, чей опыт был получен в результате тестирования в популяции с высокой распространенностью, может сделать вывод из Опыт, что положительный результат теста обычно указывает на положительный результат, тогда как на самом деле ложноположительный результат гораздо более вероятен.
Примеры
Пример 1: Болезнь
Население с высокой заболеваемостью
Количество. людей | Инфицированные | Незараженные | Всего |
---|---|---|---|
Тест. положительный | 400. (истинно положительный) | 30. (ложноположительный) | 430 |
Тест. отрицательный | 0. (ложноотрицательный) | 570. (истинно отрицательный) | 570 |
Всего | 400 | 600 | 1000 |
Представьте, что вы проводите тест на инфекционное заболевание в популяции A из 1000 человек, 40% из которых инфицированы. Уровень ложноположительных результатов теста составляет 5% (0,05), а количество ложноотрицательных результатов отсутствует. ожидаемый результат из 1000 тестов в популяции A будет:
- инфицировано, и тест указывает на болезнь (истинно положительный )
- 1000 × 40/100 = 400 человек получат истинно положительный результат
- Незараженные и тест указывает на болезнь (ложноположительный)
- 1000 × 100 — 40/100 × 0,05 = 30 человек получат ложноположительный результат
- Остальные 570 тестов правильно отрицательны.
Итак, в популяции A человек, получивший положительный результат теста, может быть уверен более чем на 93% (400/30 + 400), что он правильно указывает на инфекцию.
Население с низкой заболеваемостью
Количество. людей | Зараженные | Неинфицированные | Всего |
---|---|---|---|
Тест. положительный | 20. (истинно положительный) | 49. (ложноположительный) | 69 |
Тест. отрицательный | 0. (ложноотрицательный) | 931. (истинно отрицательный) | 931 |
Итого | 20 | 980 | 1000 |
Теперь рассмотрим тот же тест, примененный к популяции B, в которой инфицировано только 2%. ожидаемый результат 1000 тестов в популяции B будет:
- Заражено a -й тест указывает на болезнь (истинно положительный )
- 1000 × 2/100 = 20 человек получат истинно положительный результат
- Неинфицированные, а тест указывает на болезнь (ложноположительный)
- 1000 × 100 — 2 / 100 × 0,05 = 49 человек получат ложноположительный результат
- Остальные 931 (= 1000 — (49 + 20)) теста являются правильно отрицательными.
В популяции B только 20 из 69 человек с положительным результатом теста результат действительно заражены. Таким образом, вероятность действительно заразиться после того, как кому-то сказали, что он инфицирован, составляет всего 29% (20/20 + 49) для теста, который в противном случае кажется «точным на 95%».
Тестировщик, имеющий опыт работы с группой A, может найти парадокс в том, что в группе B результат, который обычно правильно указывал на инфекцию, теперь обычно является ложноположительным. Смешение апостериорной вероятности заражения с априорной вероятностью получения ложноположительного результата является естественной ошибкой после получения угрожающего здоровью результата теста.
Пример 2: Пьяные водители
- У группы полицейских есть алкотестеры, показывающие ложное опьянение в 5% случаев, когда водитель трезв. Однако алкотестеры всегда обнаруживают по-настоящему пьяного человека. Один из тысячи водителей водит машину в нетрезвом виде. Предположим, полицейские наугад останавливают водителя, чтобы провести тест алкотестера. Это указывает на то, что водитель пьян. Мы предполагаем, что вы ничего о них не знаете. Насколько высока вероятность того, что они действительно пьяны?
Многие ответят как 95%, но правильная вероятность составляет около 2%.
Объяснение этому следующее: в среднем на каждую 1000 протестированных водителей
- 1 водитель находится в состоянии алкогольного опьянения, и 100% уверенности в том, что для этого драйвера существует истинно положительный результат теста, поэтому имеется 1 истинно положительный результат теста
- 999 водителей не находятся в состоянии алкогольного опьянения, и среди этих водителей имеется 5% ложноположительных результатов испытаний, поэтому имеется 49,95 ложноположительных результатов испытаний
Следовательно, вероятность того, что один из водители среди положительных результатов теста 1 + 49,95 = 50,95 действительно пьяны 1 / 50,95 ≈ 0,019627 { displaystyle 1 / 50.95 приблизительно 0,019627}.
Однако достоверность этого результата зависит от достоверности Из первоначального предположения, что полицейский остановил водителя действительно случайно, а не из-за плохого вождения. Если присутствовала та или иная непроизвольная причина остановки водителя, то в расчет также включается вероятность того, что водитель в состоянии алкогольного опьянения будет управлять автомобилем грамотно, а водитель в нетрезвом виде водит (не) компетентно.
Более формально такая же вероятность примерно 0,02 может быть установлена с помощью теоремы Байеса. Цель состоит в том, чтобы найти вероятность того, что водитель пьян, учитывая, что алкотестер показал, что он пьян, что может быть представлено как
- p (пьяный ∣ D) { displaystyle p ( mathrm {drunk} mid D)}
где D означает, что алкотестер показывает, что водитель пьян. Теорема Байеса говорит нам, что
- p (d r u n k ∣ D) = p (D ∣ d r u n k) p (d r u n k) p (D). { displaystyle p ( mathrm {drunk} mid D) = { frac {p (D mid mathrm {drunk}) , p ( mathrm {drunk})} {p (D)}}.}.
В первом абзаце нам сказали следующее:
- p (пьяный) = 0,001, { displaystyle p ( mathrm {drunk}) = 0,001,}
- p (трезвый) = 0,999, { displaystyle p ( mathrm {sober}) = 0,999,}
- p (D ∣ drunk) = 1,00, { displaystyle p (D mid mathrm {drunk}) = 1,00,}и
- p (D трезвый) = 0,05. { displaystyle p (D mid mathrm {sober}) = 0,05.}
Как видно из формулы, для теоремы Байеса требуется p (D), которую можно вычислить из предыдущих значений с помощью закон полной вероятности :
- p (D) = p (D ∣ пьяный) p (пьяный) + p (D ∣ трезвый) p (трезвый) { displaystyle p (D) = p (D mid mathrm {drunk}) , p ( mathrm {drunk}) + p (D mid mathrm {sober}) , p ( mathrm {sober})}
, что дает
- p (D) = (1,00 × 0,001) + (0,05 × 0,999) = 0,05095. { displaystyle p (D) = (1,00 times 0,001) + (0,05 times 0,999) = 0,05095.}
Подставляя эти числа в теорему Байеса, мы получаем, что
- p (drunk ∣ D) = 1,00 × 0,001 0,05095 = 0,019627. { displaystyle p ( mathrm {drunk} mid D) = { frac {1,00 times 0,001} {0,05095}} = 0,019627.}
Пример 3: идентификация террориста
В городе 1 миллион жителей пусть будет 100 террористов и 999 900 нетеррористов. Для упрощения примера предполагается, что все люди, присутствующие в городе, являются его жителями. Таким образом, базовая вероятность того, что случайно выбранный житель города является террористом, равна 0,0001, а базовая вероятность того, что этот же житель не является террористом, равна 0,9999. В попытке поймать террористов город устанавливает систему сигнализации с камерой наблюдения и автоматическим программным обеспечением для распознавания лиц.
. Программное обеспечение имеет два уровня отказов по 1%:
- Уровень ложных отрицательных результатов: если камера сканирует террориста, звонок будет звонить в 99% случаев, и он не будет звонить в 1% случаев.
- Частота ложных срабатываний: если камера сканирует человека, не являющегося террористом, звонок не будет звонит 99% времени, но он будет звонить 1% времени.
Предположим теперь, что житель вызывает тревогу. Какова вероятность того, что это террорист? Другими словами, что такое P (T | B), вероятность того, что террорист был обнаружен при звонке в колокол? Кто-то, делающий «ошибку базовой ставки», сделает вывод о том, что с вероятностью 99% обнаруженный человек является террористом. Хотя этот вывод кажется логичным, на самом деле это неверное рассуждение, и приведенный ниже расчет покажет, что вероятность того, что они террористы, на самом деле составляет около 1%, а не около 99%.
Заблуждение возникает из-за смешения природы двух разных уровней отказов. «Количество не-колоколов на 100 террористов» и «количество нетеррористов на 100 колоколов» не связаны между собой. Один не обязательно равен другому, и они даже не обязательно должны быть почти равными. Чтобы продемонстрировать это, представьте, что произойдет, если во втором городе, где террористов вообще нет, была бы установлена идентичная система сигнализации. Как и в первом городе, тревога звучит для 1 из каждых 100 обнаруженных жителей, не являющихся террористами, но, в отличие от первого города, тревога никогда не звучит для террористов. Таким образом, 100% всех случаев срабатывания сигнализации относятся к нетеррористам, но ложноотрицательный показатель даже не может быть подсчитан. «Число нетеррористов на 100 колоколов» в этом городе равно 100, но P (T | B) = 0%. При звонке в колокол вероятность того, что террорист был обнаружен, равна нулю.
Представьте себе, что перед камерой проходит весь миллион жителей первого города. Около 99 из 100 террористов вызовут тревогу, равно как и около 9 999 из 999 900 нетеррористов. Таким образом, тревогу сработают около 10 098 человек, среди которых около 99 — террористы. Таким образом, вероятность того, что человек, вызвавший тревогу, на самом деле является террористом, составляет всего около 99 из 10 098, что меньше 1% и очень, очень сильно ниже нашего первоначального предположения в 99%.
Ошибка базовой ставки в этом примере вводит в заблуждение, потому что нетеррористов намного больше, чем террористов, а количество ложных срабатываний (нетеррористы сканируются как террористы) намного больше, чем истинных срабатываний ( реальное количество террористов).
Выводы по психологии
В ходе экспериментов было обнаружено, что люди предпочитают индивидуальную информацию общей информации, когда первая доступна.
В некоторых экспериментах студентов просили оценить средний балл (GPA) гипотетических студентов. Получая соответствующую статистику о распределении среднего балла, учащиеся, как правило, игнорировали ее, если давали описательную информацию о конкретном учащемся, даже если новая описательная информация явно не имела отношения к успеваемости в школе или не имела никакого отношения к ней. Этот вывод был использован, чтобы доказать, что собеседования являются ненужной частью процесса поступления в колледж, потому что интервьюеры не могут выбрать успешных кандидатов лучше, чем базовая статистика.
Психологи Дэниел Канеман и Амос Тверски попытались объяснить это открытие с помощью простого правила или «эвристики», называемого репрезентативностью.. Они утверждали, что многие суждения, касающиеся вероятности или причины и следствия, основаны на том, насколько одно репрезентативно для другого или для категории. Канеман считает, что пренебрежение базовой ставкой является особой формой пренебрежения расширением. Ричард Нисбетт утверждал, что некоторые предубеждения при атрибуции, такие как фундаментальная ошибка атрибуции являются примерами ошибки базовой ставки: люди не используют «консенсусную информацию» («базовую оценку») о том, как другие вели себя в аналогичных ситуациях, а вместо этого предпочитают более простые диспозиционные атрибуции.
В психологии ведутся серьезные споры об условиях, при которых люди ценят или не ценят информацию о базовой ставке. Исследователи программы эвристики и систематических ошибок подчеркнули эмпирические данные, показывающие, что люди склонны игнорировать базовые ставки и делать выводы, нарушающие определенные нормы вероятностного рассуждения, такие как теорема Байеса. Вывод, сделанный на основании этого направления исследований, заключался в том, что вероятностное мышление человека в корне ошибочно и подвержено ошибкам. Другие исследователи подчеркнули связь между когнитивными процессами и форматами информации, утверждая, что такие выводы обычно не являются обоснованными.
Еще раз рассмотрим пример 2, приведенный выше. Требуемый вывод заключается в оценке (апостериорной) вероятности того, что (случайно выбранный) водитель находится в состоянии алкогольного опьянения, при условии, что тест алкотестера положительный. Формально эту вероятность можно рассчитать с помощью теоремы Байеса, как показано выше. Однако существуют разные способы представления соответствующей информации. Рассмотрим следующий формально эквивалентный вариант проблемы:
- 1 из 1000 водителей водит машину в нетрезвом виде. Алкотестеры никогда не перестают определять по-настоящему пьяного человека. Для 50 из 999 водителей, не находящихся в состоянии алкогольного опьянения, алкотестер ложно показывает состояние опьянения. Предположим, полицейские наугад останавливают водителя и заставляют его пройти тест алкотестера. Это указывает на то, что они пьяны. Мы предполагаем, что вы ничего о них не знаете. Насколько высока вероятность, что они действительно пьяны?
В этом случае соответствующая числовая информация — p (пьяный), p (D | пьяный), p (D | трезвый) — представлена в виде собственных частот относительно к определенному эталонному классу (см. проблема эталонного класса ). Эмпирические исследования показывают, что выводы людей в большей степени соответствуют правилу Байеса, когда информация представлена таким образом, что помогает преодолеть пренебрежение базовой оценкой со стороны непрофессионалов и экспертов. Как следствие, такие организации, как Cochrane Collaboration, рекомендуют использовать такой формат для передачи статистики здравоохранения. Учить людей переводить подобные байесовские задачи мышления в форматы собственных частот более эффективно, чем просто учить их подставлять вероятности (или проценты) в теорему Байеса. Также было показано, что графическое представление собственных частот (например, массив значков) помогает людям делать более точные выводы.
Почему полезны форматы собственных частот? Одна из важных причин заключается в том, что этот формат информации облегчает требуемый вывод, поскольку упрощает необходимые вычисления. Это можно увидеть, используя альтернативный способ вычисления требуемой вероятности p (пьяный | D):
- p (пьян ∣ D) = N (пьян ∩ D) N (D) = 1 51 = 0,0196 { displaystyle p ( mathrm {drunk} mid D) = { frac {N ( mathrm {drunk} cap D)} {N (D)}} = { frac {1} {51}} = 0,0196}
где N (пьяный ∩ D) обозначает количество пьяных водителей, получивших положительный результат алкотестера, а N (D) обозначает общее количество случаев с положительным результатом алкотестера. Эквивалентность этого уравнения предыдущему следует из аксиом теории вероятностей, согласно которой N (drunk ∩ D) = N × p (D | drunk) × p (drunk). Важно отметить, что хотя это уравнение формально эквивалентно правилу Байеса, психологически оно не эквивалентно. Использование собственных частот упрощает вывод, поскольку требуемая математическая операция может выполняться с натуральными числами, а не с нормализованными дробями (т. Е. Вероятностями), поскольку это делает большое количество ложных срабатываний более прозрачным, и поскольку собственные частоты демонстрируют «вложенный набор» структура «.
Не каждый частотный формат позволяет использовать байесовские рассуждения. Собственные частоты относятся к информации о частоте, которая является результатом естественной выборки, которая сохраняет информацию о базовой скорости (например, количество пьяных водителей при выборке случайной выборки водителей). Это отличается от систематической выборки, в которой базовые ставки фиксируются априори (например, в научных экспериментах). В последнем случае невозможно вывести апостериорную вероятность p (пьяный | положительный тест) из сравнения количества пьяных водителей с положительным результатом теста по сравнению с общим количеством людей, получивших положительный результат алкотестера, потому что информация о базовой скорости не сохраняется и должен быть явно повторно введен с использованием теоремы Байеса.
См. Также
Ссылки
Внешние ссылки
Иногда мы больше верим догадкам и слухам, чем статистике. К примеру, вы сделали прививку и заболели, ваш знакомый тоже пожаловался на подобное и вот вы уже не доверяете прививкам, хотя по статистике риск заболевания после прививки 10-30%. Так проявляется когнитивное искажение «ошибка базового процента».
Еще пример. Вы видите мужчину в черном с татуировками, из наушников которого слышится тяжелый рок. Скорее всего вы решите, что он приехал на байке, хотя автомобилей на дорогах намного больше. Мужчина же вообще может оказаться велосипедистом.
Суть искажения в том, что мы склонны игнорировать статистику и общие данные, и полагаемся на личный опыт и частные случаи, которые нам реально встречались.
Ученые связывают эту ошибку с эвристикой репрезентативности – человеческим свойством делать выводы на основе стереотипов и личной оценки.
На это искажение могут накладываться другие – склонность к негативу, предвзятость подтверждения.
Вред этого когнитивного искажения:
- Ошибочные выводы о людях. Результаты – неспособность распознать мошенника, вхождение в плохую компанию, отказ от важного знакомства или от приглашения на работу ценного сотрудника.
- Повышение уровня тревожности. Результаты – чрезмерная мнительность, боязнь всего, постоянный стресс.
- Ошибки в важных ситуациях. Результаты – выбор сомнительных вариантов вместо надежных, недоверие к тому, что нас может защитить (пример с прививкой).
Как избежать этой когнитивной ловушки:
- Не спешить с выводами. Заметили, что дали оценку без размышлений, – остановитесь и задумайтесь. Мир не так прост.
- Избегать категоричности. Пришли к заключению – будьте гибкими, в новой ситуации перепроверьте свои выводы, возможно, вводные изменились.
- Собирайте больше данных. Составить полную картину можно только обладая максимумом информации.
- Фильтруйте информацию. Хотите получить точную оценку? Ищите не просто полные, но и достоверные данные. Выбирайте, каким источникам доверять.
- Расширяйте кругозор. Учитесь, интересуйтесь, играйте.
Больше о ловушках мышления и защите от них – в материале «Эффективные способы защиты от ловушек мышления».
Узнать больше »
Когнитивные искажения (от лат. cognitiо «познание») – это то, что касается каждого человека вне зависимости от уровня его образования и социального положения.
Наш мозг – это главный орган центральной нервной системы, загадка которого не разгадана учеными до сих пор. Он содержит около 86 миллиардов нейронов, которые регулируют всю деятельность человека.
Наверное, и неудивительно, что мозг иногда обманывает нас, так что порой кажется, что он живет отдельной жизнью.
Так это или нет – мы, возможно, узнаем в будущем, а пока давайте рассмотрим наиболее частые когнитивные искажения, или ошибки мышления, которые встречаются в жизни каждого.
Это поможет вам не только осознать причины тех или иных своих действий, но и даст понимание некоторых поступков окружающих вас людей.
Ошибки мышления
Данная статья будет интересна не только любителям психологии, но и всем, кому интересно саморазвитие.
-
Ошибка базового процента
Довольно часто мы игнорируем реальную статистику, отдавая предпочтение собственному опыту. Например, вы обратились в автосервис, который, в конечном счете, не смог починить вашу машину.
После этого ваш мозг будет считать данный сервис плохим даже несмотря на то, что вам достоверно известно о сотнях машин, которые были там полностью отремонтированы. Ничего не поделаешь, личный опыт для мозга важнее статистики.
-
Отклонение внимания
Мозгу свойственно замечать только то, что вам нравится, или что вас интересует. Например, если вы парикмахер, то новая прическа вашего коллеги будет тут же детально изучена, в то время как другие даже не обратят на нее внимание.
Если вы любите модные бренды, то любая новая сумка знакомого вызовет у вас интерес. То же самое касается и праздников. Так что если вас кто-то не поздравил, не спешите обижаться, – наверняка это было сделано не намеренно. Все дело в когнитивном искажении под названием «Отклонение внимания».
-
Феномен «Дверь в лицо»
Известный американский психолог Роберт Чалдини рассказывал, как однажды на улице к нему подошёл мальчик и предложил купить билеты на какое-то мероприятие. Один билет стоил 5 долларов.
Чалдини вежливо отказался. Тогда мальчик предложил ему купить плитки шоколада всего лишь по доллару за штуку. После того как Чалдини купил пару плиток, он осознал, что им манипулировали, так как:
- он не любит шоколад и ему нужны деньги;
- он остался с двумя ненужными ему шоколадками и без денег.
Чалдини отправился на встречу с коллегами, с которыми обсудил произошедшее. В результате совещания была разработана серия экспериментов, позже ставшая классической.
Итак, «Дверь в лицо» – это социально-психологический феномен, который заключается в том, что люди склонны идти на уступку и соглашаться с малопривлекательным предложением в том случае, если оно им предлагается сразу после их отказа от другой более тяжелой просьбы.
-
Иллюзия частоты
Мозг не замечает многие вещи, которые нас окружают до тех пор, пока они нас не заинтересуют. Например, вам нужно купить детскую коляску, и вы остановились на каком-то бренде.
Внезапно вы обнаруживаете, что колясок этого бренда начало встречаться очень много. Это иллюзия. На самом деле просто вы начали обращать на них внимание, а не они резко распространились. Таковы результаты когнитивного искажения.
-
Эффект мнимой правды
Это один из самых популярных инструментов пропаганды во всем мире. Давно известно, что если повторять ложь достаточно долго, достаточно громко и достаточно часто – люди начнут верить лжи.
Если человеку 100 раз сказать, что он свинья, то на 101раз он захрюкает.
Умельцы весьма эффективно применяют этот феномен. Приведем безобидный пример. Некто хочет, чтобы его считали умным, поэтому он, цитирует, допустим, древнегреческого философа:
– Как говорил Протагор – «Человек есть мера всех вещей».
В следующий раз он повторяет это несколько иначе:
– Как я говорил в прошлый раз, – «Человек есть мера всех вещей».
И, наконец, в третий раз он заявляет:
– Как я обычно говорю, – «Человек есть мера всех вещей».
Вроде бы все правильно, но используя это когнитивное искажение, вам навязали ложную мысль, будто автором фразы является этот Некто, который хочет, чтобы его считали умным.
-
Эффект знакомства с объектом
Пожалуй, вся реклама, существующая в мире, работает на этот эффект мышления. Дело в том, что из нескольких незнакомых объектов мы обязательно отдадим предпочтение тому, о котором знаем хотя бы что-то.
Например, вам нужен крем для рук. Придя в магазин, вы почти наверняка возьмете тот крем, о котором хотя бы раз где-то слышали (например, в рекламе), чем тот, о котором вы вообще ничего не знаете.
-
Эвристика доступности
Наверняка у многих бывали такие случаи, когда знакомый уезжал в столицу и умело там пристраивался, вследствие чего у вас формировалось убеждение, что все жители столицы – это хорошо обеспеченные люди, работающие в крутых компаниях.
Так вот эта ошибка мышления возникает потому, что наш мозг оценивает частоту или возможность события по легкости, с которой примеры или случаи приходят на ум, т. е. легче вспоминаются.
Или, например, человек оценивает степень риска возникновения инфаркта у людей среднего возраста, припоминая подобные случаи среди своих знакомых.
-
Эффект контекста
Эффект контекста используется маркетологами для того, чтобы спровоцировать вас на покупку чего-то, что вам вовсе не нужно. Именно поэтому выкладка товара в магазине делается не просто для удобства, а с обязательным использованием эффекта контекста.
Одна дама сумела чрезвычайно выгодно продать свою квартиру потому, что перед приездом покупателя она готовила ароматные сдобные булочки. Входя в свою потенциальную квартиру, клиент ощущал тепло и такой приятный домашний аромат, что мозг просто не мог не попасть в ловушку контекста.
Таким образом, при помощи этого нехитрого когнитивного искажения ловкая барышня сумела провернуть выгодную сделку.
-
Склонность к негативу
Мы подсознательно переоцениваем значение отрицательных вещей. Собственно именно по этой причине плохие новости всегда будут иметь гораздо бо́льшую аудиторию, чем хорошие.
Не случайно слова журналистки известной новостной службы «Редакция требует крови!» стали мемом и вовсе не так далеки от действительности. Редакции действительно нужно «больше крови», так как это гарантирует кратное увеличение просмотров.
-
Эффект якоря
Эффект якоря – это особенность оценки числовых значений, которая смещает оценку в сторону начального приближения.
Например, вам нужно купить пальто. Вы заходите в магазин, находите подходящую вам модель, а после примерки узнаете, что она стоит 500$. Для вас это дорого, и вы уже собираетесь уходить, как вдруг к вам подбегает консультант.
Уточнив, подошло ли вам пальто, консультант говорит, что это уникальная серия, состоящая из всего 80 экземпляров. Более того, на эту модель сегодня действует скидка «Минус 50%».
Именно здесь и срабатывает эффект якоря, роль которого в данном случае играет число 500. С большой долей вероятности клиент в такой ситуации совершит покупку, даже не задумываясь о том, что для такого пальто даже 250$ – большая цена.
Интересен факт, что эффект якоря работает вне зависимости от того, знаете вы о нем, или нет. То же самое наблюдается и с правилом взаимного обмена.
-
Эффект фрейминга
Эффект фрейминга (от англ. frame рамка, обрамление) – это когнитивное искажение, при котором форма подачи информации влияет на ее восприятие человеком.
В качестве классического примера данного эффекта нередко приводят выражение: «Стакан наполовину пуст или наполовину полон». Речь идет об одном и том же явлении, но отношение к нему из-за подачи информации меняется.
В одном из экспериментов участникам показывали видеозаписи с автомобильными авариями. После этого им задавали вопрос: «С какой скоростью ехали машины, когда столкнулись друг с другом?».
В каждой группе вопросы немного отличались: глагол «столкнулись» заменялся на «врезались», «налетели», «задели», «ударились».
В результате было установлено, что изменения в постановке вопроса оказывали влияние на оценку скорости автомобилей, несмотря на то, что всем респондентам показывали один и тот же ролик.
-
Восприятие выбора
Замечено, что сначала мы делаем выбор, а потом мозг пытается его оправдать. Причем чем бессмысленнее выбор, тем больше мы его защищаем.
В качестве примера можно привести попытки найти неявные плюсы в покупке и тем самым её оправдать при наличии другого, более подходящего товара, который по каким-то причинам не был приобретён.
К слову сказать, именно по этому принципу работают деструктивные секты и различные финансовые пирамиды. В какой-то степени этот эффект похож на стокгольмский синдром, когда жертва оправдывает агрессора. Кстати, мы уже рассказывали про 10 необычных психических синдромов в отдельной статье.
-
Предпочтение нулевого риска
Это предпочтение контролируемой, но потенциально более вредоносной (вследствие более частого её возникновения) ситуации перед обратной.
Происходит это по причине переоценки возможности контроля. То есть человек со своей стороны считает, что он полностью избавляется от риска (на самом деле не имея полного контроля), в то время как со стороны статистики это является снижением до нуля лишь одного, причем не самого большого риска.
Например, большинство людей предпочли бы уменьшить вероятность терактов до нуля вместо снижения аварийности на дорогах, даже несмотря на то, что второй эффект давал бы гораздо больше сохранённых жизней.
Или другой пример – ятрофобия (боязнь врачей). Многие люди боятся осложнений медицинских вмешательств больше, чем заболевания и смерти в результате самих этих заболеваний, которые возникают из-за отсутствия лечения.
-
Эффект морального доверия
Человек, относительно которого известно, что у него нет предубеждений, имеет в будущем большие шансы проявить эти предубеждения.
Иными словами, если все (в том числе и он сам) считают человека безгрешным, то возникает иллюзия, что любое его действие также будет безгрешным.
-
Селективное восприятие
Селективное восприятие (лат. selectio «выбирать») – это склонность людей уделять внимание тем элементам окружения, которые согласуются с их ожиданиями, и игнорировать остальные.
В классическом эксперименте зрители просматривали видео особо ожесточённого матча по американскому футболу между Принстонским университетом и Дартмутским колледжем.
Зрители из Принстона заметили почти в два раза больше нарушений, совершённых дартмутской командой, чем зрители из Дартмута. Один зритель из Дартмута вовсе не заметил ни одного нарушения со стороны «своей» команды.
Это когнитивное искажение также играет огромную роль в психологии рекламы.
-
Слепое пятно в отношении искажений
Последняя ошибка мышления, или когнитивное искажение, которое мы рассмотрим, – это слепое пятно в отношении искажений.
Это не что иное, как более лёгкое обнаружение недостатков у других людей, нежели у себя. То есть, все перечисленные когнитивные искажения присутствуют у каждого человека, однако мы «в чужом глазу видим соринку, а в своём и бревна не замечаем».
Наверняка и после прочтения этой статьи у большинства зрителей появится ощущение, что я, дескать, знаю все это и так, и, конечно же, меня все эти когнитивные искажения не касаются. На самом же деле они касаются всех.
Но теперь возникает закономерный вопрос: что же делать со всеми этими ошибками? Ответ прост: перечитывайте статью и вникайте в суть перечисленных когнитивных искажений или ошибок мышления.
Чем больше вы будете осознавать факт существования когнитивных искажений, тем больше вероятность, что вы будете принимать правильные решения и делать верный выбор.
Теперь вы знаете, что такое когнитивные искажения и как они влияют на нашу жизнь. Если вам понравилась статья, – поделитесь ею с друзьями и подписывайтесь на сайт interesnyefakty.org. С нами всегда интересно!
Понравился пост? Нажми любую кнопку:
A hospital receiving more vaccinated covid patients than unvaccinated ones might suggest that the vaccine is ineffective, but such an imbalance is to be expected within a highly vaccinated population[1]
The base rate fallacy, also called base rate neglect[2] or base rate bias, is a type of fallacy in which people tend to ignore the base rate (e.g., general prevalence) in favor of the individuating information (i.e., information pertaining only to a specific case).[3]
Base rate neglect is a specific form of the more general extension neglect.
It is also called prosecutor’s fallacy or defense attorney’s fallacy when applied to the results of statistical tests (such as DNA tests) in the context of law proceedings. In this form, the term was introduced by William C. Thompson and Edward Schumann in 1987.[4][5]
False positive paradox[edit]
An example of the base rate fallacy is the false positive paradox (also known as accuracy paradox). This paradox describes situations where there are more false positive test results than true positives. For example, if a facial recognition camera can identify wanted criminals 99% accurately, but analyzes 10,000 people a day, the high accuracy is outweighed by the number of tests, and the program’s list of criminals will likely have far more false positives than true. The probability of a positive test result is determined not only by the accuracy of the test but also by the characteristics of the sampled population.[6] When the prevalence, the proportion of those who have a given condition, is lower than the test’s false positive rate, even tests that have a very low risk of giving a false positive in an individual case will give more false than true positives overall.[7] The paradox surprises most people.[8]
It is especially counter-intuitive when interpreting a positive result in a test on a low-prevalence population after having dealt with positive results drawn from a high-prevalence population.[7] If the false positive rate of the test is higher than the proportion of the new population with the condition, then a test administrator whose experience has been drawn from testing in a high-prevalence population may conclude from experience that a positive test result usually indicates a positive subject, when in fact a false positive is far more likely to have occurred.
Examples[edit]
Example 1: Disease[edit]
High-incidence population[edit]
Number of people |
Infected | Uninfected | Total |
---|---|---|---|
Test positive |
400 (true positive) |
30 (false positive) |
430 |
Test negative |
0 (false negative) |
570 (true negative) |
570 |
Total | 400 | 600 | 1000 |
Imagine running an infectious disease test on a population A of 1000 persons, of which 40% are infected. The test has a false positive rate of 5% (0.05) and no false negative rate. The expected outcome of the 1000 tests on population A would be:
- Infected and test indicates disease (true positive)
- 1000 × 40/100 = 400 people would receive a true positive
- Uninfected and test indicates disease (false positive)
- 1000 × 100 – 40/100 × 0.05 = 30 people would receive a false positive
- The remaining 570 tests are correctly negative.
So, in population A, a person receiving a positive test could be over 93% confident (400/30 + 400) that it correctly indicates infection.
Low-incidence population[edit]
Number of people |
Infected | Uninfected | Total |
---|---|---|---|
Test positive |
20 (true positive) |
49 (false positive) |
69 |
Test negative |
0 (false negative) |
931 (true negative) |
931 |
Total | 20 | 980 | 1000 |
Now consider the same test applied to population B, of which only 2% are infected. The expected outcome of 1000 tests on population B would be:
- Infected and test indicates disease (true positive)
- 1000 × 2/100 = 20 people would receive a true positive
- Uninfected and test indicates disease (false positive)
- 1000 × 100 – 2/100 × 0.05 = 49 people would receive a false positive
- The remaining 931 tests are correctly negative.
In population B, only 20 of the 69 total people with a positive test result are actually infected. So, the probability of actually being infected after one is told that one is infected is only 29% (20/20 + 49) for a test that otherwise appears to be «95% accurate».
A tester with experience of group A might find it a paradox that in group B, a result that had usually correctly indicated infection is now usually a false positive. The confusion of the posterior probability of infection with the prior probability of receiving a false positive is a natural error after receiving a health-threatening test result.
Example 2: Drunk drivers[edit]
- A group of police officers have breathalyzers displaying false drunkenness in 5% of the cases in which the driver is sober. However, the breathalyzers never fail to detect a truly drunk person. One in a thousand drivers is driving drunk. Suppose the police officers then stop a driver at random to administer a breathalyzer test. It indicates that the driver is drunk. We assume you do not know anything else about them. How high is the probability they really are drunk?
Many would answer as high as 95%, but the correct probability is about 2%.
An explanation for this is as follows: on average, for every 1,000 drivers tested,
- 1 driver is drunk, and it is 100% certain that for that driver there is a true positive test result, so there is 1 true positive test result
- 999 drivers are not drunk, and among those drivers there are 5% false positive test results, so there are 49.95 false positive test results
Therefore, the probability that one of the drivers among the 1 + 49.95 = 50.95 positive test results really is drunk is .
The validity of this result does, however, hinge on the validity of the initial assumption that the police officer stopped the driver truly at random, and not because of bad driving. If that or another non-arbitrary reason for stopping the driver was present, then the calculation also involves the probability of a drunk driver driving competently and a non-drunk driver driving (in-)competently.
More formally, the same probability of roughly 0.02 can be established using Bayes’s theorem. The goal is to find the probability that the driver is drunk given that the breathalyzer indicated they are drunk, which can be represented as
where D means that the breathalyzer indicates that the driver is drunk. Bayes’s theorem tells us that
We were told the following in the first paragraph:
- and
As you can see from the formula, one needs p(D) for Bayes’ theorem, which one can compute from the preceding values using the law of total probability:
which gives
Plugging these numbers into Bayes’ theorem, one finds that
Example 3: Terrorist identification[edit]
In a city of 1 million inhabitants, let there be 100 terrorists and 999,900 non-terrorists. To simplify the example, it is assumed that all people present in the city are inhabitants. Thus, the base rate probability of a randomly selected inhabitant of the city being a terrorist is 0.0001, and the base rate probability of that same inhabitant being a non-terrorist is 0.9999. In an attempt to catch the terrorists, the city installs an alarm system with a surveillance camera and automatic facial recognition software.
The software has two failure rates of 1%:
- The false negative rate: If the camera scans a terrorist, a bell will ring 99% of the time, and it will fail to ring 1% of the time.
- The false positive rate: If the camera scans a non-terrorist, a bell will not ring 99% of the time, but it will ring 1% of the time.
Suppose now that an inhabitant triggers the alarm. What is the probability that the person is a terrorist? In other words, what is P(T | B), the probability that a terrorist has been detected given the ringing of the bell? Someone making the ‘base rate fallacy’ would infer that there is a 99% probability that the detected person is a terrorist. Although the inference seems to make sense, it is actually bad reasoning, and a calculation below will show that the probability of a terrorist is actually near 1%, not near 99%.
The fallacy arises from confusing the natures of two different failure rates. The ‘number of non-bells per 100 terrorists’ and the ‘number of non-terrorists per 100 bells’ are unrelated quantities. One does not necessarily equal the other, and they don’t even have to be almost equal. To show this, consider what happens if an identical alarm system were set up in a second city with no terrorists at all. As in the first city, the alarm sounds for 1 out of every 100 non-terrorist inhabitants detected, but unlike in the first city, the alarm never sounds for a terrorist. Therefore, 100% of all occasions of the alarm sounding are for non-terrorists, but a false negative rate cannot even be calculated. The ‘number of non-terrorists per 100 bells’ in that city is 100, yet P(T | B) = 0%. There is zero chance that a terrorist has been detected given the ringing of the bell.
Imagine that the first city’s entire population of one million people pass in front of the camera. About 99 of the 100 terrorists will trigger the alarm—and so will about 9,999 of the 999,900 non-terrorists. Therefore, about 10,098 people will trigger the alarm, among which about 99 will be terrorists. The probability that a person triggering the alarm actually is a terrorist is only about 99 in 10,098, which is less than 1%, and very, very far below our initial guess of 99%.
The base rate fallacy is so misleading in this example because there are many more non-terrorists than terrorists, and the number of false positives (non-terrorists scanned as terrorists) is so much larger than the true positives (terrorists scanned as terrorists).
Multiple practitioners have argued that as the base rate of terrorism is extremely low, using data mining and predictive algorithms to identify terrorists cannot feasibly work due to the false positive paradox.[9][10][11][12] Estimates of the number of false positives for each accurate result vary from over ten thousand[12] to one billion;[10] consequently, investigating each lead would be cost and time prohibitive.[9][11] The level of accuracy required to make these models viable is likely unachievable. Foremost the low base rate of terrorism also means there is a lack of data with which to make an accurate algorithm.[11] Further, in the context of detecting terrorism false negatives are highly undesirable and thus must be minimised as much as possible, however this requires increasing sensitivity at the cost of specificity, increasing false positives.[12] It is also questionable whether the use of such models by law enforcement would meet the requisite burden of proof given that over 99% of results would be false positives.[12]
Example 4: biological testing of a suspect[edit]
A crime is committed. Forensic analysis determines that the perpetrator has a certain blood type shared by 10% of the population. A suspect is arrested, and found to have that same blood type.
A prosecutor might charge the suspect with the crime on that basis alone, and claim at trial that the probability that the defendant is guilty is 90%. However, this conclusion is only close to correct if the defendant was selected as the main suspect based on robust evidence discovered prior to the blood test and unrelated to it. Otherwise, the reasoning presented is flawed, as it overlooks the high prior probability (that is, prior to the blood test) that he is a random innocent person. Assume, for instance, that 1000 people live in the town where the crime occurred. This means that 100 people live there who have the perpetrator’s blood type, of whom only one is the true author; therefore, the true probability that the defendant is guilty – based only on the fact that his blood type matches that of the killer – is only 1%, far less than the 90% argued by the prosecutor.
The prosecutor’s fallacy involves assuming that the prior probability of a random match is equal to the probability that the defendant is innocent. When using it, a prosecutor questioning an expert witness may ask: «The odds of finding this evidence on an innocent man are so small that the jury can safely disregard the possibility that this defendant is innocent, correct?»[13] The claim assumes that the probability that evidence is found on an innocent man is the same as the probability that a man is innocent given that evidence was found on him, which is not true. Whilst the former is usually small (10% in the previous example) due to good forensic evidence procedures, the latter (99% in that example) does not directly relate to it and will often be much higher, since, in fact, it depends on the likely quite high prior odds of the defendant being a random innocent person.
Examples in law[edit]
OJ Simpson trial[edit]
O. J. Simpson was tried and acquitted in 1995 for the murders of his ex-wife Nicole Brown Simpson and her friend Ronald Goldman.
Crime scene blood matched Simpson’s with characteristics shared by 1 in 400 people. However, the defense argued that a football stadium could be filled with Angelenos matching the sample and that the figure of 1 in 400 was useless.[14][15] It would have been incorrect, and an example of prosecutor’s fallacy, to rely solely on the «1 in 400» figure to deduce that a given person matching the sample would be likely to be the culprit.
In the same trial, the prosecution presented evidence that Simpson had been violent toward his wife. The defense argued that there was only one woman murdered for every 2500 women who were subjected to spousal abuse, and that any history of Simpson being violent toward his wife was irrelevant to the trial. However, the reasoning behind the defense’s calculation was fallacious. According to author Gerd Gigerenzer, the correct probability requires additional context: Simpson’s wife had not only been subjected to domestic violence, but rather subjected to domestic violence (by Simpson) and killed (by someone). Gigerenzer writes «the chances that a batterer actually murdered his partner, given that she has been killed, is about 8 in 9 or approximately 90%».[16] While most cases of spousal abuse do not end in murder, most cases of murder where there is a history of spousal abuse were committed by the spouse.
Sally Clark case[edit]
Sally Clark, a British woman, was accused in 1998 of having killed her first child at 11 weeks of age and then her second child at 8 weeks of age. The prosecution had expert witness Sir Roy Meadow, a professor and consultant paediatrician,[17] testify that the probability of two children in the same family dying from SIDS is about 1 in 73 million. That was much less frequent than the actual rate measured in historical data – Meadow estimated it from single-SIDS death data, and the assumption that the probability of such deaths should be uncorrelated between infants.[18]
Meadow acknowledged that 1-in-73 million is not an impossibility, but argued that such accidents would happen «once every hundred years» and that, in a country of 15 million 2-child families, it is vastly more likely that the double-deaths are due to Münchausen syndrome by proxy than to such a rare accident. However, there is good reason to suppose that the likelihood of a death from SIDS in a family is significantly greater if a previous child has already died in these circumstances (a genetic predisposition to SIDS is likely to invalidate that assumed statistical independence[19]) making some families more susceptible to SIDS and the error an outcome of the ecological fallacy.[20] The likelihood of two SIDS deaths in the same family cannot be soundly estimated by squaring the likelihood of a single such death in all otherwise similar families.[21]
1-in-73 million greatly underestimated the chance of two successive accidents, but, even if that assessment were accurate, the court seems to have missed the fact that the 1-in-73 million number meant nothing on its own. As an a priori probability, it should have been weighed against the a priori probabilities of the alternatives. Given that two deaths had occurred, one of the following explanations must be true, and all of them are a priori extremely improbable:
- Two successive deaths in the same family, both by SIDS
- Double homicide (the prosecution’s case)
- Other possibilities (including one homicide and one case of SIDS)
It is unclear whether an estimate of the probability for the second possibility was ever proposed during the trial, or whether the comparison of the first two probabilities was understood to be the key estimate to make in the statistical analysis assessing the prosecution’s case against the case for innocence.
Clark was convicted in 1999, resulting in a press release by the Royal Statistical Society which pointed out the mistakes.[22]
In 2002, Ray Hill (Mathematics professor at Salford) attempted to accurately compare the chances of these two possible explanations; he concluded that successive accidents are between 4.5 and 9 times more likely than are successive murders, so that the a priori odds of Clark’s guilt were between 4.5 to 1 and 9 to 1 against.[23]
After the court found that the forensic pathologist who had examined both babies had withheld exculpatory evidence, a higher court later quashed Clark’s conviction, on 29 January 2003.[24]
Findings in psychology[edit]
In experiments, people have been found to prefer individuating information over general information when the former is available.[25][26][27]
In some experiments, students were asked to estimate the grade point averages (GPAs) of hypothetical students. When given relevant statistics about GPA distribution, students tended to ignore them if given descriptive information about the particular student even if the new descriptive information was obviously of little or no relevance to school performance.[26] This finding has been used to argue that interviews are an unnecessary part of the college admissions process because interviewers are unable to pick successful candidates better than basic statistics.
Psychologists Daniel Kahneman and Amos Tversky attempted to explain this finding in terms of a simple rule or «heuristic» called representativeness. They argued that many judgments relating to likelihood, or to cause and effect, are based on how representative one thing is of another, or of a category.[26] Kahneman considers base rate neglect to be a specific form of extension neglect.[28] Richard Nisbett has argued that some attributional biases like the fundamental attribution error are instances of the base rate fallacy: people do not use the «consensus information» (the «base rate») about how others behaved in similar situations and instead prefer simpler dispositional attributions.[29]
There is considerable debate in psychology on the conditions under which people do or do not appreciate base rate information.[30][31] Researchers in the heuristics-and-biases program have stressed empirical findings showing that people tend to ignore base rates and make inferences that violate certain norms of probabilistic reasoning, such as Bayes’ theorem. The conclusion drawn from this line of research was that human probabilistic thinking is fundamentally flawed and error-prone.[32] Other researchers have emphasized the link between cognitive processes and information formats, arguing that such conclusions are not generally warranted.[33][34]
Consider again Example 2 from above. The required inference is to estimate the (posterior) probability that a (randomly picked) driver is drunk, given that the breathalyzer test is positive. Formally, this probability can be calculated using Bayes’ theorem, as shown above. However, there are different ways of presenting the relevant information. Consider the following, formally equivalent variant of the problem:
- 1 out of 1000 drivers are driving drunk. The breathalyzers never fail to detect a truly drunk person. For 50 out of the 999 drivers who are not drunk the breathalyzer falsely displays drunkenness. Suppose the policemen then stop a driver at random, and force them to take a breathalyzer test. It indicates that they are drunk. We assume you don’t know anything else about them. How high is the probability they really are drunk?
In this case, the relevant numerical information—p(drunk), p(D | drunk), p(D | sober)—is presented in terms of natural frequencies with respect to a certain reference class (see reference class problem). Empirical studies show that people’s inferences correspond more closely to Bayes’ rule when information is presented this way, helping to overcome base-rate neglect in laypeople[34] and experts.[35] As a consequence, organizations like the Cochrane Collaboration recommend using this kind of format for communicating health statistics.[36] Teaching people to translate these kinds of Bayesian reasoning problems into natural frequency formats is more effective than merely teaching them to plug probabilities (or percentages) into Bayes’ theorem.[37] It has also been shown that graphical representations of natural frequencies (e.g., icon arrays, hypothetical outcome plots) help people to make better inferences.[37][38][39][40]
Why are natural frequency formats helpful? One important reason is that this information format facilitates the required inference because it simplifies the necessary calculations. This can be seen when using an alternative way of computing the required probability p(drunk|D):
where N(drunk ∩ D) denotes the number of drivers that are drunk and get a positive breathalyzer result, and N(D) denotes the total number of cases with a positive breathalyzer result. The equivalence of this equation to the above one follows from the axioms of probability theory, according to which N(drunk ∩ D) = N × p (D | drunk) × p (drunk). Importantly, although this equation is formally equivalent to Bayes’ rule, it is not psychologically equivalent. Using natural frequencies simplifies the inference because the required mathematical operation can be performed on natural numbers, instead of normalized fractions (i.e., probabilities), because it makes the high number of false positives more transparent, and because natural frequencies exhibit a «nested-set structure».[41][42]
Not every frequency format facilitates Bayesian reasoning.[42][43] Natural frequencies refer to frequency information that results from natural sampling,[44] which preserves base rate information (e.g., number of drunken drivers when taking a random sample of drivers). This is different from systematic sampling, in which base rates are fixed a priori (e.g., in scientific experiments). In the latter case it is not possible to infer the posterior probability p (drunk | positive test) from comparing the number of drivers who are drunk and test positive compared to the total number of people who get a positive breathalyzer result, because base rate information is not preserved and must be explicitly re-introduced using Bayes’ theorem.
See also[edit]
- Base rate
- Bayesian probability
- Bayes’ theorem
- Data dredging
- Evidence under Bayes’ theorem
- Inductive argument
- List of cognitive biases
- List of paradoxes
- Misleading vividness
- Prevention paradox
- Prosecutor’s fallacy, a mistake in reasoning that involves ignoring a low prior probability
- Simpson’s paradox, another error in statistical reasoning dealing with comparing groups
- Stereotype
- Intuitive statistics
References[edit]
- ^ «COVID-19 Cases, Hospitalizations, and Deaths by Vaccination Status» (PDF). Washington State Department of Health. 2023-01-18. Archived (PDF) from the original on 2023-01-26. Retrieved 2023-02-14.
If the exposure to COVID-19 stays the same, as more individuals are vaccinated, more cases, hospitalizations, and deaths will be in vaccinated individuals, as they will continue to make up more and more of the population. For example, if 100% of the population was vaccinated, 100% of cases would be among vaccinated people.
- ^ Welsh, Matthew B.; Navarro, Daniel J. (2012). «Seeing is believing: Priors, trust, and base rate neglect». Organizational Behavior and Human Decision Processes. 119 (1): 1–14. doi:10.1016/j.obhdp.2012.04.001. hdl:2440/41190. ISSN 0749-5978.
- ^ «Logical Fallacy: The Base Rate Fallacy». Fallacyfiles.org. Retrieved 2013-06-15.
- ^ Thompson, W.C.; Shumann, E.L. (1987). «Interpretation of Statistical Evidence in Criminal Trials: The Prosecutor’s Fallacy and the Defense Attorney’s Fallacy». Law and Human Behavior. 2 (3): 167. doi:10.1007/BF01044641. JSTOR 1393631. S2CID 147472915.
- ^ Fountain, John; Gunby, Philip (February 2010). «Ambiguity, the Certainty Illusion, and Gigerenzer’s Natural Frequency Approach to Reasoning with Inverse Probabilities» (PDF). University of Canterbury. p. 6.[permanent dead link]
- ^ Rheinfurth, M. H.; Howell, L. W. (March 1998). Probability and Statistics in Aerospace Engineering. NASA. p. 16.
MESSAGE: False positive tests are more probable than true positive tests when the overall population has a low prevalence of the disease. This is called the false-positive paradox.
- ^ a b Vacher, H. L. (May 2003). «Quantitative literacy — drug testing, cancer screening, and the identification of igneous rocks». Journal of Geoscience Education: 2.
At first glance, this seems perverse: the less the students as a whole use steroids, the more likely a student identified as a user will be a non-user. This has been called the False Positive Paradox
— Citing: Gonick, L.; Smith, W. (1993). The cartoon guide to statistics. New York: Harper Collins. p. 49. - ^ Madison, B. L. (August 2007). «Mathematical Proficiency for Citizenship». In Schoenfeld, A. H. (ed.). Assessing Mathematical Proficiency. Mathematical Sciences Research Institute Publications (New ed.). Cambridge University Press. p. 122. ISBN 978-0-521-69766-8.
The correct [probability estimate…] is surprising to many; hence, the term paradox.
- ^ a b Munk, Timme Bisgaard (1 September 2017). «100,000 false positives for every real terrorist: Why anti-terror algorithms don’t work». First Monday. 22 (9). doi:10.5210/fm.v22i9.7126.
- ^ a b Schneier, Bruce. «Why Data Mining Won’t Stop Terror». Wired. ISSN 1059-1028. Retrieved 2022-08-30.
- ^ a b c Jonas, Jeff; Harper, Jim (2006-12-11). «Effective Counterterrorism and the Limited Role of Predictive Data Mining». CATO Institute. Retrieved 2022-08-30.
- ^ a b c d Sageman, Marc (2021-02-17). «The Implication of Terrorism’s Extremely Low Base Rate». Terrorism and Political Violence. 33 (2): 302–311. doi:10.1080/09546553.2021.1880226. ISSN 0954-6553. S2CID 232341781.
- ^ Fenton, Norman; Neil, Martin; Berger, Daniel (June 2016). «Bayes and the Law». Annual Review of Statistics and Its Application. 3 (1): 51–77. Bibcode:2016AnRSA…3…51F. doi:10.1146/annurev-statistics-041715-033428. PMC 4934658. PMID 27398389.
- ^ Robertson, B., & Vignaux, G. A. (1995). Interpreting evidence: Evaluating forensic evidence in the courtroom. Chichester: John Wiley and Sons.
- ^ Rossmo, D. Kim (2009). Criminal Investigative Failures. CRC Press Taylor & Francis Group.
- ^ Gigerenzer, G., Reckoning with Risk: Learning to Live with Uncertainty, Penguin, (2003)
- ^ «Resolution adopted by the Senate (21 October 1998) on the retirement of Professor Sir Roy Meadow». Reporter. No. 428. University of Leeds. 30 November 1998. Archived from the original on 2016-04-16. Retrieved 2015-10-17.
- ^ The population-wide probability of a SIDS fatality was about 1 in 1,303; Meadow generated his 1-in-73 million estimate from the lesser probability of SIDS death in the Clark household, which had lower risk factors (e.g. non-smoking). In this sub-population he estimated the probability of a single death at 1 in 8,500. See: Joyce, H. (September 2002). «Beyond reasonable doubt» (pdf). plus.maths.org. Retrieved 2010-06-12.. Professor Ray Hill questioned even this first step (1/8,500 vs 1/1,300) in two ways: firstly, on the grounds that it was biased, excluding those factors that increased risk (especially that both children were boys) and (more importantly) because reductions in SIDS risk factors will proportionately reduce murder risk factors, so that the relative frequencies of Münchausen syndrome by proxy and SIDS will remain in the same ratio as in the general population: Hill, Ray (2002). «Cot Death or Murder? – Weighing the Probabilities».
it is patently unfair to use the characteristics which basically make her a good, clean-living, mother as factors which count against her. Yes, we can agree that such factors make a natural death less likely – but those same characteristics also make murder less likely.
- ^ Sweeney, John; Law, Bill (July 15, 2001). «Gene find casts doubt on double ‘cot death’ murders». The Observer. Archived from the original on 2012-07-11.
- ^ Vincent Scheurer. «Convicted on Statistics?». Retrieved 2010-05-21.
- ^ Hill, R. (2004). «Multiple sudden infant deaths – coincidence or beyond coincidence?» (PDF). Paediatric and Perinatal Epidemiology. 18 (5): 321. doi:10.1111/j.1365-3016.2004.00560.x. PMID 15367318. Archived from the original (PDF) on 2012-08-30. Retrieved 2010-06-13.
- ^ «Royal Statistical Society concerned by issues raised in Sally Clark case» (PDF). 23 October 2001. Archived from the original (PDF) on 24 August 2011.
Society does not tolerate doctors making serious clinical errors because it is widely understood that such errors could mean the difference between life and death. The case of R v. Sally Clark is one example of a medical expert witness making a serious statistical error, one which may have had a profound effect on the outcome of the case
- ^ The uncertainty in this range is mainly driven by uncertainty in the likelihood of killing a second child, having killed a first, see: Hill, R. (2004). «Multiple sudden infant deaths – coincidence or beyond coincidence?» (PDF). Paediatric and Perinatal Epidemiology. 18 (5): 322–323. doi:10.1111/j.1365-3016.2004.00560.x. PMID 15367318. Archived from the original (PDF) on 2012-08-30. Retrieved 2010-06-13.
- ^ «R v Clark. [2003] EWCA Crim 1020 (11 April 2003)». www.bailii.org.
- ^ Bar-Hillel, Maya (1980). «The base-rate fallacy in probability judgments» (PDF). Acta Psychologica. 44 (3): 211–233. doi:10.1016/0001-6918(80)90046-3.
- ^ a b c Kahneman, Daniel; Amos Tversky (1973). «On the psychology of prediction». Psychological Review. 80 (4): 237–251. doi:10.1037/h0034747. S2CID 17786757.
- ^ Kahneman, Daniel; Amos Tversky (1985). «Evidential impact of base rates». In Daniel Kahneman, Paul Slovic & Amos Tversky (ed.). Judgment under uncertainty: Heuristics and biases. Science. Vol. 185. pp. 153–160. Bibcode:1974Sci…185.1124T. doi:10.1126/science.185.4157.1124. PMID 17835457. S2CID 143452957.
- ^ Kahneman, Daniel (2000). «Evaluation by moments, past and future». In Daniel Kahneman and Amos Tversky (ed.). Choices, Values and Frames. ISBN 0-521-62749-4.
- ^ Nisbett, Richard E.; E. Borgida; R. Crandall; H. Reed (1976). «Popular induction: Information is not always informative». In J. S. Carroll & J. W. Payne (ed.). Cognition and social behavior. Vol. 2. pp. 227–236. ISBN 0-470-99007-4.
- ^ Koehler, J. J. (2010). «The base rate fallacy reconsidered: Descriptive, normative, and methodological challenges». Behavioral and Brain Sciences. 19: 1–17. doi:10.1017/S0140525X00041157. S2CID 53343238.
- ^ Barbey, A. K.; Sloman, S. A. (2007). «Base-rate respect: From ecological rationality to dual processes». Behavioral and Brain Sciences. 30 (3): 241–254, discussion 255–297. doi:10.1017/S0140525X07001653. PMID 17963533. S2CID 31741077.
- ^ Tversky, A.; Kahneman, D. (1974). «Judgment under Uncertainty: Heuristics and Biases». Science. 185 (4157): 1124–1131. Bibcode:1974Sci…185.1124T. doi:10.1126/science.185.4157.1124. PMID 17835457. S2CID 143452957.
- ^ Cosmides, Leda; John Tooby (1996). «Are humans good intuitive statisticians after all? Rethinking some conclusions of the literature on judgment under uncertainty». Cognition. 58: 1–73. CiteSeerX 10.1.1.131.8290. doi:10.1016/0010-0277(95)00664-8. S2CID 18631755.
- ^ a b Gigerenzer, G.; Hoffrage, U. (1995). «How to improve Bayesian reasoning without instruction: Frequency formats». Psychological Review. 102 (4): 684. CiteSeerX 10.1.1.128.3201. doi:10.1037/0033-295X.102.4.684.
- ^ Hoffrage, U.; Lindsey, S.; Hertwig, R.; Gigerenzer, G. (2000). «Medicine: Communicating Statistical Information». Science. 290 (5500): 2261–2262. doi:10.1126/science.290.5500.2261. hdl:11858/00-001M-0000-0025-9B18-3. PMID 11188724. S2CID 33050943.
- ^ Akl, E. A.; Oxman, A. D.; Herrin, J.; Vist, G. E.; Terrenato, I.; Sperati, F.; Costiniuk, C.; Blank, D.; Schünemann, H. (2011). Schünemann, Holger (ed.). «Using alternative statistical formats for presenting risks and risk reductions». The Cochrane Database of Systematic Reviews. 2011 (3): CD006776. doi:10.1002/14651858.CD006776.pub2. PMC 6464912. PMID 21412897.
- ^ a b Sedlmeier, P.; Gigerenzer, G. (2001). «Teaching Bayesian reasoning in less than two hours». Journal of Experimental Psychology: General. 130 (3): 380–400. doi:10.1037/0096-3445.130.3.380. hdl:11858/00-001M-0000-0025-9504-E. PMID 11561916.
- ^ Brase, G. L. (2009). «Pictorial representations in statistical reasoning». Applied Cognitive Psychology. 23 (3): 369–381. doi:10.1002/acp.1460. S2CID 18817707.
- ^ Edwards, A.; Elwyn, G.; Mulley, A. (2002). «Explaining risks: Turning numerical data into meaningful pictures». BMJ. 324 (7341): 827–830. doi:10.1136/bmj.324.7341.827. PMC 1122766. PMID 11934777.
- ^ Kim, Yea-Seul; Walls, Logan A.; Krafft, Peter; Hullman, Jessica (2 May 2019). «A Bayesian Cognition Approach to Improve Data Visualization». Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems: 1–14. doi:10.1145/3290605.3300912. ISBN 9781450359702. S2CID 57761146.
- ^ Girotto, V.; Gonzalez, M. (2001). «Solving probabilistic and statistical problems: A matter of information structure and question form». Cognition. 78 (3): 247–276. doi:10.1016/S0010-0277(00)00133-5. PMID 11124351. S2CID 8588451.
- ^ a b Hoffrage, U.; Gigerenzer, G.; Krauss, S.; Martignon, L. (2002). «Representation facilitates reasoning: What natural frequencies are and what they are not». Cognition. 84 (3): 343–352. doi:10.1016/S0010-0277(02)00050-1. PMID 12044739. S2CID 9595672.
- ^ Gigerenzer, G.; Hoffrage, U. (1999). «Overcoming difficulties in Bayesian reasoning: A reply to Lewis and Keren (1999) and Mellers and McGraw (1999)». Psychological Review. 106 (2): 425. doi:10.1037/0033-295X.106.2.425. hdl:11858/00-001M-0000-0025-9CB4-8.
- ^ Kleiter, G. D. (1994). «Natural Sampling: Rationality without Base Rates». Contributions to Mathematical Psychology, Psychometrics, and Methodology. Recent Research in Psychology. pp. 375–388. doi:10.1007/978-1-4612-4308-3_27. ISBN 978-0-387-94169-1.
External links[edit]
- The Base Rate Fallacy The Fallacy Files