Условная вероятность: полное руководство для начинающих
Условная вероятность — одна из ключевых концепций теории вероятностей, которая позволяет отвечать на вопрос: «Как изменится вероятность события, если мы узнали, что произошло другое событие?». Это фундамент для принятия решений в условиях неопределённости — от медицинской диагностики до искусственного интеллекта.
Что такое условная вероятность
Представьте, что вы тянете карту из колоды в 52 листа. Вероятность вытянуть туза — 4/52 ≈ 0,077 (7,7%). Но если вы уже знаете, что карта — пиковой масти, вероятность туза становится 1/13 ≈ 0,077 — в данном случае она не изменилась, потому что в каждой масти ровно один туз.
А теперь другой пример: вероятность того, что случайный прохожий — миллионер, очень мала. Но если вы узнали, что прохожий вышел из дверей инвестиционного банка, эта вероятность возрастает. Мы обусловили событие «миллионер» событием «работает в инвестбанке». Запись P(A|B) читается как «вероятность A при условии B».
Формальное определение
Условная вероятность события A при условии, что событие B произошло, определяется формулой:
P(A|B) = P(A ∩ B) / P(B), где P(B) > 0
Здесь P(A ∩ B) — вероятность, что произошли оба события одновременно (пересечение), а P(B) — вероятность события-условия. Деление на P(B) «нормирует» меру: мы переходим от всего пространства элементарных исходов к его части, где B истинно.
Интуиция: сужение пространства
Лучший способ понять условную вероятность — визуализация. Пусть прямоугольник — все возможные исходы, его площадь равна 1. Круг B занимает часть прямоугольника — его площадь равна P(B). Внутри B есть область пересечения с A — её площадь P(A ∩ B).
Когда мы узнаём, что B произошло, мы ограничиваем рассмотрение только кругом B. Теперь вопрос: какую долю круга B занимает область A ∩ B? Ответ: P(A ∩ B) / P(B). Это и есть P(A|B).
Теорема Байеса: переворот условия
Часто мы знаем P(B|A), а нужна P(A|B). Например, мы знаем чувствительность теста P(Положит | Болен), но пациенту важна P(Болен | Положит). Теорема Байеса даёт способ «перевернуть» условную вероятность:
P(A|B) = P(B|A) × P(A) / P(B)
Эта формула — краеугольный камень байесовской статистики. Она показывает, как априорное убеждение P(A) обновляется с учётом новых данных (событие B) и превращается в апостериорную вероятность P(A|B).
Практический разбор медицинского теста
Пусть тест на редкую болезнь имеет чувствительность 95% (P(+|Б) = 0,95) и специфичность 90% (P(−|З) = 0,90, где З — здоров). Распространённость болезни — 1% (P(Б) = 0,01).
Пациент получает положительный результат. Какова вероятность, что он действительно болен? Считаем полную вероятность положительного теста:
P(+) = P(+|Б) × P(Б) + P(+|З) × P(З) = 0,95 × 0,01 + 0,10 × 0,99 = 0,0095 + 0,099 = 0,1085.
Теперь по Байесу: P(Б|+) = 0,95 × 0,01 / 0,1085 ≈ 0,0876 (8,76%). Несмотря на положительный тест, вероятность болезни — всего около 9%! Это объясняется редкостью болезни: большинство положительных результатов — ложные.
Независимость событий
События A и B независимы, если наступление одного не меняет вероятность другого: P(A|B) = P(A). Подставляя в определение, получаем: P(A ∩ B) = P(A) × P(B). Это важный частный случай, который часто проверяют на практике.
Например, результаты двух подбрасываний монеты независимы: P(Орёл₂ | Орёл₁) = P(Орёл₂) = 0,5. А вот события «дождь» и «пробки» — зависимы: дождь повышает вероятность пробок.
Цепное правило (Chain Rule)
Из определения условной вероятности следует полезное тождество: P(A ∩ B) = P(A|B) × P(B). Для трёх событий: P(A ∩ B ∩ C) = P(A|B ∩ C) × P(B|C) × P(C). Это цепное правило — основа вероятностных графических моделей и байесовских сетей.
Где применяется условная вероятность
Помимо медицины, условная вероятность лежит в основе наивного байесовского классификатора — простого, но мощного алгоритма для классификации текстов (спам/не спам, тональность отзывов). В финансах она помогает оценивать риски: P(Дефолт | Просрочка > 30 дней). В погодных прогнозах: P(Осадки | Давление < 1000 гПа).
В криминалистике условная вероятность фигурирует в «парадоксе прокурора»: ошибочное приравнивание P(Улики | Невиновен) к P(Невиновен | Улики) может привести к судебным ошибкам. В рекомендательных системах: P(Понравится товар | Понравился похожий товар).
Советы по использованию калькулятора
Всегда проверяйте, что P(B) > 0 — деление на ноль не допускается. Вводите вероятности как десятичные дроби (0,05, а не 5). В режиме пересечения убедитесь, что P(A ∩ B) ≤ P(B). При использовании теоремы Байеса проверьте согласованность данных: результат должен быть от 0 до 1. Если выходит за границы — где-то ошибка во входных значениях.
Попробуйте несколько сценариев с разными числами, чтобы развить интуицию. Например, зафиксируйте P(A ∩ B) = 0,1 и меняйте P(B) от 0,2 до 0,8 — увидите, как условная вероятность падает с ростом знаменателя. Это отражает простой факт: чем «шире» условие B, тем меньше доля A внутри него.
Заключение
Условная вероятность — не просто формула из учебника, а способ мышления. Она учит нас пересматривать убеждения при поступлении новой информации и принимать более обоснованные решения. Освоив эту концепцию, вы сможете лучше ориентироваться в мире данных, статистики и неопределённости.