TR | RU | KK | BE | EN |

Баєсова оцінка

баєсова оцінка основних, баєсова оцінка майна

У теорії оцінювання та теорії рішень ба́єсова оці́нка або ба́єсова дія є оцінкою або правилом ухвалення рішеня, що мінімізує апостеріорне математичне сподівання функції втрат (тобто, апостеріо́рні очі́кувані втра́ти). Рівносильно, вона максимізує апостеріорне математичне сподівання функції корисності. Альтернативним способом формулювання оцінки в баєсовій статистиці є оцінка апостеріорного максимуму.

Зміст

  • 1 Визначення
  • 2 Приклади
    • 2.1 Оцінка мінімальної середньоквадратичної похибки
      • 2.1.1 Апостеріорне середнє
    • 2.2 Баєсові оцінки для спряжених апріорних
    • 2.3 Альтернативні функції ризику
      • 2.3.1 Апостеріорна медіана та інші квантилі
      • 2.3.2 Апостеріорна мода
  • 3 Узагальнені баєсові оцінки
    • 3.1 Приклад
  • 4 Емпіричні баєсові оцінки
    • 4.1 Приклад
  • 5 Властивості
    • 5.1 Прийнятність
    • 5.2 Асимптотична ефективність
  • 6 Практичний приклад баєсових оцінок
  • 7 Див. також
  • 8 Примітки
  • 9 Джерела
  • 10 Посилання

Визначення

Припустімо, нам відомо, що невідомий параметр θ має апріорний розподіл π {\displaystyle \pi } . Нехай θ ^ = θ ^ ( x ) {\displaystyle {\widehat {\theta }}={\widehat {\theta }}(x)} буде оцінкою θ (на підставі первних вимірювань x), та нехай L ( θ , θ ^ ) {\displaystyle L(\theta ,{\widehat {\theta }})} буде функцією втрат, наприклад, квадратичною похибкою. Ба́єсів ри́зик θ ^ {\displaystyle {\widehat {\theta }}} визначають як E π ( L ( θ , θ ^ ) ) {\displaystyle E_{\pi }(L(\theta ,{\widehat {\theta }}))} , де береться математичне сподівання від розподілу ймовірності θ {\displaystyle \theta } : це визначає функцію ризику як функцію від θ ^ {\displaystyle {\widehat {\theta }}} . Про оцінку θ ^ {\displaystyle {\widehat {\theta }}} кажуть, що вона є баєсовою оцінкою, якщо вона мінімізує баєсів ризик серед усіх оцінок. Рівноцінно, оцінка, що мінімізує апостеріорне математичне сподівання втрат E ( L ( θ , θ ^ ) | x ) {\displaystyle E(L(\theta ,{\widehat {\theta }})|x)} для кожного x також мінімізує й баєсів ризик, а отже є баєсовою оцінкою.

Якщо апріорне є некоректним, то оцінка, що мінімізує апостеріорне математичне сподівання втрат для кожного x, називається узага́льненою ба́єсовою оці́нкою.

Приклади

Оцінка мінімальної середньоквадратичної похибки

Детальніші відомості з цієї теми Ви можете знайти в статті Мінімальна середньоквадратична похибка.

Найпоширенішою функцією ризику, що застосовується для баєсової оцінки, є середньоквадратична похибка (СКП, англ. mean square error, MSE), що також називають квадратичним ризиком похибки. СКП визначається як

M S E = E [ ( θ ^ ( x ) − θ ) 2 ] , {\displaystyle \mathrm {MSE} =E\left,}

де математичне сподівання береться над спільним розподілом θ {\displaystyle \theta } та x {\displaystyle x} .

Апостеріорне середнє

При використанні СКП в якості ризику баєсова оцінка невідомого параметру є просто середнім значенням апостеріорного розподілу,

θ ^ ( x ) = E [ θ | x ] = ∫ θ p ( θ | x ) d θ . {\displaystyle {\widehat {\theta }}(x)=E=\int \theta p(\theta |x)\,d\theta .}

Це відомо як оцінка мінімальної середньоквадратичної похибки (МСКП, англ. minimum mean square error, MMSE). Баєсів ризик у цьому випадку є апостеріорною дисперсією.

Баєсові оцінки для спряжених апріорних

Детальніші відомості з цієї теми Ви можете знайти в статті Спряжений апріорний розподіл.

Якщо немає неусувної підстави віддавати перевагу одному апріорному розподілові перед іншим, іноді для спрощення обирають спряжений апріорний розподіл. Спряжений апріорний розподіл визначається як апріорний розподіл, що належить до параметричного сімейства, для якого результатний апостеріорний розподіл також належить до цього ж сімейства. Це є важливою властивістю, оскільки баєсову оцінку, так само як і її статистичні властивості (дисперсію, довірчий інтервал тощо), може бути виведено з апостеріорного розподілу.

Спряжені апріорні є особливо зручними для послідовного оцінювання, коли апостеріорне поточного вимірювання використовується як апріорне в наступному вимірюванні. У послідовному оцінюванні, якщо не використовуються спряжені апріорні, апостеріорний розподіл типово стає складнішим із кожним доданим вимірюванням, і баєсову оцінку зазвичай неможливо обчислювати без удавання до чисельних методів.

Нижче наведено деякі приклади спряжених апріорних.

  • Якщо x|θ є нормальним, x|θ ~ N(θ,σ2) та апріорне є нормальним, θ ~ N(μ,τ2), тоді апостеріорне також є нормальним, а баєсова оцінка при СКП задається як
θ ^ ( x ) = σ 2 σ 2 + τ 2 μ + τ 2 σ 2 + τ 2 x . {\displaystyle {\widehat {\theta }}(x)={\frac {\sigma ^{2}}{\sigma ^{2}+\tau ^{2}}}\mu +{\frac {\tau ^{2}}{\sigma ^{2}+\tau ^{2}}}x.}
  • Якщо x1,...,xn є незалежними однаково розподіленими пуассонівськими випадковими змінними xi|θ ~ P(θ), та апріорне є гамма-розподіленим θ ~ G(a,b), тоді апостеріорне є також гамма-розподіленим, а баєсова оцінка при СКП задається як
θ ^ ( X ) = n X ¯ + a n + 1 b . {\displaystyle {\widehat {\theta }}(X)={\frac {n{\overline {X}}+a}{n+{\frac {1}{b}}}}.}
  • Якщо x1,...,xn є незалежними однаково розподіленими неперервними рівномірними xi|θ~U(0,θ), а апріорне є паретівським θ~Pa(θ0,a), тоді апостеріорне також має розподіл Парето, а баєсова оцінка при СКП задається як
θ ^ ( X ) = ( a + n ) max ( θ 0 , x 1 , . . . , x n ) a + n − 1 . {\displaystyle {\widehat {\theta }}(X)={\frac {(a+n)\max {(\theta _{0},x_{1},...,x_{n})}}{a+n-1}}.}

Альтернативні функції ризику

Функції ризику обираються в залежності від способу вимірювання відстані між оцінкою та невідомим параметром. Найпоширенішою функцією ризику у вжитку є СКП, головно завдяки її простоті. Проте іноді використовуються й альтернативні функції ризику. Далі наведено декілька прикладів таких альтернатив. Ми позначаємо функцію апостеріорного узагальненого розподілу через F {\displaystyle F} .

Апостеріорна медіана та інші квантилі

  • «Лінійна» функція втрат, з a > 0 {\displaystyle a>0} , що видає в якості баєсової оцінки апостеріорну медіану:
L ( θ , θ ^ ) = a | θ − θ ^ | {\displaystyle L(\theta ,{\widehat {\theta }})=a|\theta -{\widehat {\theta }}|} F ( θ ^ ( x ) | X ) = 1 2 . {\displaystyle F({\widehat {\theta }}(x)|X)={\tfrac {1}{2}}.}
  • Інша «лінійна» функція втрат, що призначає різну «вагу» a , b > 0 {\displaystyle a,b>0} для пере- та недооцінки. Вона видає квантиль апостеріорного розподілу, і є узагальненням попередньої функції втрат:
L ( θ , θ ^ ) = { a | θ − θ ^ | , for  θ − θ ^ ≥ 0 b | θ − θ ^ | , for  θ − θ ^ < 0 {\displaystyle L(\theta ,{\widehat {\theta }})={\begin{cases}a|\theta -{\widehat {\theta }}|,&{\mbox{for }}\theta -{\widehat {\theta }}\geq 0\\b|\theta -{\widehat {\theta }}|,&{\mbox{for }}\theta -{\widehat {\theta }}<0\end{cases}}} F ( θ ^ ( x ) | X ) = a a + b . {\displaystyle F({\widehat {\theta }}(x)|X)={\frac {a}{a+b}}.}

Апостеріорна мода

  • Наступна функція втрат є хитрішою: вона видає або апостеріорну моду, або близьку до неї точку, в залежності від кривизни та властивостей апостеріорного розподілу. Малі значення параметру K > 0 {\displaystyle K>0} рекомендуються для того, щоби використовувати цю моду як наближення ( L > 0 {\displaystyle L>0} ):
L ( θ , θ ^ ) = { 0 , for  | θ − θ ^ | < K L , for  | θ − θ ^ | ≥ K . {\displaystyle L(\theta ,{\widehat {\theta }})={\begin{cases}0,&{\mbox{for }}|\theta -{\widehat {\theta }}|<K\\L,&{\mbox{for }}|\theta -{\widehat {\theta }}|\geq K.\end{cases}}}

Може бути задумано й інші функції втрат, незважаючи на те, що середньоквадратична похибка є найширше вживаною й перевіреною.

Узагальнені баєсові оцінки

Детальніші відомості з цієї теми Ви можете знайти в статті Прийнятне правило ухвалення рішення § Правила Баєса та узагальнені правила Баєса.

Апріорний розподіл p {\displaystyle p} досі вважався правильним розподілом ймовірності, в тому сенсі, що

∫ p ( θ ) d θ = 1. {\displaystyle \int p(\theta )d\theta =1.}

Проте іноді це може бути обмежувальною вимогою. Наприклад, не існує розподілу (що покриває множину R усіх дійсних чисел), для якого будь-яке дійсне число є однаково ймовірним. Ще, у певному сенсі, такий «розподіл» виглядає як природній вибір неінформативного апріорного, тобто такий апріорний розподіл, що не віддає переваги жодному конкретному значенню невідомого параметра. Все ще можна визначити функцію p ( θ ) = 1 {\displaystyle p(\theta )=1} , але вона вже не буде коректним апріорним розподілом ймовірності, оскільки вона має нескінченну масу,

∫ p ( θ ) d θ = ∞ . {\displaystyle \int {p(\theta )d\theta }=\infty .}

Такі міри p ( θ ) {\displaystyle p(\theta )} , що не є розподілами ймовірності, називаються некоректними апріорними.

Використання некоректного апріорного означає, що баєсів ризик є невизначеним (оскільки апріорне не є розподілом ймовірності, й ми не можемо взяти його математичне сподівання). Як наслідок, вже немає сенсу говорити про баєсову оцінку, що мінімізує баєсів ризик. Тим не менш, у багатьох випадках можна визначити апостеріорний розподіл

p ( θ | x ) = p ( x | θ ) p ( θ ) ∫ p ( x | θ ) p ( θ ) d θ . {\displaystyle p(\theta |x)={\frac {p(x|\theta )p(\theta )}{\int p(x|\theta )p(\theta )d\theta }}.}

Це є визначенням, але не застосуванням теореми Баєса, оскільки теорему Баєса можна застосовувати лише якщо всі розподіли є коректними. Проте для результатного «апостеріорного» не є незвичним бути чинним розподілом ймовірності. В такому випадку апостеріорні очікувані втрати

∫ L ( θ , a ) p ( θ | x ) d θ {\displaystyle \int {L(\theta ,a)p(\theta |x)d\theta }}

є добре визначеними та скінченними. Нагадаймо, що для коректного апріорного баєсова оцінка мінімізує апостеріорні очікувані втрати. Коли апріорне є некоректним, оцінка, що мінімізує апостеріорні очікувані втрати, називається узага́льненою ба́єсовою оці́нкою.

Приклад

Типовим прикладом є оцінювання коефіцієнту зсуву з функцією втрат типу L ( a − θ ) {\displaystyle L(a-\theta )} . Тут θ {\displaystyle \theta } є коефіцієнтом зсуву, тобто p ( x | θ ) = f ( x − θ ) {\displaystyle p(x|\theta )=f(x-\theta )} .

В такому випадку є звичним застосовувати некоректне апріорне p ( θ ) = 1 {\displaystyle p(\theta )=1} , особливо якщо ніякої іншої суб'єктивнішої інформації немає в наявності. Це дає

p ( θ | x ) = p ( x | θ ) p ( θ ) p ( x ) = f ( x − θ ) p ( x ) {\displaystyle p(\theta |x)={\frac {p(x|\theta )p(\theta )}{p(x)}}={\frac {f(x-\theta )}{p(x)}}}

таким чином, апостеріорні очікувані втрати дорівнюють

E [ L ( a − θ ) | x ] = ∫ L ( a − θ ) p ( θ | x ) d θ = 1 p ( x ) ∫ L ( a − θ ) f ( x − θ ) d θ . {\displaystyle E=\int {L(a-\theta )p(\theta |x)d\theta }={\frac {1}{p(x)}}\int L(a-\theta )f(x-\theta )d\theta .}

Узагальнена баєсова оцінка є значенням a ( x ) {\displaystyle a(x)} , що мінімізує цей вираз для заданого x {\displaystyle x} . Це є еквівалентним мінімізації

∫ L ( a − θ ) f ( x − θ ) d θ {\displaystyle \int L(a-\theta )f(x-\theta )d\theta } для заданого x . {\displaystyle x.}         (1)

В цьому випадку може бути показано, що узагальнений баєсів оцінювач може мати вигляд x + a 0 {\displaystyle x+a_{0}} , для деякої сталої a 0 {\displaystyle a_{0}} . Щоби побачити це, нехай a 0 {\displaystyle a_{0}} буде значенням, що мінімізує (1), коли x = 0 {\displaystyle x=0} . Тоді, маючи інше значення x 1 {\displaystyle x_{1}} , ми мусимо мінімізувати

∫ L ( a − θ ) f ( x 1 − θ ) d θ = ∫ L ( a − x 1 − θ ′ ) f ( − θ ′ ) d θ ′ . {\displaystyle \int L(a-\theta )f(x_{1}-\theta )d\theta =\int L(a-x_{1}-\theta ')f(-\theta ')d\theta '.}         (2)

Це є ідентичним до (1), крім того, що a {\displaystyle a} було замінено на a − x 1 {\displaystyle a-x_{1}} . Отже, вираз, що мінімізується, задається як a − x 1 = a 0 {\displaystyle a-x_{1}=a_{0}} , тому оптимальна оцінка має вигляд

a ( x ) = a 0 + x . {\displaystyle a(x)=a_{0}+x.\,\!}

Емпіричні баєсові оцінки

Детальніші відомості з цієї теми Ви можете знайти в статті Емпіричний баєсів метод.

Баєсова оцінка, виведена емпіричним баєсовим методом, називається емпіри́чною ба́єсовою оці́нкою. Емпіричний баєсів метод дозволяє при побудові баєсової оцінки використовувати додаткові емпіричні дані зі спостережень пов'язаних параметрів. Це робиться із припущення, що оцінювані параметри отримуються зі спільного апріорного. Наприклад, якщо виконуються незалежні спостереження різних параметрів, то продуктивність оцінки певного параметру іноді може бути покращено за рахунок використання даних з інших спостережень.

Існують параметричний та непараметричний підходи до емпіричної баєсової оцінки. Параметричному емпіричному Баєсові зазвичай віддається перевага, оскільки він є застосовнішим та точнішим на малих об'ємах даних.

Приклад

Далі наведено простий приклад параметричної емпіричної баєсової оцінки. При заданих спостереженнях x 1 , … , x n {\displaystyle x_{1},\ldots ,x_{n}} , що мають умовний розподіл f ( x i | θ i ) {\displaystyle f(x_{i}|\theta _{i})} , потрібно оцінити θ n + 1 {\displaystyle \theta _{n+1}} на базі x n + 1 {\displaystyle x_{n+1}} . Припустімо, що θ i {\displaystyle \theta _{i}} мають спільне апріорне π {\displaystyle \pi } , що залежить від невідомих параметрів. Наприклад, нехай π {\displaystyle \pi } є нормальним розподілом із невідомим середнім значенням μ π {\displaystyle \mu _{\pi }\,\!} та дисперсією σ π . {\displaystyle \sigma _{\pi }\,\!.} Тоді ми можемо використовувати минулі спостереження для визначення середнього значення та дисперсії π {\displaystyle \pi } наступним чином.

Спочатку ми оцінюємо середнє значення μ m {\displaystyle \mu _{m}\,\!} та дисперсію σ m {\displaystyle \sigma _{m}\,\!} відособленого розподілу x 1 , … , x n {\displaystyle x_{1},\ldots ,x_{n}} за допомогою підходу максимальної правдоподібності:

μ ^ m = 1 n ∑ x i , {\displaystyle {\widehat {\mu }}_{m}={\frac {1}{n}}\sum {x_{i}},} σ ^ m 2 = 1 n ∑ ( x i − μ ^ m ) 2 . {\displaystyle {\widehat {\sigma }}_{m}^{2}={\frac {1}{n}}\sum {(x_{i}-{\widehat {\mu }}_{m})^{2}}.}

Далі ми використовуємо відношення

μ m = E π [ μ f ( θ ) ] , {\displaystyle \mu _{m}=E_{\pi }\,\!,} σ m 2 = E π [ σ f 2 ( θ ) ] + E π [ μ f ( θ ) − μ m ] , {\displaystyle \sigma _{m}^{2}=E_{\pi }+E_{\pi },}

де μ f ( θ ) {\displaystyle \mu _{f}(\theta )} та σ f ( θ ) {\displaystyle \sigma _{f}(\theta )} є моментами умовного розподілу f ( x i | θ i ) {\displaystyle f(x_{i}|\theta _{i})} , що вважаються відомими. Зокрема, припустімо, що μ f ( θ ) = θ {\displaystyle \mu _{f}(\theta )=\theta } та σ f 2 ( θ ) = K {\displaystyle \sigma _{f}^{2}(\theta )=K} ; тоді ми отримуємо

μ π = μ m , {\displaystyle \mu _{\pi }=\mu _{m}\,\!,} σ π 2 = σ m 2 − σ f 2 = σ m 2 − K . {\displaystyle \sigma _{\pi }^{2}=\sigma _{m}^{2}-\sigma _{f}^{2}=\sigma _{m}^{2}-K.}

Нарешті, ми отримуємо оцінені моменти апріорного,

μ ^ π = μ ^ m , {\displaystyle {\widehat {\mu }}_{\pi }={\widehat {\mu }}_{m},} σ ^ π 2 = σ ^ m 2 − K . {\displaystyle {\widehat {\sigma }}_{\pi }^{2}={\widehat {\sigma }}_{m}^{2}-K.}

Наприклад, якщо x i | θ i ∼ N ( θ i , 1 ) {\displaystyle x_{i}|\theta _{i}\sim N(\theta _{i},1)} , і якщо ми розглядаємо нормальне апріорне (що є спряженим апріорним у даному випадку), ми доходимо висновку, що θ n + 1 ∼ N ( μ ^ π , σ ^ π 2 ) {\displaystyle \theta _{n+1}\sim N({\widehat {\mu }}_{\pi },{\widehat {\sigma }}_{\pi }^{2})} , з чого може бути обчислено баєсову оцінку θ n + 1 {\displaystyle \theta _{n+1}} на базі x n + 1 {\displaystyle x_{n+1}} .

Властивості

Прийнятність

Детальніші відомості з цієї теми Ви можете знайти в статті Прийнятне правило ухвалення рішення.

Правила Баєса, що мають скінченний баєсів ризик, зазвичай є прийнятними. Далі наведено деякі конкретні приклади теорем прийнятності.

  • Якщо баєсове правило є унікальним, то воно є прийнятним. Наприклад, як зазначено вище, за середньоквадратичної похибки (СКП) правило Баєса є унікальним, а відтак і прийнятним.
  • Якщо θ належить до дискретної множини, то всі правила Баєса є прийнятними.
  • Якщо θ належить до неперервної (не дискретної) множини, і якщо функція ризику R(θ,δ) є неперервною за θ для будь-якого δ, то всі правила Баєса є прийнятними.

На противагу до цього, узагальнені правила Баєса часто мають невизначений баєсів ризик у випадку некоректних апріорних. Ці правила часто є неприйнятними, і перевірка їхньої прийнятності може бути складною. Наприклад, узагальнена баєсова оцінка коефіцієнту зсуву θ на базі ґаусових вибірок (описаних у розділі Узагальнені баєсові оцінки вище) є неприйнятною для p > 2 {\displaystyle p>2} ; це є відомим як феномен Штайна.

Асимптотична ефективність

Нехай θ буде невідомою випадковою змінною, та припустімо, що x 1 , x 2 , … {\displaystyle x_{1},x_{2},\ldots } є незалежними однаково розподіленими пробами з густиною f ( x i | θ ) {\displaystyle f(x_{i}|\theta )} . Нехай δ n = δ n ( x 1 , … , x n ) {\displaystyle \delta _{n}=\delta _{n}(x_{1},\ldots ,x_{n})} буде послідовністю баєсових оцінок θ на базі збільшуваного числа вимірювань. Нас цікавить аналіз асимптотичної продуктивності цієї послідовності оцінок, тобто продуктивність δ n {\displaystyle \delta _{n}} для великих n.

Для цього прийнято вважати θ детермінованим параметром, чиїм справжнім значенням є θ 0 {\displaystyle \theta _{0}} . За особливих умов, для великих вибірок (великих значень n), апостеріорна густина θ є приблизно нормальною. Іншими словами, для великих n вплив апріорної ймовірності на апостеріорну є незначним. Більше того, якщо δ є баєсовою оцінкою за ризику СКП, то вона є асимптотично незміщеною та збігається за розподілом до нормального розподілу:

n ( δ n − θ 0 ) → N ( 0 , 1 I ( θ 0 ) ) , {\displaystyle {\sqrt {n}}(\delta _{n}-\theta _{0})\to N\left(0,{\frac {1}{I(\theta _{0})}}\right),}

де I(θ0) є інформацією за Фішером θ0. Звідси випливає, що баєсова оцінка δn за СКП є асимптотично ефективною.

Іншою оцінкою, що є асимптотично нормальною та ефективною, є оцінка максимальної правдоподібності (ОМП, англ. maximum likelihood estimator, MLE). Відношення між максимальною правдоподібністю та баєсовими оцінками можна показати на наступному простому прикладі.

Розгляньмо оцінку θ на базі біноміальної вибірки x~b(θ,n), де θ позначає ймовірність успіху. За припущення, що θ розподілене згідно спряженого апріорного, що в даному випадку є бета-розподілом B(a,b), відомо, що апріорним розподілом є B(a+x,b+n-x). Отже, баєсовою оцінкою за СКП є

δ n ( x ) = E [ θ | x ] = a + x a + b + n . {\displaystyle \delta _{n}(x)=E={\frac {a+x}{a+b+n}}.}

ОМП у даному випадку є x/n, і тому ми отримуємо

δ n ( x ) = a + b a + b + n E [ θ ] + n a + b + n δ M L E . {\displaystyle \delta _{n}(x)={\frac {a+b}{a+b+n}}E+{\frac {n}{a+b+n}}\delta _{MLE}.}

Крайнє рівняння означає, що для n → ∞ баєсова оцінка (в описаній задачі) є близькою до ОМП.

З іншого боку, коли n є малим, апріорна інформація залишається доречною для задачі ухвалення рішення, і впливає на оцінку. Щоби побачити відносну вагу апріорної інформації, припустімо, що a=b; в такому випадку кожне вимірювання привносить 1 біт інформації; формула вище показує, що апостеріорна інформація має таку саму вагу, як a+b бітів нової інформації. На практиці про дрібні деталі апріорного розподілу часто відомо дуже мало; зокрема, нема резону припускати, що він співпадає з B(a,b) точно. В такому разі однією з можливих інтерпретацій цього обчислення є: «існує не патологічний апріорний розподіл із середнім значенням 0.5 та стандартним відхиленням d, що дає вагу апріорної інформації, рівну 1/(4d2)-1 бітам нової інформації».

Іншим прикладом того ж явища є випадок, коли апріорна оцінка та вимірювання мають нормальні розподіли. Якщо апріорне відцентровано на B з відхиленням Σ, а вимірювання відцентровано на b із відхиленням σ, то апостеріорне відцентровано на α α + β B + β α + β b {\displaystyle {\frac {\alpha }{\alpha +\beta }}B+{\frac {\beta }{\alpha +\beta }}b} , з вагами у цій зваженій сумі, що є α=σ², β=Σ². Більше того, квадратичним апостеріорним відхиленням є Σ²+σ². Іншими словами, апріорне поєднується з вимірюванням в точності таким же чином, як ніби воно є додатковим вимірюванням, що треба врахувати.

Наприклад, якщо Σ=σ/2, то відхилення поєднаних разом 4 вимірювань відповідає відхиленню апріорного (за припущення, що похибки вимірювань є незалежними). А ваги α,β у формулі апостеріорного відповідають такому: вага апріорного складає 4 ваги вимірювання. Поєднання цього апріорного з n вимірюваннями із середнім v призводить до апостеріорного, відцентрованого у 4 4 + n V + n 4 + n v {\displaystyle {\frac {4}{4+n}}V+{\frac {n}{4+n}}v} ; зокрема, це апріорне відіграє таку ж роль, як і 4 вимірювання, зроблені завчасно. У загальному випадку апріорне має вагу (σ/Σ)² вимірювань.

Порівняйте це із прикладом біноміального розподілу: там апріорне має вагу (σ/Σ)²−1 вимірювань. Видно, що точна вага дійсно залежить від деталей розподілу, але при σ≫Σ відмінність стає малою.

Практичний приклад баєсових оцінок

Internet Movie Database використовує формулу для обчислення та порівняння рейтингів фільмів її користувачами, включно з їхніми 250 найрейтинговішими фільмами, що претендує на надання «справжньої баєсової оцінки». Початково для обчислення зваженого середнього балу найкращих 250 фільмів використовувалася наступна формула, хоча її відтоді було змінено:

W = R v + C m v + m   {\displaystyle W={Rv+Cm \over v+m}\ }

де:

W   {\displaystyle W\ } = зважений рейтинг R   {\displaystyle R\ } = зважений рейтинг фільму як число від 1 до 10 (середній) = (англ. Rating) v   {\displaystyle v\ } = кількість голосів за фільм = (англ. votes) m   {\displaystyle m\ } = вага, надана апріорній оцінці (що базується на розподілі середніх рейтингів серед усього фонду фільмів) C   {\displaystyle C\ } = середній голос серед усього фонду (наразі 7.0)

Зауважте, що W є просто зваженим арифметичним середнім R та C з вектором ваг (v, m). Із переважанням кількості вимірів над m довіра до середнього рейтингу переважає довіру до апріорного знання, і зважений баєсів рейтинг (W) наближається до простого середнього (R). Що ближчим є v (кількість оцінок фільму) до нуля, то ближчим стає W до C, де W є зваженим рейтингом, а C є середнім рейтингом по всіх фільмах. Отже, простішими термінами, фільми із дуже нечисленними оцінками/голосами матимуть рейтинг, зважений в бік середнього по всіх фільмах, в той час як фільми з багатьма оцінками/голосами матимуть рейтинг, зважений в бік їхніх середніх оцінок.

Підхід IMDb гарантує, що фільм із лише декількома сотнями оцінок, всі по 10, не займе місце вище «Хрещеного батька», наприклад, із середнім 9.2 з понад 500 000 оцінок.

Див. також

  • Прийнятне правило ухвалення рішення
  • Рекурсивне баєсове оцінювання
  • Емпіричний баєсів метод
  • Спряжений апріорний розподіл
  • Узагальнене сподівання корисності

Примітки

  1. ↑ Lehmann та Casella, 1998, теорема 4.1.1
  2. а б Lehmann та Casella, 1998, визначення 4.2.9
  3. ↑ Jaynes, E.T. (2007). Probability theory : the logic of science (вид. 5. print.). Cambridge : Cambridge Univ. Press. с. 172. ISBN 978-0-521-59271-0.  (англ.)
  4. ↑ Berger, 1980, розділ 4.5
  5. ↑ Lehmann та Casella, 1998, теорема 5.2.4
  6. ↑ Lehmann та Casella, 1998, розділ 6.8
  7. ↑ IMDb Top 250 (англ.)

Джерела

  • Lehmann, E. L.; Casella, G. (1998). Theory of Point Estimation (вид. 2nd). Springer. ISBN 0-387-98502-6.  (англ.)
  • Berger, James O. (1985). Statistical decision theory and Bayesian Analysis (вид. 2nd). New York: Springer-Verlag. ISBN 0-387-96098-8. MR 0804611.  (англ.)

Посилання

  • Bayesian estimation on cnx.org (англ.)
  • Hazewinkel, Michiel, ред. (2001). Bayesian estimator. Encyclopedia of Mathematics. Springer. ISBN 978-1-55608-010-4.  (англ.)

баєсова оцінка відповідності, баєсова оцінка землі, баєсова оцінка майна, баєсова оцінка основних


Баєсова оцінка Інформацію Про

Баєсова оцінка


  • user icon

    Баєсова оцінка beatiful post thanks!

    29.10.2014


Баєсова оцінка
Баєсова оцінка
Баєсова оцінка Ви переглядаєте суб єкт.
Баєсова оцінка що, Баєсова оцінка хто, Баєсова оцінка опис

There are excerpts from wikipedia on this article and video

Випадкові Статті

Гродненське воєводство

Гродненське воєводство

Гро́дненське воєводство — історична адміністративно-територіальна одиниця у складі Великого кня...
Василівка (Любашівський район)

Василівка (Любашівський район)

Васи́лівка — село в Україні, в Любашівському районі Одеської області. Населення становить 112 о...
Третя ступінь

Третя ступінь

Долорес Костелло Луїз Дрессер Оператор Хел Мор Монтаж Кларенс Колстер Кінокомпанія Warner Bros...
Намо

Намо

Намо — один з районів лаос ເມືອງ муанг провінції Удомсай, Лаос1 Приміткиред ↑ Maplandia wor...