TR | RU | KK | BE | EN |

Інформаційний критерій Акаіке


Інформаційний критерій Акаіке (ІКА, англ. Akaike information criterion, AIC) — це міра відносної якості статистичних моделей для заданого набору даних. Маючи сукупність моделей для цих даних, ІКА оцінює якість кожної з моделей відносно кожної з інших моделей. Отже, ІКА пропонує засоби для вибору моделі.

ІКА засновано на теорії інформації: він пропонує відносні оцінки втраченої інформації при застосуванні даної моделі для представлення процесу, що породжує дані. Роблячи це, він має справу з компромісом між ступенем узгодженості моделі та її складністю.

ІКА не пропонує перевірки моделі в сенсі перевірки нульової гіпотези; тобто, ІКА не каже нічого про якість моделі в абсолютному сенсі. Якщо всі моделі-кандидати узгоджуються погано, ІКА не видасть жодного попередження про це.

Зміст

  • 1 Визначення
  • 2 Як застосовувати ІКА на практиці
  • 3 ІКАк
  • 4 Історія
  • 5 Поради щодо застосування
    • 5.1 Підрахунок параметрів
    • 5.2 Перетворення даних
    • 5.3 Ненадійність програмного забезпечення
  • 6 Порівняння з іншими методами вибору моделі
    • 6.1 Порівняння з БІК
    • 6.2 Порівняння з перевіркою хі-квадрат
      • 6.2.1 Загальний випадок
      • 6.2.2 Випадок однакових дисперсій
    • 6.3 Порівняння з перехресною перевіркою
    • 6.4 Порівняння з Cp Меллоуза
  • 7 Див. також
  • 8 Примітки
  • 9 Джерела
  • 10 Література
  • 11 Посилання

Визначення

Припустімо, що ми маємо статистичну модель якихось даних. Нехай L буде максимальним значенням функції правдоподібності для цієї моделі; нехай k буде числом оцінюваних параметрів у цій моделі. Тоді значенням ІКА цієї моделі є наступне.

A I C = 2 k − 2 ln ⁡ ( L ) {\displaystyle \mathrm {AIC} =2k-2\ln(L)}

Для заданого набору моделей-кандидатів даних найкращою моделлю є та, що має мінімальне значення ІКА. Отже, ІКА винагороджує ступінь узгодженості (за оцінкою функції правдоподібності), але також включає штраф, що є висхідною функцією числа оцінюваних параметрів. Цей штраф перешкоджає перенавчанню (збільшення числа параметрів у моделі майже завжди покращує ступінь узгодженості).

ІКА засновано на теорії інформації. Припустімо, що дані породжуються якимось невідомим процесом f. Ми розглядаємо дві моделі-кандидати для представлення f: g1 та g2. Якби ми знали f, то могли би знайти втрату інформації від застосування g1 для представлення f шляхом обчислення відстані Кульбака — Лейблера, DKL(f ‖ g1); аналогічно, втрату інформації від застосування g2 для представлення f може бути знайдено обчисленням DKL(f ‖ g2). Тоді би ми вибрали модель-кандидата, що мінімізує втрату інформації.

Ми не можемо вибирати з упевненістю, оскільки ми не знаємо f. Проте Akaike (1974) показав, що за допомогою ІКА ми можемо оцінити, наскільки більше (або менше) інформації втрачається моделлю g1, аніж моделлю g2. Ця оцінка, проте, є вірною лише асимптотично; якщо кількість точок даних є малою, то часто є необхідним додаткове коригування (див. ІКАк нижче).

Як застосовувати ІКА на практиці

Для застосування ІКА на практиці ми починаємо з набору моделей-кандидатів, а потім знаходимо відповідні значення ІКА моделей. Втрата інформації буде майже завжди, із-за застосування моделі-кандидата для представлення «справжньої» моделі (тобто процесу, що породжує дані). Серед моделей-кандидатів ми хочемо обрати таку, що мінімізує втрату інформації. Ми не можемо вибирати з упевненістю, але ми можемо мінімізувати оцінювані втрати інформації.

Припустімо, що є R моделей-кандидатів. Позначмо значення ІКА (англ. AIC) для цих моделей через AIC1, AIC2, AIC3, …, AICR. Нехай AICmin буде мінімальним із цих значень. Тоді exp((AICmin − AICi)/2) можна інтерпретувати як відносну ймовірність того, що i-та модель мінімізує (оцінювану) втрату інформації.

Як приклад, припустімо, що є три моделі-кандидати, значеннями ІКА яких є 100, 102 та 110. Тоді друга модель є в exp((100 − 102)/2) = 0.368 разів імовірнішою за першу модель для мінімізації втрати інформації. Аналогічно, третя модель є в exp((100 − 110)/2) = 0.007 разів імовірнішою за першу для мінімізації втрати інформації.

В цьому прикладі ми опустимо третю модель із подальшого розгляду. Тоді ми матимемо три варіанти: (1) зібрати більше даних у надії, що це дозволить здійснити чітке розрізнення між першими двома моделями; (2) просто зробити висновок, що дані є недостатніми для підтримки вибору моделі з-поміж цих двох; (3) взяти зважене середнє перших двох моделей з ваговими коефіцієнтами 1 та 0.368 відповідно, і потім здійснювати статистичне виведення на основі зваженої мультимоделі.

Величина exp((AICmin − AICi)/2) є відносною правдоподібністю моделі i.

Якщо всі моделі в наборі кандидатів мають однакове число параметрів, то застосування ІКА може спершу здаватися дуже схожим на застосування перевірки відношенням правдоподібностей. Проте є істотні відмінності. Зокрема, перевірка відношенням правдоподібностей є чинною лише для вкладених моделей, тоді як ІКА (та ІКАк) не мають такого обмеження.

ІКАк

ІКАк (англ. AICc) — це ІКА з коригуванням для скінченних розмірів вибірок. Формула ІКАк залежить від статистичної моделі. За припущення, що модель є рівномірною, лінійною та має нормально розподілені залишки (обумовлені регресорами), формула ІКАк є такою:

A I C c = A I C + 2 k ( k + 1 ) n − k − 1 {\displaystyle \mathrm {AICc} =\mathrm {AIC} +{\frac {2k(k+1)}{n-k-1}}}

де n позначає розмір вибірки, а k позначає кількість параметрів.

Якщо припущення про рівномірну лінійну модель з нормальними залишками не виконується, то формула ІКАк в загальному випадку зміниться. Незважаючи на це, Burnham & Anderson (2002, §7.4) радить застосовувати наведену вище формулу, якщо точніше коригування не відоме. Подальше обговорення цієї формули, з прикладами та іншими припущеннями, наводиться в Burnham & Anderson (2002, гл. 7) та Konishi & Kitagawa (2008, гл. 7–8). Зокрема, за інших припущень, часто є придатною бутстрепова оцінка.

ІКАк є, по суті, ІКА з більшим штрафом за додаткові параметри. Застоування ІКА замість ІКАк, якщо n не в багато разів більше за k2, збільшує ймовірність вибору моделей, що мають забагато параметрів, тобто перенавчання. В деяких випадках імовірність перенавчання ІКА може бути значною.

Burnham & Anderson (2002) наполегливо радять застосовувати ІКАк замість ІКА, якщо n є маленькою, або k є великою. Оскільки ІКАк збігається до ІКА, коли n стає великим, то, як правило, в будь-якому разі потрібно застосовувати ІКАк.

Brockwell & Davis (1991, p. 273) радять застосовувати ІКАк як головний критерій у вибору порядків моделі авторегресії — рухливого середнього для часових рядів. McQuarrie & Tsai (1998) ґрунтують свою високу думку про ІКАк на обширній роботі симуляції з регресією та часовими рядами.

Зауважте, що якщо всі моделі-кандидати мають однакову k, то ІКАк та ІКА даватимуть ідентичні (відносно) оцінки; отже, не буде недоліку в застосуванні ІКА замість ІКАк. Крім того, якщо n у багато разів більше за k2, то коригування буде незначним; отже, недоліки застосування ІКА замість ІКАк будуть незначними.

Історія

Інформаційний критерій Акаіке було розроблено Хіроцуґу Акаіке, початково під назвою «інформаційний критерій». Про нього було вперше заявлено Акаіке на симпозіумі 1971 року, протокол якого було опубліковано 1973 року. Публікація 1973 року, однак, була лише неформальним представленням концепції. Перша формальна публікація була в праці Акаіке 1974 року. Станом на жовтень 2014 року праця 1974 року отримала понад 14000 цитувань в Web of Science, ставши 73-тьою найцитованішою працею за всі часи.

Початкове виведення ІКА покладалося на деякі сильні припущення. Takeuchi (1976) показав, що ці припущення може бути зроблено значно слабшими. Але праця Такеуті була японською, і не була широко відомою за межами Японії протягом багатьох років.

ІКАк початково запропонував для лінійної регресії (лише) Sugiura (1978). Це спровокувало працю Hurvich & Tsai (1989) та кілька подальших праць цих же авторів, що розширили ситуації, в яких може застосовуватися ІКА. Праця Hurvich & Tsai посприяла рішенню опублікувати другий випуск книги Brockwell & Davis (1991), що є стандартним довідником з лінійних часових рядів; це друге видання вказує, що «нашим головним критерієм для вибору моделі ] буде ІКАк».

Першим загальним викладом підходу теорії інформації була книга Burnham & Anderson (2002). Вона включає англомовне представлення праці Такеуті. Ця книга призвела до поширення застосування ІКА, і наразі вона має понад 29000 цитувань на Google Scholar.

Акаіке початково назвав свій підхід «принципом максимізації ентропії», оскільки його засновано на понятті ентропії в теорії інформації. Дійсно, мінімізація ІКА в статистичній моделі є дієво рівнозначною максимізації ентропії в термодинамічній системі; іншими словами, підхід теорії інформації в статистиці є по суті застосуванням другого закону термодинаміки. По суті, ІКА має корені в праці Людвіга Больцмана про ентропію. Більше про ці питання див. Akaike (1985) та Burnham & Anderson (2002, гл. 2).

Поради щодо застосування

Підрахунок параметрів

Статистична модель мусить відповідати всім точкам даних. Таким чином, пряма лінія сама по собі не є моделлю даних, якщо не всі точки даних лежать точно на цій лінії. Проте ми можемо обрати модель, яка є «прямою лінією плюс шум»; таку модель може бути формально описано таким чином: yi = b0 + b1xi + εi. Тут εi є залишками від влучання в пряму лінію. Якщо εi вважаються гаусовими НОР (з нульовим середнім значенням), то модель має три параметри: b0, b1 та дисперсію гаусових розподілів. Отже, при обчисленні ІАК для цієї моделі ми повинні використовувати k=3. Загальніше, для будь-якої моделі найменших квадратів з гаусовими НОР залишками дисперсія розподілів залишків повинна рахуватися як один з параметрів.

В якості іншого прикладу розгляньмо авторегресійну модель першого порядку, визначену як xi = c + φxi−1 + εi, де εi є гаусовими НОР (з нульовим середнім значенням). У випадку цієї моделі існує три параметри: c, φ та дисперсія εi. Загальніше, авторегресійна модель p-того порядку має p + 2 параметри. (Проте, якщо c не оцінюється, а задане завчасно, тоді є лише p + 1 параметрів.)

Перетворення даних

Значення АІК для всіх моделей-кандидатів мусять обчислюватися на одному й тому ж наборі даних. Проте іноді нам може захотітися порівняти модель даних із моделлю логарифму даних; загальніше, нам може захотітися порівняти модель даних із моделлю перетворених даних. Ось ілюстрація, як давати раду перетворенням даних (пристосована з Burnham & Anderson (2002, §2.11.3)).

Припустімо, що ми хочемо порівнювати дві моделі: нормальний розподіл даних та нормальний розподіл логарифму даних. Ми не повинні порівнювати значення ІКА двох моделей напряму. Натомість ми повинні перетворити нормальну інтегральну функцію розподілу, щоби спочатку взяти логарифм даних. Для здійснення цього нам потрібно виконати відповідне інтегрування підстановкою: таким чином, нам потрібно помножити на похідну функції (натурального) логарифму, що є 1/x. Отже, перетворений розподіл має наступну функцію густини ймовірності:

x ↦ 1 x 1 2 π σ 2 exp ⁡ ( − ( ln ⁡ x − μ ) 2 2 σ 2 ) {\displaystyle x\mapsto \,{\frac {1}{x}}{\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\,\exp \left(-{\frac {\left(\ln x-\mu \right)^{2}}{2\sigma ^{2}}}\right)}

що є функцією густини ймовірності логнормального розподілу. Тепер ми можемо порівнювати значення ІКА нормальної моделі зі значенням ІКА логнормальної моделі.

Ненадійність програмного забезпечення

Деяке статистичне програмне забезпечення повідомлятиме значення ІКА або максимальне значення логарифмічної функції правдоподібності, але ці значення не завжди є правильними. Як правило, неправильність спричинюється нехтуванням сталою в логарифмічній функції правдоподібності. Наприклад, логарифмічною функцією правдоподібності для n незалежних ідентичних нормальних розподілів є

ln ⁡ L ( μ , σ 2 ) = − n 2 ln ⁡ ( 2 π ) − n 2 ln ⁡ σ 2 − 1 2 σ 2 ∑ i = 1 n ( x i − μ ) 2 {\displaystyle \ln {\mathcal {L}}(\mu ,\sigma ^{2})=-{\frac {n}{2}}\ln(2\pi )-{\frac {n}{2}}\ln \sigma ^{2}-{\frac {1}{2\sigma ^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}}

Це є функцією, що максимізується при отриманні значення ІКА. Проте деяке програмне забезпечення нехтує членом (n/2)ln(2π), і таким чином повідомляє помилкові значення максимумів логарифмічних правдоподібностей, і, відтак, ІКА. Такі помилки не мають значення для порівнянь на базі ІКА, якщо всі моделі мають нормально розподілені залишки, оскільки тоді помилки взаємно компенсуються. Проте в загальному випадку сталий член потребує включення до логарифмічної функції правдоподібності. Отже, перш ніж застосовувати програмне забезпечення для обчислення ІКА, в загальному випадку є гарною звичкою виконати якісь прості перевірки на цьому програмному забезпеченні, щоби переконатися, що значення функцій є правильними.

Порівняння з іншими методами вибору моделі

Порівняння з БІК

ІКА штрафує кількість параметрів не так сильно, як баєсів інформаційний критерій (БІК). Порівняння ІКА/ІКАк та БІК наведено в Burnham & Anderson (2002, §6.4). Автори показують, що ІКА та ІКАк може бути виведено в такій самій баєсовій системі, що й БІК, лише застосовуючи інше апріорне. Автори також стверджують, що ІКА/ІКАк має теоретичні переваги над БІК. По-перше, оскільки ІКА/ІКАк виводиться з принципів інформації, а БІК — ні, незважаючи на його назву. По-друге, оскільки виведення БІК (в межах баєсової системи) має апріорне 1/R (де R є кількістю моделей-кандидатів), що є «не чутливим» (англ. not sensible), оскільки апріорне повинне бути спадною функцією k. Крім того, вони представляють кілька симуляційних досліджень, які наводять на думку, що ІКА має схильність мати практичні/продуктивні переваги над БІК. Див. також Burnham & Anderson (2004).

Подальше порівняння ІКА та БІК, у контексті регресії, наведено в Yang (2005). Зокрема, ІКА є асимптотично оптимальним у виборі моделі з найменшою середньоквадратичною похибкою, за припущення, що точна «істинна» модель не входить до набору кандидатів (як практично завжди буває на практиці); БІК не є асимптотично оптимальним за цього припущення. Янг додатково показує, що темп, з яким ІКА збігається до оптимуму, в певному сенсі є найкращим з можливих.

Детальніше порівняння ІКА та БІК див. у Vrieze (2012) та Aho, Derryberry & Peterson (2014).

Порівняння з перевіркою хі-квадрат

Загальний випадок

Часто ми хочемо вибирати серед моделей-кандидатів, в яких всі функції правдоподібності передбачають, що залишки є нормально розподіленими (з нульовим середнім) та незалежними. Це припущення веде до перевірок хі-квадрат, що ґрунтуються на розподілі χ² (та пов'язані з R2). Застосування перевірок хі-квадрат виявляється пов'язаним із застосуванням ІКА.

Згідно нашого припущення, максимальна правдоподібність задається як

L = ∏ i = 1 n ( 1 2 π σ i ^ 2 ) 1 / 2 exp ⁡ ( − ∑ i = 1 n ( y i − f ( x i ; θ ^ ) ) 2 2 σ i ^ 2 ) {\displaystyle L=\prod _{i=1}^{n}\left({\frac {1}{2\pi {\hat {\sigma _{i}}}^{2}}}\right)^{1/2}\exp \left(-\sum _{i=1}^{n}{\frac {(y_{i}-f(x_{i};{\hat {\theta }}))^{2}}{2{\hat {\sigma _{i}}}^{2}}}\right)} ∴ ln ⁡ ( L ) = ln ⁡ ( ∏ i = 1 n ( 1 2 π σ i ^ 2 ) 1 / 2 ) − 1 2 ∑ i = 1 n ( y i − f ( x i ; θ ^ ) ) 2 σ i ^ 2 {\displaystyle \therefore \,\ln(L)=\ln \left(\prod _{i=1}^{n}\left({\frac {1}{2\pi {\hat {\sigma _{i}}}^{2}}}\right)^{1/2}\right)-{\frac {1}{2}}\sum _{i=1}^{n}{\frac {(y_{i}-f(x_{i};{\hat {\theta }}))^{2}}{{\hat {\sigma _{i}}}^{2}}}} ∴ ln ⁡ ( L ) = C − χ 2 / 2 {\displaystyle \therefore \,\ln(L)=C-\chi ^{2}/2\,} ,

де C є сталою, що не залежить від застосовуваної моделі, а залежить лише від використання конкретних точок даних, тобто, вона не змінюється, якщо не змінюються дані.

Таким чином, AIC = 2k − 2ln(L) = 2k − 2(C − χ²/2) = 2k − 2C + χ². Оскільки змістовними є лише різниці ІКА, сталу C можна ігнорувати, що дозволяє нам брати для порівняння моделей AIC = 2k + χ².

Випадок однакових дисперсій

Особливо зручний вираз для ІКА може бути отримано в випадку, коли всі σi вважаються однаковими (тобто, σi = σ), та σ є невідомою. В такому випадку оцінкою максимальної правдоподібності для σ2 є RSS/n, де RSS є залишковою сумою квадратів (англ. Residual Sum of Squares): R S S = ∑ i = 1 n ( y i − f ( x i ; θ ^ ) ) 2 {\displaystyle \textstyle \mathrm {RSS} =\sum _{i=1}^{n}(y_{i}-f(x_{i};{\hat {\theta }}))^{2}} . Це дає AIC = 2k + n ln(RSS/n) + C1 = 2k + n ln(RSS) + C2. Як і вище, для порівняння моделей сталу можна ігнорувати.

Порівняння з перехресною перевіркою

Перехресна перевірка є асимптотично еквівалентною ІКА для звичайних лінійних регресійних моделей. Така асимптотична еквівалентність також має місце й для моделей зі змішаними рівнями факторів.

Порівняння з Cp Меллоуза

Cp Меллоуза є еквівалентом ІКА у випадку (гаусової) лінійної регресії.

Див. також

  • Інформаційний критерій відхилення
  • Фокусний інформаційний критерій
  • Інформаційний критерій Геннена — Куїнна
  • Бритва Оккама
  • Принцип максимальної ентропії

Примітки

  1. ↑ Burnham та Anderson, 2002, §2.2
  2. а б Akaike, 1974
  3. ↑ Burnham та Anderson, 2002, §6.4.5
  4. а б Burnham та Anderson, 2002
  5. ↑ Burnham та Anderson, 2002, §2.12.4
  6. ↑ Cavanaugh, 1997
  7. ↑ Claeskens та Hjort, 2008, §8.3
  8. ↑ Giraud, 2015, §2.9.1
  9. ↑ Burnham та Anderson, 2004
  10. ↑ Akaike, 1973
  11. ↑ deLeeuw, 1992
  12. ↑ Van Noordon R., Maher B., Nuzzo R. (2014), "The top 100 papers", Nature, 514. (англ.)
  13. ↑ Brockwell та Davis, 1991, с. 273
  14. а б Burnham та Anderson, 2002, с. 63
  15. ↑ Burnham та Anderson, 2002, с. 82
  16. ↑ Stone, 1977
  17. ↑ Fang, 2011
  18. ↑ Boisbunon та ін., 2014

Джерела

  • Aho, K.; Derryberry, D.; Peterson, T. (2014). Model selection for ecologists: the worldviews of AIC and BIC. Ecology 95: 631–636. doi:10.1890/13-1452.1.  (англ.)
  • Akaike, H. (1973). Information theory and an extension of the maximum likelihood principle. У Petrov, B.N.; Csáki, F. 2nd International Symposium on Information Theory, Tsahkadsor, Armenia, USSR, September 2-8, 1971. Budapest: Akadémiai Kiadó. с. 267-281.  (англ.)
  • Akaike, H. (1974). A new look at the statistical model identification. IEEE Transactions on Automatic Control 19 (6): 716–723. doi:10.1109/TAC.1974.1100705. MR 0423716.  (англ.)
  • Akaike, H. (1985). Prediction and entropy. У Atkinson, A.C.; Fienberg, S.E. A Celebration of Statistics. Springer. с. 1-24.  (англ.)
  • Boisbunon, A.; Canu, S.; Fourdrinier, D.; Strawderman, W.; Wells, M. T. (2014). Akaike's Information Criterion, Cp and estimators of loss for elliptically symmetric distributions. International Statistical Review 82: 422–439. doi:10.1111/insr.12052.  (англ.)
  • Brockwell, P. J.; Davis, R. A. (1987). Time Series: Theory and Methods. Springer. ISBN 0387964061.  (англ.)
  • Brockwell, P. J.; Davis, R. A. (1991). Time Series: Theory and Methods (вид. 2nd). Springer. ISBN 0387974296.  Republished in 2009: ISBN 1441903194. (англ.)
  • Burnham, K. P.; Anderson, D. R. (2002). Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach (вид. 2nd). Springer-Verlag. ISBN 0-387-95364-7.  (англ.)
  • Burnham, K. P.; Anderson, D. R. (2004). Multimodel inference: understanding AIC and BIC in Model Selection. Sociological Methods & Research 33: 261–304. doi:10.1177/0049124104268644.  (англ.)
  • Cavanaugh, J. E. (1997). Unifying the derivations of the Akaike and corrected Akaike information criteria. Statistics & Probability Letters 31: 201–208. doi:10.1016/s0167-7152(96)00128-9.  (англ.)
  • Claeskens, G.; Hjort, N. L. (2008). Model Selection and Model Averaging. Cambridge University Press.  (англ.)
  • deLeeuw, J. (1992). Introduction to Akaike (1973) information theory and an extension of the maximum likelihood principle. У Kotz, S.; Johnson, N.L.. Breakthroughs in Statistics I. Springer. с. 599-609.  (англ.)
  • Fang, Yixin (2011). Asymptotic equivalence between cross-validations and Akaike Information Criteria in mixed-effects models. Journal of Data Science 9: 15–21.  (англ.)
  • Giraud, C. (2015). Introduction to High-Dimensional Statistics. CRC Press.  (англ.)
  • Hurvich, C. M.; Tsai, C.-L. (1989). Regression and time series model selection in small samples. Biometrika 76: 297–307. doi:10.1093/biomet/76.2.297.  (англ.)
  • Konishi, S.; Kitagawa, G. (2008). Information Criteria and Statistical Modeling. Springer.  (англ.)
  • McQuarrie, A. D. R.; Tsai, C.-L. (1998). Regression and Time Series Model Selection. World Scientific. ISBN 981-02-3242-X.  (англ.)
  • Stone, M. (1977). An Asymptotic Equivalence of Choice of Model by Cross-Validation and Akaike's Criterion. Journal of the Royal Statistical Society: Series B (Methodological) 39 (1): 44–47. Процитовано 18 October 2014.  (англ.)
  • Sugiura, N. (1978). Further analysis of the data by Akaike’s information criterion and the finite corrections. Communications in Statistics - Theory and Methods A7: 13–26.  (англ.)
  • Takeuchi, K. (1976).   . Suri-Kagaku (Japanese) 153: 12–18.  (яп.)
  • Vrieze, S. I. (2012). Model selection and psychological theory: a discussion of the differences between the Akaike Information Criterion (AIC) and the Bayesian Information Criterion (BIC). Psychological Methods 17: 228–243. doi:10.1037/a0027127.  (англ.)
  • Yang, Y. (2005). Can the strengths of AIC and BIC be shared?. Biometrika 92: 937–950. doi:10.1093/biomet/92.4.937.  (англ.)

Література

  • Anderson, D. R. (2008). Model Based Inference in the Life Sciences. Springer.  (англ.)
  • Liu, W.; Yang, Y. (2011). Parametric or nonparametric?. Annals of Statistics 39: 2074–2102. doi:10.1214/11-AOS899.  (англ.)
  • Pan, W. (2001). Akaike's information criterion in generalized estimating equations. Biometrics 57: 120–125. doi:10.1111/j.0006-341X.2001.00120.x.  (англ.)
  • Parzen, E.; Tanabe, K.; Kitagawa, G., ред. (1998). Selected Papers of Hirotugu Akaike. Springer. doi:10.1007/978-1-4612-1694-0.  (англ.)
  • Saefken, B.; Kneib, T.; van Waveren, C.-S.; Greven, S. (2014). A unifying approach to the estimation of the conditional Akaike information in generalized linear mixed models. Electronic Journal of Statistics 8: 201–225. doi:10.1214/14-EJS881.  (англ.)

Посилання

  • Коментарі Хіроцуґу Акаіке про те, як він дійшов до ІКА, в This Week's Citation Classic (21 грудня 1981 р.) (англ.)
  • AIC (Університет Аалто) (англ.)
  • Akaike Information Criterion (Університет штату Північна Кароліна) (англ.)
  • Example AIC use (Honda USA, Noesis Solutions, Belgium) (англ.)
  • Model Selection (Університет Айови) (англ.)


Інформаційний критерій Акаіке Інформацію Про

Інформаційний критерій Акаіке


  • user icon

    Інформаційний критерій Акаіке beatiful post thanks!

    29.10.2014


Інформаційний критерій Акаіке
Інформаційний критерій Акаіке
Інформаційний критерій Акаіке Ви переглядаєте суб єкт.
Інформаційний критерій Акаіке що, Інформаційний критерій Акаіке хто, Інформаційний критерій Акаіке опис

There are excerpts from wikipedia on this article and video

Випадкові Статті

Кошелівська сільська рада (Хустський район)

Кошелівська сільська рада (Хустський район)

Сільській раді підпорядковані населені пункти: с. Кошельово с. Залом Зміст 1 Населені пункти...
Зертаський сільський округ

Зертаський сільський округ

Зерта́ський сільський округ каз Зертас ауылдық округі, рос Зертасский сельский округ — адм...
Метрика Фрідмана-Леметра-Робертсона-Вокера

Метрика Фрідмана-Леметра-Робертсона-Вокера

Метрика Фрідмана-Леметра-Робертсона-Вокера - метрика простору-часу, яка описує однорідний ізотропний...
Копалнік-Менештур

Копалнік-Менештур

Копалнік-Менештур (рум. Copalnic-Mănăștur) — село у повіті Марамуреш в Румунії. Адміністративни...