Пређи на садржај

Процена максималне вероватноће

С Википедије, слободне енциклопедије
(преусмерено са Maksimalna verovatnoća)

У статистици, процена максималне вероватноће (енгл. maximum likelihood estimation - MLE) метод је процењивања параметара расподеле вероватноће максимизовањем функције вероватноће, тако да су по претпостављеном статистичком моделу уочени подаци највероватнији. Тачка у параметарском простору која максимизира функцију вероватноће назива се проценом максималне вероватноће.[1] Логика максималне вероватноће је интуитивна и флексибилна, и као таква метода је постала доминантно средство статистичког закључивања.[2][3][4]

Ако је функција вероватноће диференцијабилна, може се применити дериватни тест за одређивање максима. У неким случајевима се услови првог реда функције вероватноће могу експлицитно решити; на пример, процењивач обичних најмањих квадрата максимизира вероватноћу линеарног регресионог модела.[5] Међутим, у већини околности, нумеричке методе су неопходне да би се пронашао максимум функције вероватноће.

Са становишта Бајесовог закључивања, МЛЕ је посебан случај максималне постериорне процене (МАП) који претпоставља униформну приорну расподелу параметара. У фреквенционистичком закључивању, МЛЕ је посебан случај процењивача екстрема, чија је објективна функција вероватноћа.

Принципи[уреди | уреди извор]

Са статистичког становишта, дати скуп запажања је случајни узорак из непознате популације. Циљ процене максималне вероватноће је да се изведу закључци о популацији из које је узорак највероватније генерисн,[6] специфично о заједничкој расподели вероватноће случајних променљивих , које нису нужно независно и идентично дистрибуиране. Са сваком дистрибуцијом вероватноће повезан је јединствени вектор параметара који индексирају дистрибуцију вероватноће унутар породице параметара , где се назива простором параметара, који је коначно димензионални подскуп Еуклидског простора. Процена заједничке густине на посматраном узорку података даје реално-вредносну функцију,

која се назива функцијом вероватноће. За независне и идентично расподељене случајне променљиве, ће бити производ униваријантних функција густине.

Циљ процене максималне вероватноће је да се пронађу вредности параметара модела које максимизирају функцију вероватноће у простору параметара,[6] то јест

Интуитивно, овим се бирају вредности параметара које чине посматране податке највероватнијим. Специфична вредност која максимизује функцију вероватноће се зове процена максималне вероватноће. Даље, ако је функција тако дефинисана да је мерљива, онда се она назива процењивачем максималне вероватноће. То је генерално функција дефинисана над простором узорка, тј. она узима одређени узорк као свој аргумент. Довољан али не и неопходан услов за њено постојање је да функција вероватноће буде континуирана на параметарском простору који је компактан.[7] За отворено функција вероватноће се може повећати без премашивања супремумске вредности.

У пракси је често прикладно радити с природним логаритамом функције вероватноће, званим логаритамска вероватноћа[8]:

Пошто је логаритам монотона функција, максимум од се јавља на истој вредности као и максимум од .[9] Ако је диференцијабилно у , потребни услови за појављивање максимума (или минимума) су

што је познато као једначина вероватноће. За неке моделе, ове једначине могу се експлицитно решити за , али генерално решења затвореног облика за проблеме максимизације нису позната или доступна, а МЛЕ се може пронаћи само нумеричком оптимизацијом. Још један проблем је што у коначним узорцима може постојати више корена за једначине вероватноће.[10] Да ли је идентификовани корен једначине вероватноће заиста (локални) максимум, зависи од тога да ли је матрица другог реда парцијалних и унакрсно парцијалних деривата,

позната као Хесијан негативно полудефинитивна у , што даје индикацију о постојању локалне конкавности. Повољно је да су најчешће расподеле вероватноће - нарочито експоненцијална породица - логаритамски конкавне.[11][12]

Референце[уреди | уреди извор]

  1. ^ Росси, Рицхард Ј. (2018). Матхематицал Статистицс : Ан Интродуцтион то Ликелихоод Басед Инференце. Неw Yорк: Јохн Wилеy & Сонс. стр. 227. ИСБН 978-1-118-77104-4. 
  2. ^ Хендрy, Давид Ф.; Ниелсен, Бент (2007). Ецонометриц Моделинг: А Ликелихоод Аппроацх. Принцетон: Принцетон Университy Пресс. ИСБН 978-0-691-13128-3. 
  3. ^ Цхамберс, Раyмонд L.; Стеел, Давид Г.; Wанг, Суојин; Wелсх, Алан (2012). Маxимум Ликелихоод Естиматион фор Сампле Сурвеyс. Боца Ратон: ЦРЦ Пресс. ИСБН 978-1-58488-632-7. 
  4. ^ Wард, Мицхаел Дон; Ахлqуист, Јохн С. (2018). Маxимум Ликелихоод фор Социал Сциенце : Стратегиес фор Аналyсис. Неw Yорк: Цамбридге Университy Пресс. ИСБН 978-1-107-18582-1. 
  5. ^ Пресс, W. Х.; Фланнерy, Б. П.; Теуколскy, С. А.; Веттерлинг, W. Т. (1992). „Леаст Сqуарес ас а Маxимум Ликелихоод Естиматор”. Нумерицал Реципес ин ФОРТРАН: Тхе Арт оф Сциентифиц Цомпутинг (2нд изд.). Цамбридге: Цамбридге Университy Пресс. стр. 651—655. ИСБН 978-0-521-43064-7. 
  6. ^ а б Мyунг, I. Ј. (2003). „Туториал он Маxимум Ликелихоод Естиматион”. Јоурнал оф Матхематицал Псyцхологy. 47 (1): 90—100. дои:10.1016/С0022-2496(02)00028-7. 
  7. ^ Гоуриероуx, Цхристиан; Монфорт, Алаин (1995). Статистицс анд Ецонометрицс Моделс. Цамбридге Университy Пресс. стр. 161. ИСБН 978-0-521-40551-5. 
  8. ^ Лог-ликелихоод
  9. ^ Кане, Едwард Ј. (1968). Ецономиц Статистицс анд ЕцонометрицсНеопходна слободна регистрација. Неw Yорк: Харпер & Роw. стр. 179. ИСБН. 
  10. ^ Смалл, Цхристопер Г.; Wанг, Јинфанг (2003). „Wоркинг wитх Роотс”. Нумерицал Метходс фор Нонлинеар Естиматинг Еqуатионс. Оxфорд Университy Пресс. стр. 74—124. ИСБН 978-0-19-850688-1. 
  11. ^ Касс, Роберт Е.; Вос, Паул W. (1997). Геометрицал Фоундатионс оф Асyмптотиц Инференце. Неw Yорк: Јохн Wилеy & Сонс. стр. 14. ИСБН 978-0-471-82668-2. 
  12. ^ Пападопоулос, Алецос (25. 9. 2013). „Wхy wе алwаyс пут лог() бефоре тхе јоинт пдф wхен wе усе МЛЕ (Маxимум ликелихоод Естиматион)?”. Стацк Еxцханге. 

Литература[уреди | уреди извор]

Спољашње везе[уреди | уреди извор]