Наивни Бајесов класификатор
У статистици, наивни Бајесови класификатори су фамилија линеарних „пробабилистичких класификатора” који претпоставља да су обележја условно независна, с обзиром на циљну класу. Снага (наивност) ове претпоставке је оно што класификатору даје име. Ови класификатори су међу најједноставнијим моделима типа Бајесове мреже.[1]
Наивни Бајесови класификатори су веома скалабилни и захтевају низ параметара који су линеарни у броју варијабли (карактеристике/предиктори) у проблему учења. Обука максималне вероватноће се може обавити проценом израза затворене форме,[2] који захтева линеарно време, уместо скупом итеративном апроксимацијом као што се користи за многе друге типове класификатора.
У статистичкој литератури, наивни Бајесови модели познати су под разним именима, укључујући једноставне и независне Бајесове моделе.[3] Сва ова имена упућују на употребу Бајесове теореме у правилу одлучивања класификатора, али наивни Бајес није (нужно) Бајесов метод.[2][3]
Увод[уреди | уреди извор]
Наивни Бајес је једноставна техника за конструисање класификатора: модела који додељују ознаке класа инстанцама проблема, представљене као вектори вредности [феатуре вецтор[|карактеристика]], где су ознаке класа извучене из неког коначног скупа. Не постоји један алгоритам за обуку таквих класификатора, већ породица алгоритама заснована на заједничком принципу: сви наивни Бајесови класификатори претпостављају да је вредност одређене карактеристике независна од вредности било ког другог обележја, с обзиром на променљиву класе. На пример, воће се може сматрати јабуком ако је црвено, округло и пречника око 10 цм. Наивни Бајесов класификатор сматра да свака од ових карактеристика независно доприноси вероватноћи да је ово воће јабука, без обзира на све могуће корелације између карактеристика боје, заобљености и пречника.
У многим практичним применама, процена параметара за наивне Бајесове моделе користи метод максималне вероватноће; другим речима, може се радити са наивним Бајесовим моделом без прихватања Бајесове вероватноће или коришћења било које Бајесове методе.
Упркос свом наивном дизајну и очигледно превише поједностављеним претпоставкама, наивни Бајесови класификатори су функционисали прилично добро у многим сложеним ситуацијама у стварном свету. Године 2004, анализа проблема Бајесове класификације показала је да постоје чврсти теоријски разлози за очигледно невероватну ефикасност наивних Бајесових класификатора.[4] Ипак, свеобухватно поређење са другим класификационим алгоритмима из 2006. године показало је да је Бајесова класификација боља од других приступа, као што су појачана стабла или рандомне шуме.[5]
Предност наивног Бајеса је у томе што је потребна само мала количина података за обуку да би се проценили параметри неопходни за класификацију.[6]
Референце[уреди | уреди извор]
- ^ МцЦаллум, Андреw. „Грапхицал Моделс, Лецтуре2: Баyесиан Нетwорк Репресентатион” (ПДФ). Архивирано (ПДФ) из оригинала 2022-10-09. г. Приступљено 22. 10. 2019.
- ^ а б Русселл, Стуарт; Норвиг, Петер (2003). Артифициал Интеллигенце: А Модерн Аппроацх (2нд изд.). Прентице Халл. ИСБН 978-0137903955.
- ^ а б Ханд, D. Ј.; Yу, К. (2001). „Идиот'с Баyес — нот со ступид афтер алл?”. Интернатионал Статистицал Ревиеw. 69 (3): 385—399. ИССН 0306-7734. ЈСТОР 1403452. дои:10.2307/1403452.
- ^ Зханг, Харрy. Тхе Оптималитy оф Наиве Баyес (ПДФ). ФЛАИРС2004 цонференце.
- ^ Царуана, Р.; Ницулесцу-Мизил, А. (2006). Ан емпирицал цомпарисон оф супервисед леарнинг алгоритхмс. Проц. 23рд Интернатионал Цонференце он Мацхине Леарнинг. ЦитеСеерX 10.1.1.122.5901 .
- ^ „Wхy доес Наиве Баyес wорк беттер wхен тхе нумбер оф феатурес >> сампле сизе цомпаред то море сопхистицатед ML алгоритхмс?”. Цросс Валидатед Стацк Еxцханге. Приступљено 24. 1. 2023.
Литература[уреди | уреди извор]
- Домингос, Педро; Паззани, Мицхаел (1997). „Он тхе оптималитy оф тхе симпле Баyесиан цлассифиер ундер зеро-оне лосс”. Мацхине Леарнинг. 29 (2/3): 103—137. дои:10.1023/А:1007413511361 .
- Wебб, Г. I.; Боугхтон, Ј.; Wанг, З. (2005). „Нот Со Наиве Баyес: Аггрегатинг Оне-Депенденце Естиматорс”. Мацхине Леарнинг. 58 (1): 5—24. дои:10.1007/с10994-005-4258-6 .
- Мозина, M.; Демсар, Ј.; Каттан, M.; Зупан, Б. (2004). Номограмс фор Висуализатион оф Наиве Баyесиан Цлассифиер (ПДФ). Проц. ПКДД-2004. стр. 337—348.
- Марон, M. Е. (1961). „Аутоматиц Индеxинг: Ан Еxпериментал Инqуирy”. Јоурнал оф тхе АЦМ. 8 (3): 404—417. С2ЦИД 6692916. дои:10.1145/321075.321084. хдл:2027/ува.x030748531 .
- Минскy, M. (1961). Степс тоwард Артифициал Интеллигенце. Проц. ИРЕ. 49. стр. 8—30.