Наивни Бајесов класификатор

С Википедије, слободне енциклопедије

Пример наивног Бајесовог класификатора приказаног као Бајесова мрежа

У статистици, наивни Бајесови класификатори су фамилија линеарних „пробабилистичких класификатора” који претпоставља да су обележја условно независна, с обзиром на циљну класу. Снага (наивност) ове претпоставке је оно што класификатору даје име. Ови класификатори су међу најједноставнијим моделима типа Бајесове мреже.[1]

Наивни Бајесови класификатори су веома скалабилни и захтевају низ параметара који су линеарни у броју варијабли (карактеристике/предиктори) у проблему учења. Обука максималне вероватноће се може обавити проценом израза затворене форме,[2] који захтева линеарно време, уместо скупом итеративном апроксимацијом као што се користи за многе друге типове класификатора.

У статистичкој литератури, наивни Бајесови модели познати су под разним именима, укључујући једноставне и независне Бајесове моделе.[3] Сва ова имена упућују на употребу Бајесове теореме у правилу одлучивања класификатора, али наивни Бајес није (нужно) Бајесов метод.[2][3]

Увод[уреди | уреди извор]

Наивни Бајес је једноставна техника за конструисање класификатора: модела који додељују ознаке класа инстанцама проблема, представљене као вектори вредности [феатуре вецтор[|карактеристика]], где су ознаке класа извучене из неког коначног скупа. Не постоји један алгоритам за обуку таквих класификатора, већ породица алгоритама заснована на заједничком принципу: сви наивни Бајесови класификатори претпостављају да је вредност одређене карактеристике независна од вредности било ког другог обележја, с обзиром на променљиву класе. На пример, воће се може сматрати јабуком ако је црвено, округло и пречника око 10 цм. Наивни Бајесов класификатор сматра да свака од ових карактеристика независно доприноси вероватноћи да је ово воће јабука, без обзира на све могуће корелације између карактеристика боје, заобљености и пречника.

У многим практичним применама, процена параметара за наивне Бајесове моделе користи метод максималне вероватноће; другим речима, може се радити са наивним Бајесовим моделом без прихватања Бајесове вероватноће или коришћења било које Бајесове методе.

Упркос свом наивном дизајну и очигледно превише поједностављеним претпоставкама, наивни Бајесови класификатори су функционисали прилично добро у многим сложеним ситуацијама у стварном свету. Године 2004, анализа проблема Бајесове класификације показала је да постоје чврсти теоријски разлози за очигледно невероватну ефикасност наивних Бајесових класификатора.[4] Ипак, свеобухватно поређење са другим класификационим алгоритмима из 2006. године показало је да је Бајесова класификација боља од других приступа, као што су појачана стабла или рандомне шуме.[5]

Предност наивног Бајеса је у томе што је потребна само мала количина података за обуку да би се проценили параметри неопходни за класификацију.[6]

Референце[уреди | уреди извор]

  1. ^ МцЦаллум, Андреw. „Грапхицал Моделс, Лецтуре2: Баyесиан Нетwорк Репресентатион” (ПДФ). Архивирано (ПДФ) из оригинала 2022-10-09. г. Приступљено 22. 10. 2019. 
  2. ^ а б Русселл, Стуарт; Норвиг, Петер (2003). Артифициал Интеллигенце: А Модерн Аппроацх (2нд изд.). Прентице Халл. ИСБН 978-0137903955. 
  3. ^ а б Ханд, D. Ј.; Yу, К. (2001). „Идиот'с Баyес — нот со ступид афтер алл?”. Интернатионал Статистицал Ревиеw. 69 (3): 385—399. ИССН 0306-7734. ЈСТОР 1403452. дои:10.2307/1403452. 
  4. ^ Зханг, Харрy. Тхе Оптималитy оф Наиве Баyес (ПДФ). ФЛАИРС2004 цонференце. 
  5. ^ Царуана, Р.; Ницулесцу-Мизил, А. (2006). Ан емпирицал цомпарисон оф супервисед леарнинг алгоритхмс. Проц. 23рд Интернатионал Цонференце он Мацхине Леарнинг. ЦитеСеерX 10.1.1.122.5901Слободан приступ. 
  6. ^ „Wхy доес Наиве Баyес wорк беттер wхен тхе нумбер оф феатурес >> сампле сизе цомпаред то море сопхистицатед ML алгоритхмс?”. Цросс Валидатед Стацк Еxцханге. Приступљено 24. 1. 2023. 

Литература[уреди | уреди извор]

Спољашње везе[уреди | уреди извор]