Teorija računarskog učenja

С Википедије, слободне енциклопедије

U računarskoj nauci, teorija računarskog učenja (ili samo teorija učenja) je podoblast veštačke inteligencije posvećena proučavanju dizajna i analize algoritama mašinskog učenja.[1]

Pregled[уреди | уреди извор]

Teorijski rezultati u mašinskom učenju uglavnom se bave vrstom induktivnog učenja koje se naziva nadgledano učenje. U nadgledanom učenju, algoritmu se daju uzorci koji su označeni na neki koristan način. Na primer, uzorci mogu biti opisi pečuraka, a oznake mogu biti da li su pečurke jestive ili ne. Algoritam uzima ove prethodno označene uzorke i koristi ih da indukuje klasifikator. Ovaj klasifikator je funkcija koja dodeljuje oznake uzorcima, uključujući uzorke koje algoritam ranije nije video. Cilj algoritma nadgledanog učenja je da optimizuje neku meru performansi, kao što je minimizovanje broja grešaka napravljenih na novim uzorcima.

Pored granica performansi, teorija računarskog učenja proučava vremensku složenost i izvodljivost učenja. U teoriji računarskog učenja, proračun se smatra izvodljivim ako se može obaviti u polinomskom vremenu. Postoje dve vrste rezultata vremenske složenosti:

  • Pozitivni rezultati – Pokazivanje da se određena klasa funkcija može naučiti u polinomskom vremenu.
  • Negativni rezultati – Pokazuju da se određene klase ne mogu naučiti u polinomskom vremenu.

Negativni rezultati se često oslanjaju na uobičajene, ali još uvek nedokazane pretpostavke, kao što su:

Postoji nekoliko različitih pristupa teoriji računarskog učenja zasnovanih na različitim pretpostavkama o principima zaključivanja koji se koriste za generalizaciju iz ograničenih podataka. Ovo uključuje različite definicije verovatnoće (pogledajte verovatnoću frekvencije, Bajesovu verovatnoću) i različite pretpostavke o generisanju uzoraka. Različiti pristupi uključuju:

Dok je njen primarni cilj da apstraktno razume učenje, teorija računarskog učenja je dovela do razvoja praktičnih algoritama. Na primer, teorija PAC-a je inspirisala pristup pojačanja, VC teorija je dovela do metoda potpornih vektora, a Bajesovo zaključivanje je dovelo do razvoja Bajesovih mreža.

Reference[уреди | уреди извор]

  1. ^ „ACL - Association for Computational Learning”. 
  2. ^ Valiant, Leslie (1984). „A Theory of the Learnable” (PDF). Communications of the ACM. 27 (11): 1134—1142. S2CID 12837541. doi:10.1145/1968.1972. Архивирано из оригинала (PDF) 2019-05-17. г. Приступљено 2022-11-24. 
  3. ^ Vapnik, V.; Chervonenkis, A. (1971). „On the uniform convergence of relative frequencies of events to their probabilities” (PDF). Theory of Probability and Its Applications. 16 (2): 264—280. doi:10.1137/1116025. 
  4. ^ Solomonoff, Ray (март 1964). „A Formal Theory of Inductive Inference Part 1”. Information and Control. 7 (1): 1—22. doi:10.1016/S0019-9958(64)90223-2Слободан приступ. 
  5. ^ Solomonoff, Ray (1964). „A Formal Theory of Inductive Inference Part 2”. Information and Control. 7 (2): 224—254. doi:10.1016/S0019-9958(64)90131-7. 
  6. ^ Gold, E. Mark (1967). „Language identification in the limit” (PDF). Information and Control. 10 (5): 447—474. doi:10.1016/S0019-9958(67)91165-5Слободан приступ. 

Literatura[уреди | уреди извор]

Spoljašnje veze[уреди | уреди извор]