Funkcije gubitaka za klasifikaciju

S Vikipedije, slobodne enciklopedije
Bajesove konzistentne funkcije gubitka: gubitak nula-jedan (siva), gubitak divljaka (zelena), logistički gubitak (narandžasta), eksponencijalni gubitak (ljubičasta), gubitak tangenta (braon), gubitak kvadrata (plava)

U mašinskom učenju i matematičkoj optimizaciji, funkcije gubitka za klasifikaciju su računski izvodljive funkcije gubitka koje predstavljaju cenu plaćenu za netačnost predviđanja u problemima klasifikacije (problemi identifikacije kojoj kategoriji pripada određeno zapažanje). Dato kao prostor svih mogućih ulaza (obično ), i kao skup oznaka (mogućih izlaza), tipičan cilj klasifikacionih algoritama je pronalaženje funkcije koji najbolje predviđa oznaku za dati ulaz . Međutim, zbog nepotpunih informacija, šuma u merenju ili verovatnoća komponenti u osnovnom procesu, moguće je da isti generiše različite . Kao rezultat, cilj problema učenja je da se minimizira očekivani gubitak (takođe poznat kao rizik), definisan kao

gde je data funkcija gubitka, i je funkcija gustine verovatnoće procesa koji je generisao podatke, što je ekvivalentno:

U okviru klasifikacije, nekoliko često korišćenih funkcija gubitka je napisano isključivo u smislu proizvoda prave labele i predviđene labele . Stoga se mogu definisati kao funkcije samo jedne promenljive , tako da sa prikladno odabranom funkcijom . One se nazivaju funkcije gubitka zasnovane na marži . Odabir funkcije gubitka zasnovane na marži predstavlja izbor . Izbor funkcije gubitka unutar ovog okvira utiče na optimalnu što minimizira očekivani rizik.

U slučaju binarne klasifikacije, moguće je pojednostaviti izračunavanje očekivanog rizika iz gore navedenog integrala. Odnosno:

Druga jednakost proizilazi iz gore opisanih svojstava. Treća jednakost proizilazi iz činjenice da su 1 i −1 jedine moguće vrednosti za , a četvrta jer je . Termin u zagradama je poznat kao uslovni rizik.

Može se rešiti za minimizator od uzimanjem funkcionalnog izvoda poslednje jednakosti u odnosu na i izjednačavanjem izvoda sa 0. Ovo će rezultirati sledećom jednačinom:

što je ekvivalentno postavljanju izvoda uslovnog rizika jednakom nuli.

S obzirom na binarnu prirodu klasifikacije, prirodna selekcija za funkciju gubitka (pod pretpostavkom da je jednaka cena za lažne pozitivne i lažno negativne ) bila bi funkcija gubitka 0-1 ( funkcija indikatora 0–1), koja uzima vrednost 0 ako je predviđeno klasifikacija jednaka onoj prave klase ili 1 ako se predviđena klasifikacija ne poklapa sa pravom klasom. Ovaj izbor je modelovan po sledećoj jednokosti:

gde označava funkciju Hevisajdovog koraka. Međutim, ova funkcija gubitka nije konveksna i nije glatka, a rešavanje optimalnog rešenja je NP-težak kombinatorni optimizacioni problem. Kao rezultat toga, bolje je zameniti surogate funkcije gubitka koji su pogodni za uobičajeno korišćene kod algoritama učenja, jer imaju pogodna svojstva kao što je konveksnost i glatkos. Pored njihove računske popravljivosti, može se pokazati da rešenja problema učenja pomoću ovih surogata gubitaka omogućavaju oporavak stvarnog rešenja originalnog problema klasifikacije. Neki od ovih surogata su opisani u nastavku.

U praksi, raspodela verovatnoće je nepoznata. Shodno tome, koristiti trening set za obuku nezavisno i identično raspoređenih tački uzorka

izvučen iz prostora elemantarnih uzoraka podataka, nastoji se minimizirati empirijski rizik

kao zamena za očekivani rizik.

Bajesova konzistencija[uredi | uredi izvor]

Koristeći Bajesovu teoremu, može se pokazati da je optimalna , tj. ona koji minimizuje očekivani rizik povezan sa gubitkom nula-jedan, implementira Bajesovo pravilo optimalne odluke za problem binarne klasifikacije i u obliku je:

.

Za funkciju gubitka se kaže da je kalibrisana klasifikacijom ili Bajesova konzistentna ako je optimalna je takava da i stoga je optimalana prema Bajesovom pravilu odlučivanja. Bajesova konzistentna funkcija gubitka omogućava nam da pronađemo Bajesovu optimalnu funkciju odlučivanja direktnim minimizovanjem očekivanog rizika i bez potrebe za eksplicitnim modeliranjem funkcija gustine verovatnoće.

Za gubitak konveksne margine , može se pokazati da je Bajes konzistentan ako i samo ako je diferencibilan na 0 i . Ipak, ovaj rezultat ne isključuje postojanje nekonveksnih Bajesovih konzistentnih funkcija gubitka. Opštiji rezultat kaže da se Bajesove konzistentne funkcije gubitka mogu generisati korišćenjem sledeće formulacije:

,

gde je bilo koja inverzibilna funkcija takva da je i bilo koja diferencibilna striktno konkavna funkcija takva da je . Tabela-I prikazuje generisane Bajesove konzistentne funkcije gubitka za neke primere izbora i . Imajte na umu da nisu svi gubitci konveksni. Pokazalo se da su takve nekonveksne funkcije gubitka korisne u radu sa odstupnicima u klasifikaciji. Za sve funkcije gubitka generisane iz (2), posteriorna verovatnoća može se naći pomoću funkcije inverzne veze kao . Takve funkcije gubitka gde se zadnja verovatnoća može povratiti korišćenjem inverzibilne veze nazivaju se funkcije pravilnog gubitka .

Tabela-I
Ime gubitka
Eksponencijalno
Logistic
Kvadrat
Sevidž
Tangenta


Jedini minimizator očekivanog rizika, , povezan sa gore generisanim funkcijama gubitaka može se direktno naći iz jednačine (1) i pokazati da je jednaka odgovarajućoj . Ovo važi čak i za nekonveksne funkcije gubitka, što znači da se algoritmi zasnovani na gradijentu spuštanja, kao što je povećanje gradijenta, koji se može koristiti za konstruisanje minimizatora.

Ispravne funkcije gubitka, margina gubitka i regularizacija[uredi | uredi izvor]

(Crveni) standardni logistički gubitak ( ) i (Plava) povećana marža Logistički gubitak ( ).

Za validne funkcije gubitka, margina gubitka se može definisati kao a pokazalo se da je direktno povezana sa svojstvima regularizacije klasifikatora. Konkretno, funkcija gubitka veće margine povećava regularizaciju i daje bolje procene posteriorne verovatnoće. Na primer, marža gubitka se može povećati za logistički gubitak uvođenjem a parametar i pisanje logističkog gubitka kao gde manji povećava marginu gubitka. Pokazano je da je ovo direktno ekvivalentno smanjenju stope učenja u podizanju gradijenta gde smanjenje poboljšava regularizaciju pojačanog klasifikatora. Teorija jasno pokazuje da kada stopa učenja od se koristi, ispravna formula za dobijanje posteriorne verovatnoće je sada .

Zaključujemo, izborom funkcije gubitka sa većom marginom (manjom ) povećavamo regularizaciju i poboljšavamo naše procene posteriorne verovatnoće što zauzvrat poboljšava ROC(površinu konvergencije) krivu konačnog klasifikatora.

Kvadratni gubitak[uredi | uredi izvor]

Iako je češće korišćena u regresiji, funkcija kvadratnog gubitka može se ponovo napisati kao funkcija i koristi se za klasifikaciju. Može se generisati korišćenjem izraza (2) i tabele-I na sledeći način:

Funkcija kvadratnog gubitka je i konveksna i glatka. Međutim, funkcija kvadratnog gubitka ima tendenciju da prekomerno kažnjava granične vrednosti, što dovodi do sporije konvergencije (u odnosu na složenost uzorka) nego za funkcije logističkog gubitka ili gubitka zgloba. Pored toga, funkcije koje daju visoke vrednosti za za neke će imati lošije performanse sa funkcijom kvadratnog gubitka, pošto će visoke vrednosti od biti strogo kažnjene, bez obzira na to da li se znaci od i poklapaju.

Prednost funkcije kvadratnog gubitka je u tome što njena struktura omogućava laku unakrsnu validaciju parametara regularizacije. Konkretno za Tihonovljevu regularizaciju, parametar regularizacije se može rešiti korišćenjem unakrsne validacije za isto vreme koje bi bilo potrebno za rešavanje jednog problema.

Minimizacija za za funkciju kvadratnog gubitka može se direktno naći iz jednačine (1) kao:

Logistički gubitak[uredi | uredi izvor]

Funkcija logističkih gubitaka može se generisati korišćenjem (2) i tabele-I kao:

Logistički gubitak je konveksan i raste linearno za negativne vrednosti što ga čini manje osetljivim na odstupanja. Logistički gubitak se koristi u LogitBoost algoritmu .

Minimizator za za funkciju logističkog gubitka može se direktno naći iz jednačine (1) kao

Ova funkcija je nedefinisana kada ili (težući ka ∞ i −∞ respektivno), ali predviđa glatku krivu koja raste kada raste i jednaka je 0 kada .

Lako je proveriti da li su logistički gubitak i binarni gubitak entropije u stvari isti (do multiplikativne konstante ). Gubitak unakrsne entropije je usko povezan sa Kulbek-Lajblerovom divergencijom između empirijske raspodele i predviđene raspodele. Gubitak unakrsne entropije je sveprisutan u savremenim dubokim neuronskim mrežama .

Eksponencijalni gubitak[uredi | uredi izvor]

Funkcija eksponencijalnog gubitka može se generisati korišćenjem (2) i tabele-I kao:

Eksponencijalni gubitak je konveksan i raste eksponencijalno za negativne vrednosti što ga čini osetljivijim na odstupanja. Eksponencijalni gubitak se koristi u AdaBust algoritmu .

Minimizator za za eksponencijalnu funkciju gubitka može se direktno naći iz jednačine (1) kao:

Sevidž(divlji) gubitak[uredi | uredi izvor]

Savidž gubitak se može generisati korišćenjem (2) i tabele-I na sledeći način:

Savidž gubitak je kvazi-konveksan i ograničen je za velike negativne vrednosti što ga čini manje osetljivim na spoljne vrednosti. Sevidž gubitak je korišćen u pojačavanju gradijenta i algoritmu SavidžBust.

Minimizator za za Sevidž funkciju gubitka može se direktno naći iz jednačine (1) kao:

Gubitak tangente[uredi | uredi izvor]

Gubitak tangente može se generisati korišćenjem (2) i tabele-I na sledeći način:

Gubitak tangente je kvazi-konveksan i ograničen je za velike negativne vrednosti što ga čini manje osetljivim na odstupanja. Zanimljivo je da gubitak tangente takođe dodeljuje ograničenu kaznu tačkama podataka koje su klasifikovane „previše ispravne (overfit)“. Ovo može pomoći u sprečavanju preterane obuke na skupu podataka. Gubitak tangente je korišćen u pojačavanju gradijenta, algoritmu TangentBust i šumama naizmeničnih odluka.

Minimizator za za tangentnu funkciju gubitka može se direktno naći iz jednačine (1) kao:

Gubitak zgloba[uredi | uredi izvor]

Funkcija gubitka zgloba je definisana kao , gde je funkcija pozitivnog dela .

Gubitak zgloba obezbeđuje relativno čvrstu, konveksnu gornju granicu na funkciji indikatora 0–1. Konkretno, gubitak zgloba je jednak funkciji indikatora 0–1 kada i . Pored toga, empirijska minimizacija rizika od ovog gubitka je ekvivalentna klasičnoj formulaciji za mašine podržane vektorima (SVMs). Tačno klasifikovane tačke koje leže izvan marginalnih granica vektora podrške se ne kažnjavaju, dok se tačke unutar granica margine ili na pogrešnoj strani hiperravne kažnjavaju na linearni način u poređenju sa njihovom udaljenosti od ispravne granice.

Dok je funkcija gubitka zgloba i konveksna i kontinuirana, nije glatka (ne može se razlikovati) na . Shodno tome, funkcija gubitka zgloba se ne može koristiti sa metodama gradijentnog spusta ili metodama stohastičkog gradijenta koje se oslanjaju na diferencijabilnost u celom domenu. Međutim, gubitak zgloba ima subgradijent na , što omogućava korišćenje subgradijentnih metoda spuštanja . SVM-ovi koji koriste funkciju gubitka zgloba takođe se mogu rešiti korišćenjem kvadratnog programiranja .

Minimizator od za funkciju gubitka zgloba je

kada , što odgovara funkciji indikatora 0–1. Ovaj zaključak čini gubitak zgloba prilično atraktivnim, jer se mogu postaviti granice između očekivanog rizika i znaka funkcije gubitka zgloba. Gubitak zgloba se ne može izvesti iz (2) jer nije inverzibilan.

Generalizovani glatki gubitak zgloba[uredi | uredi izvor]

Generalizovana glatka funkcija gubitka zgloba sa parametrom se definiše kao:

gde je

Ona se monotono povećava i dostiže 0 kada .