Kategooriline ristentroopia on kadufunktsioon, mida kasutatakse mitme klassi klassifitseerimise ülesannetes. Need on ülesanded, mille puhul näide võib paljudest võimalikest kategooriatest kuuluda ainult ühte ja mudel peab otsustama, millisesse. Formaalselt on see mõeldud kahe tõenäosusjaotuse erinevuse kvantifitseerimiseks.
Miks kasutada MSE asemel ristentroopiat?
Esiteks, ristentroopia (või softmax kadu, kuid ristentroopia töötab paremini) on klassifitseerimisel parem mõõt kui MSE, sest otsustuspiir klassifitseerimisülesandes on suur(võrreldes regressiooniga). … Regressiooniprobleemide korral kasutaksite peaaegu alati MSE-d.
Mis vahe on hõreda ristentroopia ja kategoorilise ristentroopia vahel?
Ainus erinevus hõreda kategoorilise ristentroopia ja kategoorilise ristentroopia vahel on tõeliste siltide vorming. Kui meil on ühe sildi ja mitme klassi klassifitseerimisprobleem, välistavad sildid iga andmete puhul üksteist, mis tähendab, et iga andmesisestus võib kuuluda ainult ühte klassi.
Kuidas tõlgendate kategoorilist ristentroopia kadu?
Ristentroopia suureneb, kui valimi prognoositav tõenäosus erineb tegelikust väärtusest. Seetõttu suurendab tõenäosuse 0,05 ennustamine, kui tegelik sildi väärtus on 1, ristentroopia kadu. tähistab selle valimi prognoositavat tõenäosust vahemikus 0 kuni 1.
Miks on ristentroopia hea?
Üldiselt, nagu näeme, on ristentroopia lihts alt viis mudeli tõenäosuse mõõtmiseks. Ristentroopia on kasulik, kuna see võib kirjeldada mudeli tõenäolisust ja iga andmepunkti veafunktsiooni. Seda saab kasutada ka ennustatud tulemuse kirjeldamiseks võrreldes tegeliku tulemusega.