Skip to content

Archives

  • tammikuu 2022
  • joulukuu 2021
  • marraskuu 2021
  • lokakuu 2021
  • syyskuu 2021

Categories

  • Ei kategorioita
Trend RepositoryArticles and guides
Articles

Säännöstely yksinkertaisuuden vuoksi: Kuvio 1: L₂-säännöstely

On 28 joulukuun, 2021 by admin

Tarkastellaan seuraavaa yleistämiskäyrää, jossa näkyy sekä harjoitusjoukon että validointijoukon häviö suhteessa harjoitusiteraatioiden määrään.

Kuva 1. Koulutusjoukon ja validointijoukon tappio.

Kuviossa 1 näkyy malli, jossa koulutustappio vähitellen pienenee,mutta validointitappio lopulta kasvaa. Toisin sanoen tämä yleistämiskäyrä osoittaa, että malli soveltuu liian hyvin harjoitusjoukon tietoihin. Ehkä voisimme estää ylisovittamisen rankaisemalla monimutkaisia malleja, mitä kutsutaan regularisoinniksi.

Muulla sanoen, sen sijaan, että pyrkisimme yksinkertaisesti minimoimaan tappion (empiirinen riskin minimointi):

$$$\text{minimize(Loss(Data|Model))}$$$

minimoimme nyt tappion+kompleksisuuden, jota kutsutaan rakenteelliseksi riskin minimoinniksi:

$$$\text{minimize(Loss(Data|Model) + complexity(Model))}$$$

Koulutuksen optimointialgoritmimme on nyt kahden termin funktio: häviötermi, joka mittaa kuinka hyvin malli sopii dataan, ja regularisointitermi,joka mittaa mallin monimutkaisuutta.

Machine Learning Crash Course keskittyy kahteen yleiseen (ja hieman toisiinsa liittyvään) tapaan ajatella mallin monimutkaisuutta:

  • Mallin monimutkaisuus kaikkien mallin piirteiden painojen funktiona.
  • Mallin monimutkaisuus niiden piirteiden kokonaismäärän funktiona, joilla on nollasta poikkeavat painot. (Tätä lähestymistapaa käsitellään myöhemmässä moduulissa.)

Jos mallin monimutkaisuus on painojen funktio, ominaisuuden paino, jonka absoluuttinen arvo on suuri, on monimutkaisempi kuin ominaisuuden paino, jonka absoluuttinen arvo on pieni.

Voidaan kvantifioida monimutkaisuutta käyttämällä L2-regularisointikaavaa, jossa regularisointitermi määritellään kaikkien ominaispainojen neliöiden summana:

$$$L_2\text{ regularization term} = ||\\boldsymbol w||_2^2 = {w_1^2 + w_2^2 + … + w_n^2}$$

Tässä kaavassa lähellä nollaa olevilla painoilla ei ole juurikaan vaikutusta mallin monimutkaisuuteen, kun taas poikkeavilla painoilla voi olla valtava vaikutus.

Esimerkiksi lineaarinen malli, jossa on seuraavat painot:

Vastaa Peruuta vastaus

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *

Arkistot

  • tammikuu 2022
  • joulukuu 2021
  • marraskuu 2021
  • lokakuu 2021
  • syyskuu 2021

Meta

  • Kirjaudu sisään
  • Sisältösyöte
  • Kommenttisyöte
  • WordPress.org
  • DeutschDeutsch
  • NederlandsNederlands
  • SvenskaSvenska
  • DanskDansk
  • EspañolEspañol
  • FrançaisFrançais
  • PortuguêsPortuguês
  • ItalianoItaliano
  • RomânăRomână
  • PolskiPolski
  • ČeštinaČeština
  • MagyarMagyar
  • SuomiSuomi
  • 日本語日本語

Copyright Trend Repository 2022 | Theme by ThemeinProgress | Proudly powered by WordPress