Salta al contenuto

Archivi

  • Gennaio 2022
  • Dicembre 2021
  • Novembre 2021
  • Ottobre 2021
  • Settembre 2021

Categorie

  • Nessuna categoria
Trend RepositoryArticles and guides
Articles

Regolarizzazione per semplicità: L₂ Regolarizzazione

Il Dicembre 28, 2021 da admin

Considerate la seguente curva di generalizzazione, che mostra la perdita sia per l’insieme di allenamento che per l’insieme di convalida contro il numero di iterazioni di allenamento.

Figura 1. Perdita sul set di addestramento e sul set di convalida.

La figura 1 mostra un modello in cui la perdita di addestramento diminuisce gradualmente, ma la perdita di convalida alla fine sale. In altre parole, questa curva di generalizzazione mostra che il modello è troppo adatto ai dati del set di allenamento. Incanalando il nostro Ockham interiore, forse potremmo prevenire l’overfitting penalizzando i modelli complessi, un principio chiamato regolarizzazione.

In altre parole, invece di mirare semplicemente a minimizzare la perdita (minimizzazione del rischio empirico):

$${minimizzare(Perdita(Dati|Modello))}$$

ora minimizzeremo la perdita+complessità, che è chiamata minimizzazione del rischio strutturale:

$${minimizzare(Perdita(Dati|Modello) + complessità(Modello))}$$

Il nostro algoritmo di ottimizzazione dell’allenamento è ora una funzione di due termini: il termine di perdita, che misura quanto bene il modello si adatti ai dati, e il termine di regolarizzazione, che misura la complessità del modello.

Machine Learning Crash Course si concentra su due modi comuni (e in qualche modo correlati) di pensare alla complessità del modello:

  • La complessità del modello come funzione dei pesi di tutte le caratteristiche nel modello.
  • La complessità del modello come funzione del numero totale di caratteristiche con pesi non nulli. (Se la complessità del modello è una funzione dei pesi, un peso di caratteristica con un alto valore assoluto è più complesso di un peso di caratteristica con un basso valore assoluto.

    Possiamo quantificare la complessità usando la formula di regolarizzazione L2, che definisce il termine di regolarizzazione come la somma dei quadrati di tutti i pesi delle caratteristiche:

    $$L_2\text{ termine di regolarizzazione} = ||boldsymbol w||_2^2 = {w_1^2 + w_2^2 + … + w_n^2}$

    In questa formula, i pesi vicini allo zero hanno poco effetto sulla complessità del modello, mentre i pesi anomali possono avere un impatto enorme.

    Per esempio, un modello lineare con i seguenti pesi:

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Archivi

  • Gennaio 2022
  • Dicembre 2021
  • Novembre 2021
  • Ottobre 2021
  • Settembre 2021

Meta

  • Accedi
  • Feed dei contenuti
  • Feed dei commenti
  • WordPress.org
  • DeutschDeutsch
  • NederlandsNederlands
  • SvenskaSvenska
  • DanskDansk
  • EspañolEspañol
  • FrançaisFrançais
  • PortuguêsPortuguês
  • ItalianoItaliano
  • RomânăRomână
  • PolskiPolski
  • ČeštinaČeština
  • MagyarMagyar
  • SuomiSuomi
  • 日本語日本語

Copyright Trend Repository 2022 | Tema da ThemeinProgress | Offerto orgogliosamente da WordPress