Ce este regresia liniară regularizată?
Ce este regresia liniară regularizată?

Video: Ce este regresia liniară regularizată?

Video: Ce este regresia liniară regularizată?
Video: Regularization Part 1: Ridge (L2) Regression 2024, Noiembrie
Anonim

Regularizare . Aceasta este o formă de regresie , care constrânge/regularizează sau micșorează estimările coeficienților spre zero. Cu alte cuvinte, această tehnică descurajează o învățare mai complexă sau mai flexibilă model , astfel încât să se evite riscul supraajustării. O relatie simpla pentru regresie liniara arata asa.

În mod corespunzător, ce este lambda în regresia liniară?

Când avem un grad înalt liniar polinom care este folosit pentru a potrivi o mulțime de puncte în a regresie liniara setare, pentru a preveni supraadaptarea, folosim regularizarea și includem a lambda parametru în funcția de cost. Acest lambda este apoi folosit pentru a actualiza parametrii theta din algoritmul de coborâre a gradientului.

În al doilea rând, care este scopul regularizării? Regularizare este o tehnică folosită pentru reglarea funcţie prin adăugarea unui termen suplimentar de penalizare în eroare funcţie . Termenul suplimentar controlează fluctuația excesivă funcţie astfel încât coeficienții să nu ia valori extreme.

În acest fel, de ce trebuie să ne regularizăm în regresie?

Scopul de regularizare este de a evita supraadaptarea, cu alte cuvinte noi încearcă să evite modelele care se potrivesc extrem de bine la datele de antrenament (date folosite pentru a construi modelul), dar care se potrivesc slab la datele de testare (date folosite pentru a testa cât de bun este modelul). Acest lucru este cunoscut sub numele de supraajustare.

Ce înseamnă regularizare?

În matematică, statistică și informatică, în special în învățarea automată și probleme inverse, regularizarea este procesul de adăugare a informațiilor pentru a rezolva o problemă prost pusă sau pentru a preveni supraadaptarea. Regularizare se aplică funcțiilor obiective în probleme de optimizare prost puse.

Recomandat: