Čo je skreslená odchýlka v strojovom učení?



Tento článok sa venuje konceptu skreslenia a odchýlky v strojovom učení so vzťahom medzi nimi, ktorý určuje prediktívnu presnosť modelu.

V , výkon modelu je založený na jeho predpovediach a na tom, ako dobre sa generalizuje smerom k neviditeľným, nezávislým údajom. Jedným zo spôsobov, ako merať presnosť modelu, je sledovanie predpojatosti a odchýlok v modeli. V tomto článku sa dozvieme, ako má bias-variance dôležitú úlohu pri určovaní autenticity modelu. V tomto článku sa zaoberáme nasledujúcimi témami:

Neredukovateľná chyba

Akýkoľvek model v sa hodnotí na základe chyby predikcie na novom nezávislom, nevidenom súbore údajov. Chyba nie je nič iné ako rozdiel medzi skutočným a predpovedaným výstupom. Na výpočet chyby urobíme súčet redukovateľnej a neredukovateľnej chyby alias rozklad bias-variance.





Nevratná chyba nie je nič iné ako tie chyby, ktoré sa nedajú znížiť bez ohľadu na akékoľvek ktoré používate v modeli. Je to spôsobené neobvyklými premennými, ktoré majú priamy vplyv na výstupnú premennú. Aby bol váš model efektívny, zostáva nám redukovateľná chyba, ktorú musíme za každú cenu optimalizovať.

Redukovateľná chyba má dve zložky - Predpojatosť a odchýlka , prítomnosť odchýlky a odchýlky ovplyvňujú presnosť modelu niekoľkými spôsobmi, napríklad overfitting, underfitting , atď.Pozrime sa na zaujatosť a odchýlku, aby sme pochopili, ako zvládnuť redukovateľnú chybu v .



Čo je zaujatosť v strojovom učení?

Predpätie je v podstate to, ako ďaleko sme predpovedali hodnotu od skutočnej hodnoty. Hovoríme, že skreslenie je príliš vysoké, ak sú priemerné predpovede ďaleko od skutočných hodnôt.

Vysoká odchýlka spôsobí, že algoritmu bude chýbať dominantný vzor alebo vzťah medzi vstupnou a výstupnou premennou. Ak je predpätie príliš vysoké, predpokladá sa, že model je dosť jednoduchý a nezistí zložitosť množiny údajov na určenie vzťahu, a tedaspôsobuje nedostatočné vybavenie.

ako zobraziť pole v php

Rozdiel v modeli strojového učenia?

Na nezávislom, nevidenom súbore údajov alebo na súbore overovania. Ak model nefunguje tak dobre ako trénovaný súbor údajov, je možné, že model má odchýlku. V zásade hovorí, aké rozptýlené sú predpovedané hodnoty od skutočných hodnôt.



Vysoká odchýlka v množine údajov znamená, že model trénoval s veľkým množstvom šumu a nepodstatných údajov. To spôsobuje nadmerné vybavenie modelu. Ak má model veľkú odchýlku, stáva sa veľmi flexibilným a vytvára nesprávne predpovede pre nové údajové body. Pretože sa naladilo na dátové body tréningovej sady.

Pokúsme sa tiež matematicky porozumieť pojmu skreslená odchýlka. Premennou, ktorú predpovedáme, nech je Y a ostatnými nezávislými premennými bude X. Teraz predpokladajme, že existuje vzťah medzi týmito dvoma premennými, napríklad:

Y = f (X) + e

Vo vyššie uvedenej rovnici tu je je odhadovaná chyba so strednou hodnotou 0. Keď robíme klasifikátor pomocou algoritmov ako lineárna regresia , , atď., očakávaná štvorcová chyba v bode x bude:

err (x) = Bias2+ Variancia + neredukovateľná chyba

Pochopme tiež, ako Bias-variancia ovplyvní a Strojové učenie výkon modelu.

čo je daemon vlákno

Ako to ovplyvňuje model strojového učenia?

Vzťah medzi skreslením-odchýlkou ​​môžeme dať do štyroch kategórií uvedených nižšie:

  1. Vysoká odchýlka - vysoké skreslenie - model je nekonzistentný a v priemere tiež nepresný
  2. Nízka odchýlka - vysoká odchýlka - modely sú konzistentné, ale v priemere nízke
  3. Vysoká odchýlka - nízka odchýlka - trochu presná, ale v rozpore s priemermi
  4. Nízka odchýlka - nízka odchýlka - je to ideálny scenár, model je v priemere konzistentný a presný.

bias-variance v strojovom učení-edureka

Aj keď je zistenie odchýlky a odchýlky v modeli celkom zrejmé. Model s vysokou odchýlkou ​​bude mať malú tréningovú chybu a veľkú validačnú chybu. A v prípade vysokého skreslenia bude mať model veľkú chybu tréningu a chyba overenia je rovnaká ako chyba tréningu.

Aj keď sa detekcia zdá byť ľahká, skutočnou úlohou je znížiť ju na minimum. V takom prípade môžeme urobiť nasledovné:

  • Pridajte ďalšie vstupné funkcie
  • Väčšia zložitosť zavedením polynomických funkcií
  • Znížiť regularizačný termín
  • Získanie ďalších údajov o tréningu

Teraz, keď vieme, čo je skreslenie a odchýlka a ako to ovplyvňuje náš model, pozrime sa na kompromisnú odchýlku skreslenia.

Bias-Variance kompromis

Nájdenie správnej rovnováhy medzi odchýlkou ​​a rozptylom modelu sa nazýva kompromisná odchýlka. Je to v zásade spôsob, ako sa uistiť, že model v žiadnom prípade nie je preťažený ani poddimenzovaný.

Ak je model príliš jednoduchý a má veľmi málo parametrov, bude trpieť vysokou odchýlkou ​​a nízkou odchýlkou. Na druhej strane, ak má model veľké množstvo parametrov, bude mať vysokú odchýlku a malú odchýlku. Výsledkom tohto kompromisu by mal byť dokonale vyvážený vzťah medzi nimi. V ideálnom prípade je cieľom každého modelu strojového učenia nízka odchýlka a malá odchýlka.

Celková chyba

V každom modeli strojového učenia slúži dobrá rovnováha medzi skreslením a odchýlkou ​​ako dokonalý scenár z hľadiska prediktívnej presnosti a zabránenia nadmernému vybavovaniu a úplnému vybavovaniu. Optimálna rovnováha medzi predpätím a rozptylom, pokiaľ ide o zložitosť algoritmu, zabezpečí, že model nebude nikdy nadmerne alebo nedostatočne vybavený.

Priemerná štvorcová chyba v štatistickom modeli sa považuje za súčet štvorcových odchýlok a odchýlok a odchýlok chýb. To všetko možno vložiť do celkovej chyby, kde máme v modeli zaujatosť, rozptyl a neredukovateľnú chybu.

Poďme pochopiť, ako môžeme znížiť celkovú chybu pomocou praktickej implementácie.

Vytvorili sme a klasifikátor lineárnej regresie v Lineárna regresia v strojovom učení článok o spoločnosti Edureka využívajúcej súbor údajov o cukrovke v module súborov údajov z scikit učiť sa knižnica.

Keď sme vyhodnotili strednú štvorcovú chybu klasifikátora, dostali sme celkovú chybu okolo 2 500.

Aby sme znížili celkovú chybu, priviedli sme do klasifikátora viac údajov a na oplátku bola stredná štvorcová chyba znížená na 2000.

Jedná sa o jednoduchú implementáciu zníženia celkovej chyby zavedením ďalších tréningových údajov do modelu. Podobne môžeme použiť ďalšie techniky na zníženie chyby a udržanie rovnováhy medzi zaujatosťou a rozptylom pre efektívny model strojového učenia.

Týmto sa dostávame na koniec tohto článku, kde sme sa v Machovi naučili Bias-Varianceine Learning s jeho implementáciou a prípadom použitia. Dúfam, že máte prehľad o všetkom, čo bolo s vami zdieľané v tomto tutoriále.

mysql_fetch_array

Ak sa vám tento článok o „Bias-variancii v strojovom učení“ stal relevantným, pozrite si dôveryhodná online vzdelávacia spoločnosť so sieťou viac ako 250 000 spokojných študentov rozmiestnených po celom svete.

Sme tu, aby sme vám pomohli na každom kroku na vašej ceste a prišli s učebným plánom, ktorý je určený pre študentov a profesionálov, ktorí chcú byť . Kurz je navrhnutý tak, aby vám dal náskok v programovaní v Pythone a naučil vás základné aj pokročilé koncepty Pythonu spolu s rôznymi Páči sa mi to , , atď.

Ak narazíte na akékoľvek otázky, neváhajte sa ich opýtať v sekcii komentárov „Bias-Variance In Machine Learning“ a náš tím vám rád odpovie.