Peidetud üksuste argument sügavates närvivõrkudes mängib võrgu suuruse ja kuju kohandamisel otsustavat rolli. Sügavad närvivõrgud koosnevad mitmest kihist, millest igaüks koosneb varjatud üksuste komplektist. Need peidetud üksused vastutavad sisend- ja väljundandmete vaheliste keerukate suhete hõivamise ja esitamise eest.
Et mõista, kuidas peidetud üksuste argument võimaldab kohandamist, peame süvenema sügavate närvivõrkude struktuuri ja toimimisse. Tüüpilises sügavas närvivõrgus võtab sisendkiht vastu toores sisendandmed, mis seejärel lastakse enne väljundkihti jõudmist läbi rea peidetud kihte. Iga peidetud kiht koosneb mitmest peidetud üksusest ja need üksused on ühendatud eelmise ja järgnevate kihtide üksustega.
Peidetud üksuste arvu igas kihis ja ka võrgu kihtide arvu saab kohandada vastavalt konkreetsele probleemile. Peidetud üksuste arvu suurendamine kihis võimaldab võrgul püüda andmetes keerukamaid mustreid ja seoseid. See võib olla eriti kasulik suurte ja keerukate andmekogumite käsitlemisel.
Lisaks saab võrgu kuju kohandada ka kihtide arvu reguleerimisega. Võrku rohkemate kihtide lisamine võimaldab tal õppida andmete hierarhilisi esitusi, kus iga kiht jäädvustab erinevaid abstraktsioonitasemeid. See hierarhiline esitus võib olla kasulik selliste ülesannete puhul nagu pildituvastus, kus objekte saab kirjeldada madala taseme tunnuste (nt servad) ja kõrgetasemeliste mõistete (nt kujundid) kombinatsiooniga.
Näiteks kaaluge sügavat närvivõrku, mida kasutatakse kujutiste klassifitseerimiseks. Sisendkiht võtab vastu pildi piksliväärtused ja järgnevad peidetud kihid hõivavad järjest keerukamaid mustreid, nagu servad, tekstuurid ja kujundid. Viimane peidetud kiht ühendab need mustrid, et teha ennustus pildi klassi kohta. Peidetud üksuste ja kihtide arvu kohandamisega saame juhtida võrgu võimekust jäädvustada piltidel erinevat detailsuse ja keerukuse tasandit.
Lisaks suuruse ja kuju kohandamisele võimaldab peidetud ühikute argument kohandada ka aktiveerimisfunktsioone. Aktiveerimisfunktsioonid määravad peidetud üksuse väljundi selle sisendi põhjal. Erinevaid aktiveerimisfunktsioone saab kasutada mittelineaarsuse sisestamiseks võrku, võimaldades sellel õppida ja esitada andmetes keerulisi seoseid. Levinud aktiveerimisfunktsioonid hõlmavad sigmoid-, tanh- ja rektifitseeritud lineaarset ühikut (ReLU).
Peidetud ühikute argument sügavates närvivõrkudes pakub paindlikkust võrgu suuruse ja kuju kohandamisel. Reguleerides peidetud üksuste ja kihtide arvu ning aktiveerimisfunktsioonide valikut, saame kohandada võrgu suutlikkust andmete aluseks olevate mustrite ja seoste hõivamiseks ja esitamiseks.
Muud hiljutised küsimused ja vastused selle kohta Sügavad närvivõrgud ja hindajad:
- Kas süvaõpet saab tõlgendada kui sügaval närvivõrgul (DNN) põhineva mudeli määratlemist ja koolitamist?
- Kas Google'i TensorFlow raamistik võimaldab masinõppe mudelite arendamisel tõsta abstraktsioonitaset (nt kodeerimise asendamisel konfiguratsiooniga)?
- Kas on õige, et kui andmestik on suur, on vaja vähem hindamist, mis tähendab, et hindamiseks kasutatava andmestiku osa saab andmestiku suurendamisega vähendada?
- Kas kihtide arvu ja sõlmede arvu üksikutes kihtides saab hõlpsasti kontrollida (lisades ja eemaldades), muutes sügava närvivõrgu (DNN) peidetud argumendina esitatud massiivi?
- Kuidas ära tunda, et mudel on ülekomplekteeritud?
- Mis on närvivõrgud ja sügavad närvivõrgud?
- Miks nimetatakse sügavaid närvivõrke sügavaks?
- Millised on DNN-i sõlmede lisamise eelised ja puudused?
- Mis on kaduva gradiendi probleem?
- Millised on sügavate närvivõrkude kasutamise puudused võrreldes lineaarsete mudelitega?
Vaadake rohkem küsimusi ja vastuseid sügavates närvivõrkudes ja hinnangutes