Avalduse CREATE MODEL eesmärk rakenduses BigQuery ML on luua masinõppemudel, kasutades Google Cloudi BigQuery platvormi standardset SQL-i. See avaldus võimaldab kasutajatel koolitada ja juurutada masinõppemudeleid, ilma et oleks vaja keerukat kodeerimist või väliseid tööriistu.
Lause CREATE MODEL kasutamisel saavad kasutajad määrata loodava mudeli tüübi, näiteks lineaarne regressioon, logistiline regressioon, k-keskmiste klasterdamine või sügavad närvivõrgud. See paindlikkus võimaldab kasutajatel valida nende konkreetse kasutusjuhtumi jaoks kõige sobivama mudeli.
CREATE MODEL avaldus võimaldab kasutajatel määrata ka sisendandmed mudeli koolitamiseks. Seda saab teha, määrates BigQuery tabeli, mis sisaldab koolitusandmeid, samuti mudelis kasutatavaid funktsioone ja silte. Funktsioonid on sisendmuutujad, mida mudel prognooside tegemiseks kasutab, samas kui sildid on sihtmuutujad, mida mudel püüab ennustada.
Kui mudel on loodud, saavad kasutajad seda treenida, käivitades käsu CREATE MODEL. Koolitusprotsessi käigus õpib mudel sisendandmetest ja kohandab oma sisemisi parameetreid, et minimeerida erinevust prognoositud väljundite ja tegelike siltide vahel. Koolitusprotsess kordab tavaliselt andmeid mitu korda, et mudeli täpsust parandada.
Pärast treenimist saab mudelit kasutada prognooside tegemiseks, kasutades BigQuery funktsiooni ML.PREDICT. See funktsioon võtab parameetritena treenitud mudeli ja uued sisendandmed ning tagastab prognoositud väljundid, mis põhinevad koolitusandmetest õpitud mustritel.
Avalduse CREATE MODEL eesmärk rakenduses BigQuery ML on luua ja koolitada masinõppemudeleid, kasutades Google Cloudi BigQuery platvormi standardset SQL-i. See avaldus pakub kasutajasõbralikku ja tõhusat viisi masinõppe võimaluste kasutamiseks ilma väliste tööriistade või ulatusliku kodeerimise vajaduseta.
Muud hiljutised küsimused ja vastused selle kohta Masinõppes edasijõudmine:
- Mil määral lihtsustab Kubeflow tegelikult masinõppe töövoogude haldamist Kuberneteses, arvestades selle paigaldamise, hoolduse ja multidistsiplinaarsete meeskondade õppimiskõvera lisandlikku keerukust?
- Kuidas saab Colabi ekspert optimeerida vaba GPU/TPU kasutamist, hallata andmete püsivust ja seanssidevahelisi sõltuvusi ning tagada reprodutseeritavuse ja koostöö suuremahulistes andmeteaduse projektides?
- Kuidas mõjutavad lähte- ja sihtandmestike sarnasus koos regulariseerimistehnikate ja õppekiiruse valikuga TensorFlow Hubi kaudu rakendatud ülekandeõppe efektiivsust?
- Kuidas erineb tunnuste eraldamise lähenemisviis TensorFlow Hubi abil toimuva ülekandeõppe peenhäälestamisest ja millistes olukordades on kumbki neist mugavam?
- Mida te mõistate siirdeõppe all ja kuidas see teie arvates on seotud TensorFlow Hubi pakutavate eelkoolitatud mudelitega?
- Kui teie sülearvutil kulub mudeli treenimiseks tunde, kuidas saaksite kasutada virtuaalmasinat koos GPU ja JupyterLabiga, et protsessi kiirendada ja sõltuvusi korraldada ilma keskkonda rikkumata?
- Kui ma juba kasutan märkmikke lokaalselt, miks peaksin JupyterLabi kasutama virtuaalmasinas GPU-ga? Kuidas hallata sõltuvusi (pip/conda), andmeid ja õigusi ilma keskkonda rikkumata?
- Kas keegi, kellel pole Pythoni kogemust ja kellel on tehisintellekti põhiteadmised, saab kasutada TensorFlow.js-i Kerasest konverteeritud mudeli laadimiseks, model.json-faili ja shardide tõlgendamiseks ning interaktiivsete reaalajas ennustuste tagamiseks brauseris?
- Kuidas saab tehisintellekti ekspert, aga programmeerimises algaja, TensorFlow.js-i ära kasutada?
- Milline on AutoML Visioniga kohandatud piltide klassifitseerimismudeli ettevalmistamise ja treenimise täielik töövoog alates andmete kogumisest kuni mudeli juurutamiseni?
Vaadake rohkem küsimusi ja vastuseid jaotisest Masinõppes edasijõudmine

