Programavimas

Pusiau prižiūrimas mokymasis paaiškintas

2017 m. „Amazon“ akcininkų laiške Jeffas Bezosas parašė kažką įdomaus apie „Alexa“, „Amazon“ valdomą intelektualųjį padėjėją:

JAV, JK ir Vokietijoje Alexa šnekamosios kalbos supratimą per pastaruosius 12 mėnesių pagerinome daugiau nei 25%, tobulindami „Alexa“ mašininio mokymosi komponentus ir naudodami pusiau prižiūrimas mokymosi technikas. (Šie pusiau prižiūrimi mokymosi metodai 40 kartų sumažino pažymėtų duomenų kiekį, reikalingą tam pačiam tikslumui pagerinti!)

Atsižvelgiant į šiuos rezultatus, gali būti įdomu išbandyti pusiau prižiūrimą mokymąsi dėl mūsų pačių klasifikavimo problemų. Bet kas yra pusiau prižiūrimas mokymasis? Kokie yra jo pranašumai ir trūkumai? Kaip mes galime jį naudoti?

Kas yra pusiau prižiūrimas mokymasis?

Kaip galima tikėtis iš pavadinimo, pusiau prižiūrimas mokymasis yra tarpinis tarp prižiūrimo ir neprižiūrimo mokymosi. Prižiūrimas mokymasis pradedamas nuo mokymo duomenų, pažymėtų teisingais atsakymais (tikslinėmis vertėmis). Po mokymosi proceso jūs pasirinksite modelį su suderintu svorių rinkiniu, kuris gali numatyti atsakymus į panašius duomenis, kurie dar nebuvo pažymėti.

Pusiau prižiūrimi mokymai naudoja tiek pažymėtus, tiek nepažymėtus duomenis, kad atitiktų modelį. Kai kuriais atvejais, pavyzdžiui, „Alexa“, pridedant nepažymėtus duomenis, iš tikrųjų pagerėja modelio tikslumas. Kitais atvejais nepažymėti duomenys gali pabloginti modelį; skirtingi algoritmai turi pažeidžiamumą dėl skirtingų duomenų charakteristikų, kaip aš aptarsiu toliau.

Apskritai duomenų žymėjimas kainuoja pinigus ir užtrunka. Taip nėra visada problema, nes kai kuriuose duomenų rinkiniuose jau yra žymos. Bet jei turite daug duomenų, tik kai kurie iš jų yra pažymėti, tada pusiau prižiūrimas mokymasis yra gera technika, kurią reikia išbandyti.

Pusiau prižiūrimi mokymosi algoritmai

Pusiau prižiūrimas mokymasis trunka mažiausiai 15 metų, galbūt ir daugiau; Jerry Zhu iš Viskonsino universiteto 2005 m. Parašė literatūros apžvalgą. Pusiau prižiūrimas mokymasis pastaraisiais metais atgimė ne tik „Amazon“, nes tai sumažina klaidų lygį pagal svarbius kriterijus.

Sebastianas Ruderis iš „DeepMind“ 2018 m. Balandžio mėn. Parašė tinklaraščio įrašą apie kai kuriuos pusiau prižiūrimus mokymosi algoritmus, tuos, kurie kuria tarpines etiketes. Tai apima mokymąsi savarankiškai, mokymąsi iš vienos pusės ir savarankišką mokymąsi.

Savarankiškas mokymas naudoja paties modelio prognozes, susijusias su etiketėmis nenurodytais duomenimis, kad būtų galima pridėti prie pažymėtų duomenų rinkinio. Iš esmės nustatote tam tikrą prognozės patikimumo lygio slenkstį, dažnai 0,5 ar didesnę, kurią viršijus tikite prognoze ir įtraukiate ją į pažymėtą duomenų rinkinį. Jūs mokote modelį tol, kol nebeliks patikimų prognozių.

Dėl to kyla klausimas apie faktinį modelį, kuris bus naudojamas mokymams. Kaip ir daugumoje mašininio mokymosi, tikriausiai norite išbandyti kiekvieną pagrįstą kandidato modelį, tikėdamiesi rasti gerai veikiantį modelį.

Savarankiškos treniruotės sulaukė nevienodo pasisekimo. Didžiausias trūkumas yra tas, kad modelis nesugeba ištaisyti savo klaidų: viena labai pasitikinti (bet neteisinga) prognozė, tarkime, neįvykdžius, gali sugadinti visą modelį.

„Multi-view“ mokymas treniruoja skirtingus modelius skirtingais duomenų vaizdais, kurie gali apimti skirtingus funkcijų rinkinius, skirtingą modelio architektūrą ar skirtingus duomenų pogrupius. Yra daugybė kelių vaizdų treniruočių algoritmų, tačiau vienas žinomiausių yra trijų treniruočių. Iš esmės kuriate tris skirtingus modelius; kiekvieną kartą, kai du modeliai susitaria dėl duomenų taško etiketės, ta etiketė pridedama prie trečiojo modelio. Kaip ir savišvietos atveju, sustojate, kai daugiau etikečių nėra pridedama nė viename iš modelių.

Savarankiškai montuojant naudojamas vienas modelis su keliomis skirtingomis konfigūracijomis. Taikant kopėčių tinklo metodą, švaraus pavyzdžio prognozavimas naudojamas kaip atsitiktinai sutrikusio pavyzdžio tarpinė etiketė, siekiant sukurti triukšmui atsparias savybes.

Jerry Zhu 2007 m. Pamokoje taip pat atsižvelgiama į daugybę kitų algoritmų. Tai apima generacinius modelius (tokius, kurie prisiima Gauso skirstinį kiekvienai klasei), pusiau prižiūrimus palaikomųjų vektorių aparatus ir grafikais pagrįstus algoritmus.

Pusiau prižiūrimas mokymasis debesyje

Pusiau prižiūrimas mokymasis pamažu pereina į pagrindines mašininio mokymosi paslaugas. Pavyzdžiui, „Amazon SageMaker Ground Truth“ naudoja „Amazon Mechanical Turk“ rankiniam atvaizdų rinkinio žymėjimui ir ribų nustatymui, o likusiam vaizdų rinkiniui paženklinti naudoja neuroninio tinklo mokymą.

Panašios pusiau prižiūrimos mokymosi schemos gali būti naudojamos ir kitokiam pusiau prižiūrimam mokymui, įskaitant natūralios kalbos apdorojimą, klasifikavimą ir kelių paslaugų regresiją. Tačiau daugumoje jų turėsite parašyti savo pusiau prižiūrimo algoritmo klijų kodą.

Skaitykite daugiau apie mašininį mokymąsi:

  • Mašininis mokymasis paaiškintas
  • Gilus mokymasis paaiškintas
  • Natūralios kalbos apdorojimas paaiškintas
  • Paaiškintas vadovaujamas mokymasis
  • Neprižiūrimas mokymasis paaiškintas
  • Pusiau prižiūrimas mokymasis paaiškintas
  • Išaiškintas mokymasis apie sustiprinimą
  • Automatinis mašininis mokymasis arba „AutoML“ paaiškinimas
  • Dirbtinis intelektas, mašininis mokymasis ir gilus mokymasis: viskas, ką reikia žinoti
  • Geriausios mašininio mokymosi ir gilaus mokymosi sistemos
  • 6 būdai, kaip padaryti mašininį mokymąsi nesėkmingą
  • Mašinų mokymosi pamokos: 5 įmonės dalijasi klaidomis
  • Geriausia atvirojo kodo programinė įranga, skirta mokytis mašinoje
  • 5 geriausios AI kalbos kūrimo programavimo kalbos
$config[zx-auto] not found$config[zx-overlay] not found