Վարիացիոն ինքնակոդավորիչի հիմնական սխեման։ Մոդելը մուտքին ստանում է ։ Կոդավորիչը սեղմում է այն լատենտ տարածության մեջ։ Ապակոդավորիչը լատենտ տարածությունից ստանում է նմուշառված տեղեկատվությունը և արտադրում է , որքան հնարավոր է նման -ին։
Վարիացիոն ինքնակոդավորիչ
Խոր ուսուցման գեներատիվ մոդել՝ տվյալների ներկայացումը կոդավորելու համար
Բացի ինքնակոդավորիչ նեյրոնային ցանցի կառուցվածք դիտարկվելուց, վարիացիոն ինքնակոդավորիչները կարող են ուսումնասիրվել նաև բայեսյան վարիացիոն մեթոդների մաթեմատիկական ձևակերպման շրջանակներում՝ միացնելով նեյրոնային կոդավորիչի ցանցն իր ապակոդավորիչին հավանական լատենտ տարածության միջոցով (օրինակ՝ որպես բազմաչափ Գաուսի բաշխում) որը համապատասխանում է վարիացիոն բաշխման պարամետրերին։
Այսպիսով, կոդավորիչը մեծ համալիր տվյալներից յուրաքանչյուր կետը (օրինակ՝ պատկերը) բաշխում է լատենտ տարածության մեջ, այլ ոչ թե այդ տարածության մեկ կետի: Ապակոդավորիչն ունի հակառակ գործառույթը, այն է՝ լատենտ տարածությունից արտապատկերել մուտքային տարածություն՝ կրկին ըստ բաշխման (չնայած գործնականում վերծանման փուլում աղմուկը հազվադեպ է ավելացվում)։ Մեկ կետի փոխարեն բաշխման վրա արտապատկերելով՝ ցանցը կարող է խուսափել վերապատրաստման տվյալների վերաուսուցումից: Երկու ցանցերն էլ սովորաբար վերապատրաստվում են վերապարամետրացման հնարքի կիրառման հետ մեկտեղ, թեև աղմուկի մոդելի տարբերությունը կարելի է սովորել առանձին:
Չնայած մոդելի այս տեսակն ի սկզբանե նախատեսված էր չվերահսկվող ուսուցման համար,[3][4] դրա արդյունավետությունն ապացուցված է կիսավերահսկվող ուսուցման[5][6] և վերահսկվող ուսուցման համար։[7]
↑Dilokthanakul, Nat; Mediano, Pedro A. M.; Garnelo, Marta; Lee, Matthew C. H.; Salimbeni, Hugh; Arulkumaran, Kai; Shanahan, Murray (2017-01-13). «Deep Unsupervised Clustering with Gaussian Mixture Variational Autoencoders». arXiv:1611.02648 [cs.LG].