Jump to content

Ինքնակոդավորիչ

Վիքիպեդիայից՝ ազատ հանրագիտարանից
Ինքնակոդավորիչ
Նեյրոնային ցանց, որը սովորում է տվյալների արդյունավետ կոդավորում չվերահսկվող ուսուցման մեջ Խմբագրել Wikidata
ԵնթակատեգորիաԱրհեստական ​​նեյրոնային ցանց Խմբագրել Wikidata
ԿիրառությունըՏվյալների սեղմում, lossy compression Խմբագրել Wikidata
Թեմայով վերաբերում էunsupervised learning, Խոր ուսուցում Խմբագրել Wikidata

Ինքնակոդավորիչ արհեստական ​​նեյրոնային ցանցի մի տեսակ, որն օգտագործվում է չպիտակավորված տվյալների արդյունավետ կոդավորումը սովորելու համար (չվերահսկվող ուսուցում)[1][2]։ Ինքնակոդավորիչը սովորում է երկու ֆունկցիա՝ կոդավորման ֆունկցիա, որը փոխակերպում է մուտքային տվյալները, և ապակոդավորման ֆունկցիա, որը վերստեղծում է մուտքային տվյալները կոդավորված ներկայացումից: Ինքնակոդավորիչը սովորում է արդյունավետ ներկայացում (կոդավորում) տվյալների շարքի համար, որպես կանոն, չափականության կրճատման համար, որպեսզի ստեղծի ավելի ցածր չափականության ներկառուցումներ՝ մեքենայական ուսուցման այլ ալգորիթմների կողմից հետագա օգտագործման համար[3]։

Կան տարբերակներ, որոնք ուղղված են ստիպելու սովորած ներկայացումներն ընդունել որպես օգտակար հատկություններ։ Դրանց օրինակներ են կանոնավորացված ինքնակոդավորիչները (Sparse, Denoising and Contractive), որոնք արդյունավետ են հետագա դասակարգման առաջադրանքների համար ներկայացումներ սովորելիս, և Վարիացիոն ինքնակոդավորիչները, որոնք կիրառվում են որպես գեներատիվ մոդելներ[4]։ Ավտոկոդավորիչները կիրառվում են բազմաթիվ խնդիրների, այդ թվում՝ դեմքի ճանաչման[5], առանձնահատկությունների հայտնաբերման[6], անոմալիաների հայտնաբերման և բառերի իմաստի ուսումնասիրման համար[7][8]։ Ավտոկոդավորիչները նաև գեներատիվ մոդելներ են, որոնք կարող են պատահականորեն ստեղծել նոր տվյալներ, որոնք նման են մուտքային տվյալներին (սովորեցնող տվյալներ)[6]։

Մաթեմատիկական սկզբունքներ

[խմբագրել | խմբագրել կոդը]

Ավտոկոդավորիչը սահմանվում է հետևյալ բաղադրիչներով.

Երկու բազմություն․ վերծանված հաղորդագրությունների տարածություն , կոդավորված հաղորդագրությունների տարածություն ։ Typic and aՈրպես կանոն և -ը էվկլիդյան տարածություններ են, այսինքն. with

Ֆունկցիաների երկու պարամետրիզացված ընտանիքներ․ կոդավորիչների ընտանիքը․ , պարամետրիզացված ըստ ; ապակոդավորիչների ընտանիքը , պարամետրիզացված ըստ .

Ցանկացած -ի համար, մենք սովորաբար գրում ենք , և հղվում դրան որպես կոդ, լատենտ փոփոխական, լատենտ ներկայացում, լատենտ վեկտոր և այլն: Ընդհակառակը, ցանկացած -ի համար, մենք սովորաբար գրում ենք , և նշում այն որպես (վերծանված) հաղորդագրություն:

Սովորաբար, և՛ կոդավորիչը, և՛ ապակոդավորիչը սահմանվում են որպես բազմաշերտ պերցեպտրոններ (MLP): Օրինակ, -ն միաշերտ MLP կոդավորիչ է․

որտեղ -ն տարրական ակտիվացման ֆունկցիա է, -ը «կշիռ» մատրիցա է, և -ը «bias» վեկտոր է:

Ավտոկոդավորչի ուսուցում

[խմբագրել | խմբագրել կոդը]

Ինքնակոդավորիչը բաղկացած է երկու ֆունկցիաներից։ Դրա որակը դատելու համար մեզ խնդիր է անհրաժեշտ։ Առաջադրանքը որոշվում է հավանականությունների բաշխմամբ -ի նկատմամբ, և «վերակառուցման որակի» ֆունկցիայով, այնպես որ չափում է, թե որքան է տարբերվում -ից։

Դրանց օգնությամբ մենք կարող ենք որոշել ավտոկոդավորիչի կորստի ֆունկցիան՝ առաջադրանքի օպտիմալ ինքնակոդավորիչը -ն է։ Օպտիմալ ինքնակոդավորիչի որոնումը կարող է իրականացվել մաթեմատիկական օպտիմալացման ցանկացած մեթոդի միջոցով, բայց սովորաբար գրադիենտ ծագում: Որոնման այս գործընթացը կոչվում է «ավտո կոդավորչի ուսուցում»։

Շատ դեպքերում էտալոն բաշխումը տվյալների հավաքածուով տրված էմպիրիկ բաշխում է, , այնպես որ

որտեղ is the Dirac ճափում է, որակի ֆունկցիան պարզապես L2 , and կորուստը էվկլիդյան նորմ է։ Ուստի օպտիմալ ինքնակոդավորիչ փնտրելու խնդիրը բերվում է նվազագույն քառակուսիներ օպտիմալացմանը․

Մեկնաբանություն

[խմբագրել | խմբագրել կոդը]
Հիմնական ավտոկոդավորչի սխեման

Ավտոկոդավորիչն ունի երկու հիմնական մաս՝ կոդավորիչ, որը հաղորդագրությունը համապատասխանեցնում է կոդի, և ապակոդավորիչ, որը կոդից վերակառուցում է հաղորդագրությունը: Оптимальный автокодировщик будет выполнять реконструкцию, максимально близкую к идеальной, с «близостью к идеальной», определяемой функцией качества реконструкции Օպտիմալ ինքնակոդավորիչը կատարյալին հնարավորինս մոտ վերակառուցում կկատարի։ «Կատարյալին մոտ» որոշվում է վերակառուցման որակի ֆունկցիայով։

Պատճենման խնդրի իրականացման պարզագույն ազդանշանի կրկնումն է։ Այդ վարքագիծը բացառելու համար, կոդի տարածության չափականությունը սովորաբար ավելի ցածր է, քան հաղորդագրությունների տարածությունը։

Նման ինքնակոդավորիչը կոչվում է թերլրացված: Այն կարող է մեկնաբանվել որպես տվյալների սեղմում կամ դրա չափականության նվազեցում։[1][9]

Իդեալական թերի ինքնակոդավորչի սահմանն է կոդերի տարածության բոլոր հնարավոր ծածկագրերը օգտագործվում են հաղորդագրությունը կոդավորելու համար, որն իսկապես հայտնվում է բաշխման մեջ, և ապակոդավորիչը նույնպես կատարյալ է․ ։ Այս իդեալական ինքնակոդավորիչը կարող է այնուհետև օգտագործվել իրական հաղորդագրություններից չտարբերվող հաղորդագրություններ ստեղծելու համար՝ ապակոդավորիչի մուտքին կամայական կոդ տալով և հաղորդագրություն ստանալով, որը հաղորդագրություն է. իսկապես հայտնվում է։

Եթե ծածկագրի տարածքի չափականությունն ավելի մեծ (overcomplete) կամ հավասար է հաղորդագրությունների տարածության չափականությանը, կամ թաքնված միավորներին բավականաչափ հզորություն է տրված, ապա ինքնակոդավորիչը կարող է սովորել նույնական ֆունկցիան և դառնալ անօգուտ: Այնուամենայնիվ, փորձերի արդյունքները պարզել են, որ չափազանց ամբողջական ինքնակոդավորիչները կարող են դեռ օգտակար հատկություններ սովորել։[10]

Իդեալական կարգավորման դեպքում կոդի չափը և մոդելի հզորությունը կարող են սահմանվել՝ հիմնվելով մոդելավորվող տվյալների բաշխման բարդության վրա: Դա անելու ստանդարտ եղանակ է հիմնական ինքնակոդավորիչում փոփոխություններ ավելացնելը, որը մանրամասն կներկայացվի ստորև։[11]

Ավտոկոդավորիչն առաջին անգամ առաջարկվել է Կրամերի կողմից, որպես հիմնական բաղադրիչների վերլուծության (PCA) ոչ գծային ընդհանրացում:[1] Ավտոկոդավորիչը նաև կոչվում է ավտոասոցիատոր,[12] կամ Diabolo ցանց։[13][10] Դրա առաջին կիրառությունները թվագրվում են 1990-ականների սկզբին։[11][14][15] Դրանց առավել ավանդական կիրառումը չափումների կրճատումն էր կամ հատկանիշների ուսուցումը, սակայն հայեցակարգը սկսեց լայնորեն կիրառվել տվյալների գեներատիվ մոդելներ սովորելու համար։[16][17] 2010-ականների ամենահզոր ԱԻ-ներից մի քանիսը ներառում էին ինքնակոդավորիչներ, որոնք ներկառուցված էին խորը նեյրոնային ցանցերում։[18]

Կանոնավորվող ինքնակոդավորիչներ

[խմբագրել | խմբագրել կոդը]

Գոյություն ունեն տարբեր տեխնիկաներ՝ կանխելու ինքնակոդավորիչներին սովորելու նույնական ֆունկցիան և բարելավելու նրանց կարողությունը՝ վերցնել կարևոր տեղեկատվություն և սովորել ավելի հարուստ ներկայացումներ։

Նոսր ինքնակոդավորիչ

[խմբագրել | խմբագրել կոդը]

Նոսր ինքնակոդավորիչները (SAE) ավտոկոդավորիչների տարբերակներ են, այնպիսին, որ հաղորդագրությունների կոդերը հակված են լինել «նոսր կոդեր», այսինքն՝ գրառումների մեծ մասում մոտ է զրոյի: Նոսր ինքնակոդավորիչները կարող են ներառել ավելի շատ թաքնված միավորներ, քան մուտքային, բայց թաքնված միավորների միայն փոքր թվով թաքնված միավորների փոքր է թույլատրվում միաժամանակ ակտիվ լինել։[18] Նոսրության խրախուսումը բարելավում է դասակարգման առաջադրանքների կատարողականը։[19]

Միաշերտ նոսր ինքնակոդավորիչի պարզ սխեմա: Վառ դեղին գույնի թաքնված հանգույցներն ակտիվ են, իսկ բաց դեղինները՝ ոչ ակտիվ: Ակտիվացումը կախված է մուտքից

Նոսրության ապահովման երկու հիմնական եղանակ գոյություն ունի։ Ճանապարհներից մեկը՝ լատենտ կոդի բոլոր ակտիվացումները, բացառությամբ ամենաբարձր-k-ի, պարզապես զրո դնելն է: Սա k-նոսր ավտոկոդավորիչն է։[20]

Մյուս ճանապարհը k-Նոսր ինքնակոդավորիչի հանգստացված տարբերակն է: Նոսրությունը պարտադրելու փոխարեն մենք ավելացնում ենք 'նոսրության կանոնավորացման կորուստ, այնուհետև օպտիմալացնում ենք որտեղ չափում է, թե որքան սակավություն ենք ուզում կիրառել։[21]

Աղմուկը նվազեցնող Ինքնակոդավորիչ

[խմբագրել | խմբագրել կոդը]

Աղմուկը նվազեցնող ինքնակոդավորիչները (DAE) փորձում են «լավ» ներկայացման հասնել՝ փոխելով «վերակառուցման չափանիշը»։[11][22]

DAE-ն, որն ի սկզբանե կոչվում էր «առողջ ավտոասոցիատիվ ցանց»,[2] վերապատրաստման ընթացքում մարզվում է ստանդարտ autoencoder-ի մուտքերը միտումնավոր փչացնելու միջոցով: վերապատրաստվում է վերապատրաստման ընթացքում ստանդարտ autoencoder-ի մուտքերը միտումնավոր փչացնելու միջոցով: Աղմուկի ֆունկցիան հավանականության բաշխմամբ ։ Այսինքն ֆունկցիան վերցնում է հաղորֆագրությունը, և այն շեղում է աղմկոտ տարբերակի։ ֆունկցիան ընտրվում է պատահականորեն հավանականության բաշխմամբ:

Կիրառություններ

[խմբագրել | խմբագրել կոդը]

Ավտոկոդավորիչների երկու հիմնական կիրառություններն են չափականության կրճատումը և տեղեկատվության վերհանումը,[11] սակայն ժամանակակից տարբերակները կիրառվել են այլ առաջադրանքների համար։

Չափականության կրճատում

[խմբագրել | խմբագրել կոդը]
Plot of the first two Principal Components (left) and a two-dimension hidden layer of a Linear Autoencoder (Right) applied to the Fashion MNIST dataset.[23] The two models being both linear learn to span the same subspace. The projection of the data points is indeed identical, apart from rotation of the subspace. While PCA selects a specific orientation up to reflections in the general case, the cost function of a simple autoencoder is invariant to rotations of the latent space.

Շափականության կրճատումը խորը ուսուցման առաջին կիրառություններից մեկն էր։ [11]

Չափականությունը ներկայացնելը կարող է բարելավել այնպիսի առաջադրանքների կատարումը, ինչպիսին դասակարգումն է: [11] Իրոք, չափականության կրճատման բնորոշ հատկանիշը, իմաստով առնչվող օրինակները միմյանց մոտ տեղադրելն է։[24]

Անոմալիայի հայտնաբերում

[խմբագրել | խմբագրել կոդը]

Ավտոկոդավորիչների մեկ այլ կիրառություն է անոմալիաների հայտնաբերումը։[2][25][26][27][28][29] Обучаясь воспроизводить наиболее существенные особенности в обучающих данных при некоторых ограничениях, описанных ранее, модель стремится научиться точно воспроизводить наиболее часто наблюдаемые характеристики.Սովորելով վերարտադրել ուսուցանող տվյալների ամենաէական հատկանիշները նախկինում նկարագրված որոշ սահմանափակումների ներքո, մոդելը ձգտում է սովորել ճշգրիտ վերարտադրել առավել հաճախ հանդիպող բնութագրերը: Անոմալիաների հետ հանդիպելիս մոդելը պետք է վատթարացնի իր վերակառուցման արդյունավետությունը: Շատ դեպքերում, միայն սովորական օրինակներով տվյալներն են օգտագործվում ավտոկոդավորիչին պատրաստելու համար. Մյուսներում, անոմալիաների հաճախականությունը փոքր է, այնպես որ դրա ազդեցությունը սովորած ներկայացման մեջ կարելի է անտեսել։ Դասընթացից հետո ավտոկոդավորիչը ճշգրտորեն կվերակազմի «նորմալ» տվյալները, մինչդեռ դա չի հաջողվում անել անծանոթ անոմալ տվյալների դեպքում։[27] Վերակառուցման սխալը (սխալը սկզբնական տվյալների և դրա ցածր չափականության վերակառուցման միջև) օգտագործվում է որպես անոմալիաների գնահատական՝ անոմալիաները հայտնաբերելու համար։[27]

Սակայն վերջերս հրատարակված գրականությունը ցույց է տվել, որ որոշ ինքնակոդավորման մոդելներ կարող են, հակառակ ինտուիցիային, անոմալ օրինակները վերակառուցելու մեջ շատ լավ լինել և, հետևաբարը։[30][31]

Պատկերի մշակում

[խմբագրել | խմբագրել կոդը]

Ավտոկոդավորիչների բնութագրերը օգտակար են պատկերների մշակման մեջ։

Օրինակներից մեկը կարելի է գտնել կորուստներով պատկերի սեղմման մեջ, որտեղ ինքնակոդավորիչները գերազանցում էին մյուս մոտեցումներին և մրցունակ էին JPEG 2000-ի դեմ։[32][33]

Ինքնակոդավորիչների մեկ այլ օգտակար կիրառություն պատկերների նախնական մշակման մեջ պատկերի աղմուկազերծումն է։[34][35][36]

Ավտոկոդավորիչներն օգտակար են ավելի պահանջկոտ համատեքստերում, ինչպիսիք են բժշկական պատկերների վիզուալիզացիան, որտեղ դրանք օգտագործվել են ինչպես պատկերների աղմուկազերծման[37] ինչպես նաև գերթողունակության համար։[38][39] Պատկերի օգնությամբ ախտորոշման ժամանակ ինքնակոդավորիչները կիրառվել են կրծքագեղձի քաղցկեղի հայտնաբերման[40] և Ալցհեյմերի հիվանդների մտավոր ունակությունների անկման և MRI-ով պատրաստված ավտոկոդավորիչի լատենտ հատկանիշների միջև կապը մոդելավորելու համար։[41]

Դեղամիջոցների հայտնաբերում

[խմբագրել | խմբագրել կոդը]

2019 թվականին վարիացիոն ինքնակոդավորիչներով ստեղծված մոլեկուլները փորձնականորեն ստուգվել են մկների վրա։[42][43]

Ժողովրդականության կանխատեսում

[խմբագրել | խմբագրել կոդը]

Վերջերս ավտոկոդավորիչի շրջանակը խոստումնալից արդյունքներ տվեց սոցիալական մեդիայի գրառումների ժողովրդականությունը կանխատեսելու հարցում,[44] ինչն օգտակար է առցանց գովազդային ռազմավարությունների համար։

Մեքենայական թարգմանություն

[խմբագրել | խմբագրել կոդը]

Ավտոկոդավորիչներ կիրառվել են մեքենայական թարգմանության մեջ, որը սովորաբար կոչվում է նեյրոնային մեքենայական թարգմանություն (NMT)։[45][46] Ի տարբերություն ավանդական ավտոկոդավորիչների, ելքը չի համընկնում մուտքագրման հետ, այն այլ լեզվով է: NMT-ում տեքստերը դիտվում են որպես հաջորդականություններ, որոնք պետք է կոդավորվեն ուսուցման ընթացակարգի մեջ, մինչդեռ ապակոդավորիչի կողմից ստեղծվում են թիրախային լեզվով (լեզուներով) հաջորդականություններ: Կոնկրետ լեզվի ինքնակոդավորիչները ուսուցման գործընթացում ներառում են լեզվական առանձնահատկություններ, այնպիսիք, ինչպիսիք են չինական կազմալուծման առանձնահատկությունները։[47] Մեքենայական թարգմանությունը դեռևս հազվադեպ է կատարվում ավտոկոդավորիչներով, ավելի արդյունավետ տրանսֆորմատորային ցանցերի առկայության պատճառով։

Ծանոթագրություններ

[խմբագրել | խմբագրել կոդը]
  1. 1,0 1,1 1,2 Kramer, Mark A. (1991). «Nonlinear principal component analysis using autoassociative neural networks» (PDF). AIChE Journal. 37 (2): 233–243. Bibcode:1991AIChE..37..233K. doi:10.1002/aic.690370209.
  2. 2,0 2,1 2,2 Kramer, M. A. (1992-04-01). «Autoassociative neural networks». Computers & Chemical Engineering. Neutral network applications in chemical engineering (անգլերեն). 16 (4): 313–328. doi:10.1016/0098-1354(92)80051-A. ISSN 0098-1354.
  3. Bank, Dor; Koenigstein, Noam; Giryes, Raja (2023). «Autoencoders». In Rokach, Lior; Maimon, Oded; Shmueli, Erez (eds.). Machine learning for data science handbook (անգլերեն). էջեր 353–374. doi:10.1007/978-3-031-24628-9_16.
  4. Welling, Max; Kingma, Diederik P. (2019). «An Introduction to Variational Autoencoders». Foundations and Trends in Machine Learning. 12 (4): 307–392. arXiv:1906.02691. Bibcode:2019arXiv190602691K. doi:10.1561/2200000056. S2CID 174802445.
  5. Hinton GE, Krizhevsky A, Wang SD. Transforming auto-encoders. In International Conference on Artificial Neural Networks 2011 Jun 14 (pp. 44-51). Springer, Berlin, Heidelberg.
  6. 6,0 6,1 Géron, Aurélien (2019). Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow. Canada: O’Reilly Media, Inc. էջեր 739–740.
  7. Liou, Cheng-Yuan; Huang, Jau-Chi; Yang, Wen-Chie (2008). «Modeling word perception using the Elman network». Neurocomputing. 71 (16–18): 3150. doi:10.1016/j.neucom.2008.04.030. Արխիվացված է օրիգինալից 2023-12-09-ին. Վերցված է 2024-09-27-ին.
  8. Liou, Cheng-Yuan; Cheng, Wei-Chen; Liou, Jiun-Wei; Liou, Daw-Ran (2014). «Autoencoder for words». Neurocomputing. 139: 84–96. doi:10.1016/j.neucom.2013.09.055.
  9. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ «
    7» անվանումով ref-երը տեքստ չեն պարունակում:
  10. 10,0 10,1 Bengio, Y. (2009). «Learning Deep Architectures for AI» (PDF). Foundations and Trends in Machine Learning. 2 (8): 1795–7. CiteSeerX 10.1.1.701.9550. doi:10.1561/2200000006. PMID 23946944. S2CID 207178999.
  11. 11,0 11,1 11,2 11,3 11,4 11,5 Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016). Deep Learning. MIT Press. ISBN 978-0262035613.
  12. Japkowicz, Nathalie; Hanson, Stephen José; Gluck, Mark A. (2000-03-01). «Nonlinear Autoassociation Is Not Equivalent to PCA». Neural Computation. 12 (3): 531–545. doi:10.1162/089976600300015691. ISSN 0899-7667. PMID 10769321. S2CID 18490972.
  13. Schwenk, Holger; Bengio, Yoshua (1997). «Training Methods for Adaptive Boosting of Neural Networks». Advances in Neural Information Processing Systems. MIT Press. 10.
  14. Schmidhuber, Jürgen (January 2015). «Deep learning in neural networks: An overview». Neural Networks. 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509.
  15. Hinton, G. E., & Zemel, R. S. (1994). Autoencoders, minimum description length and Helmholtz free energy. In Advances in neural information processing systems 6 (pp. 3-10).
  16. Diederik P Kingma; Welling, Max (2013). «Auto-Encoding Variational Bayes». arXiv:1312.6114 [stat.ML].
  17. Generating Faces with Torch, Boesen A., Larsen L. and Sonderby S.K., 2015 torch.ch/blog/2015/11/13/gan.html
  18. 18,0 18,1 Domingos, Pedro (2015). «4». The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Basic Books. "Deeper into the Brain" subsection. ISBN 978-046506192-1.
  19. Frey, Brendan; Makhzani, Alireza (2013-12-19). «k-Sparse Autoencoders». arXiv:1312.5663. Bibcode:2013arXiv1312.5663M. {{cite journal}}: Cite journal requires |journal= (օգնություն)
  20. Makhzani, Alireza; Frey, Brendan (2013). «K-Sparse Autoencoders». arXiv:1312.5663 [cs.LG].
  21. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ «
    6» անվանումով ref-երը տեքստ չեն պարունակում:
  22. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ «
    4» անվանումով ref-երը տեքստ չեն պարունակում:
  23. «Fashion MNIST». GitHub. 2019-07-12.
  24. Salakhutdinov, Ruslan; Hinton, Geoffrey (2009-07-01). «Semantic hashing». International Journal of Approximate Reasoning. Special Section on Graphical Models and Information Retrieval. 50 (7): 969–978. doi:10.1016/j.ijar.2008.11.006. ISSN 0888-613X.
  25. Morales-Forero, A.; Bassetto, S. (December 2019). «Case Study: A Semi-Supervised Methodology for Anomaly Detection and Diagnosis». 2019 IEEE International Conference on Industrial Engineering and Engineering Management (IEEM). Macao, Macao: IEEE. էջեր 1031–1037. doi:10.1109/IEEM44572.2019.8978509. ISBN 978-1-7281-3804-6. S2CID 211027131.
  26. Sakurada, Mayu; Yairi, Takehisa (December 2014). «Anomaly Detection Using Autoencoders with Nonlinear Dimensionality Reduction». Proceedings of the MLSDA 2014 2nd Workshop on Machine Learning for Sensory Data Analysis (անգլերեն). Gold Coast, Australia QLD, Australia: ACM Press. էջեր 4–11. doi:10.1145/2689746.2689747. ISBN 978-1-4503-3159-3. S2CID 14613395.
  27. 27,0 27,1 27,2 An, J., & Cho, S. (2015). Variational Autoencoder based Anomaly Detection using Reconstruction Probability. Special Lecture on IE, 2, 1-18.
  28. Zhou, Chong; Paffenroth, Randy C. (2017-08-04). «Anomaly Detection with Robust Deep Autoencoders». Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (անգլերեն). ACM. էջեր 665–674. doi:10.1145/3097983.3098052. ISBN 978-1-4503-4887-4. S2CID 207557733.
  29. Ribeiro, Manassés; Lazzaretti, André Eugênio; Lopes, Heitor Silvério (2018). «A study of deep convolutional auto-encoders for anomaly detection in videos». Pattern Recognition Letters. 105: 13–22. Bibcode:2018PaReL.105...13R. doi:10.1016/j.patrec.2017.07.016.
  30. Nalisnick, Eric; Matsukawa, Akihiro; Teh, Yee Whye; Gorur, Dilan; Lakshminarayanan, Balaji (2019-02-24). «Do Deep Generative Models Know What They Don't Know?». arXiv:1810.09136 [stat.ML].
  31. Xiao, Zhisheng; Yan, Qing; Amit, Yali (2020). «Likelihood Regret: An Out-of-Distribution Detection Score For Variational Auto-encoder». Advances in Neural Information Processing Systems (անգլերեն). 33. arXiv:2003.02977.
  32. Theis, Lucas; Shi, Wenzhe; Cunningham, Andrew; Huszár, Ferenc (2017). «Lossy Image Compression with Compressive Autoencoders». arXiv:1703.00395 [stat.ML].
  33. Balle, J; Laparra, V; Simoncelli, EP (April 2017). «End-to-end optimized image compression». International Conference on Learning Representations. arXiv:1611.01704.
  34. Cho, K. (2013, February). Simple sparsification improves sparse denoising autoencoders in denoising highly corrupted images. In International Conference on Machine Learning (pp. 432-440).
  35. Cho, Kyunghyun (2013). «Boltzmann Machines and Denoising Autoencoders for Image Denoising». arXiv:1301.3468 [stat.ML].
  36. Buades, A.; Coll, B.; Morel, J. M. (2005). «A Review of Image Denoising Algorithms, with a New One». Multiscale Modeling & Simulation. 4 (2): 490–530. doi:10.1137/040616024. S2CID 218466166.
  37. Gondara, Lovedeep (December 2016). «Medical Image Denoising Using Convolutional Denoising Autoencoders». 2016 IEEE 16th International Conference on Data Mining Workshops (ICDMW). Barcelona, Spain: IEEE. էջեր 241–246. arXiv:1608.04667. Bibcode:2016arXiv160804667G. doi:10.1109/ICDMW.2016.0041. ISBN 9781509059102. S2CID 14354973.
  38. Zeng, Kun; Yu, Jun; Wang, Ruxin; Li, Cuihua; Tao, Dacheng (January 2017). «Coupled Deep Autoencoder for Single Image Super-Resolution». IEEE Transactions on Cybernetics. 47 (1): 27–37. doi:10.1109/TCYB.2015.2501373. ISSN 2168-2267. PMID 26625442. S2CID 20787612.
  39. Tzu-Hsi, Song; Sanchez, Victor; Hesham, EIDaly; Nasir M., Rajpoot (2017). «Hybrid deep autoencoder with Curvature Gaussian for detection of various types of cells in bone marrow trephine biopsy images». 2017 IEEE 14th International Symposium on Biomedical Imaging (ISBI 2017). էջեր 1040–1043. doi:10.1109/ISBI.2017.7950694. ISBN 978-1-5090-1172-8. S2CID 7433130.
  40. Xu, Jun; Xiang, Lei; Liu, Qingshan; Gilmore, Hannah; Wu, Jianzhong; Tang, Jinghai; Madabhushi, Anant (January 2016). «Stacked Sparse Autoencoder (SSAE) for Nuclei Detection on Breast Cancer Histopathology Images». IEEE Transactions on Medical Imaging. 35 (1): 119–130. doi:10.1109/TMI.2015.2458702. PMC 4729702. PMID 26208307.
  41. Martinez-Murcia, Francisco J.; Ortiz, Andres; Gorriz, Juan M.; Ramirez, Javier; Castillo-Barnes, Diego (2020). «Studying the Manifold Structure of Alzheimer's Disease: A Deep Learning Approach Using Convolutional Autoencoders». IEEE Journal of Biomedical and Health Informatics. 24 (1): 17–26. doi:10.1109/JBHI.2019.2914970. hdl:10630/28806. PMID 31217131. S2CID 195187846.
  42. Zhavoronkov, Alex (2019). «Deep learning enables rapid identification of potent DDR1 kinase inhibitors». Nature Biotechnology. 37 (9): 1038–1040. doi:10.1038/s41587-019-0224-x. PMID 31477924. S2CID 201716327.
  43. Gregory, Barber. «A Molecule Designed By AI Exhibits 'Druglike' Qualities». Wired.
  44. De, Shaunak; Maity, Abhishek; Goel, Vritti; Shitole, Sanjay; Bhattacharya, Avik (2017). «Predicting the popularity of instagram posts for a lifestyle magazine using deep learning». 2017 2nd IEEE International Conference on Communication Systems, Computing and IT Applications (CSCITA). էջեր 174–177. doi:10.1109/CSCITA.2017.8066548. ISBN 978-1-5090-4381-1. S2CID 35350962.
  45. Cho, Kyunghyun; Bart van Merrienboer; Bahdanau, Dzmitry; Bengio, Yoshua (2014). «On the Properties of Neural Machine Translation: Encoder-Decoder Approaches». arXiv:1409.1259 [cs.CL].
  46. Sutskever, Ilya; Vinyals, Oriol; Le, Quoc V. (2014). «Sequence to Sequence Learning with Neural Networks». arXiv:1409.3215 [cs.CL].
  47. Han, Lifeng; Kuang, Shaohui (2018). «Incorporating Chinese Radicals into Neural Machine Translation: Deeper Than Character Level». arXiv:1805.01565 [cs.CL].