See artikkel valmib koolitööna. Võimaluse korral lisa oma parandusettepanekud arutelulehele. See ei tähenda siiski, et teistel kaastöölistel on artikli muutmine keelatud.
Malli võib eemaldada 1. juunil 2024.
Autor: Robin Piir. Kool: Tartu Ülikool. Juhendaja: prof Toomas Plank.
AI kiirendi, süvaõppe protsessor või närvitöötlusüksus (NPU) on spetsialiseeritud riistvarakiirendi[1]või arvutisüsteem[2], mis on loodud tehisintellekti ja masinõppe rakenduste kiirendamiseks. Tüüpilised rakendused on näiteks algoritmid robootikale, nutistule ning muudele andmemahukatele või sensoripõhistele ülesannetele.
AI kiirendeid kasutatakse mobiilseadmetes, näiteks närvitöötlusüksused (NPU-d) Apple'i iPhone'ides[3] ja Huawei mobiiltelefonides[4], isiklikes arvutites, näiteks Apple Silicon Mac'ides ning pilvandmetöötlusserverites, näiteks Google'i Pilveplatvormi TPU-d[5]. Selles kategoorias eksisteerib mitmeid müüjaspetsiifilisi termineid ning tegemist on areneva tehnoloogiaga ilma domineeriva disainita.
2024. aasta seisuga on termin "AI kiirendi" endiselt üpris ebaselge ning eri tootjad proovivad seda enda huvide toetamiseks ümber defineerida. See tähendab, et ei eksisteeri konsensust selle osas, mis kvalifitseerub AI kiirendina. Sellegipoolest, on toodetud mitmeid riistvarasid, mida võib sellesse valdkonda liigitada ning mis kattuvad märkimisväärsel määral oma eesmärkide ning saavutuste poolest.
Arvutisüsteemid on tihtipeale täiendanud CPU-sid spetsiaalselt selleks otstarbeks mõeldud kiirenditega, mida tuntakse koprotsessoritena. Märkimisväärsed rakendusspetsiifilisedlaiendplaadid on näiteks graafikakaardid graafika jaoks, helikaardid, graafikaprotsessorid ja signaaliprotsessorid. Kuna süvaõppe ja tehisintellekti koormused muutusid 2010ndatel aastatel üha tähtsamaks, arendati välja või kohandati olemasolevatest toodetest spetsialiseeritud laiendplaate nende ülesannete kiirendamiseks.
Esimesed versioonid AI kiirenditest, näiteks Inteli ETANN 80170NX, kasutasid analoogahelaid, et arvutada neuronfunktsioone.[6]
Hiljem järgnesid täis-digitaalsed kiibid nagu Nestor/Intel Ni1000. Juba aastal 1993 kasutati signaaliprotsessorit tehisnärvivõrkude kiirendamiseks optilise märgituvastuse tarkvara puhul.[7]
Aastaks 1988 olid Wei Zhang jt arutanud kiirete optiliste rakenduste realiseerimist konvolutsioonilistes närvivõrkudes tähestiku tundmiseks.[8][9]
1990ndatel prooviti luua paralleelseid kõrge läbilaskevõimega süsteeme tööjaamadele, mis olid suunatud mitmesugustele rakendustele, sealhulgas tehisintellekti simulatsioonidele.[10][11]
FPGA-põhiseid kiirendeid uuriti esmakordselt 1990ndatel tehisnärvivõrgu treenimise eesmärgil.[12][13]
Aastal 2014 pakkusid Chen jt välja DianNao (hiina keeles "elektriline aju")[14], et kiirendada süvanärvivõrke. Hiljem pakkusid sama grupi liikmed välja järglased (DaDianNao,[15] ShiDianNao,[16] PuDianNao[17]), moodustades DianNao perekonna[18].
Nutitelefonid hakkasid AI kiirendeid kasutama alates Qualcomm Snapdragon 820-st aastal 2015[19][20].
Heterogeensed arvutid kasutavad mitut eri tüüpi protsessorit või tuuma, millest igaüks on spetsialiseeritud ning optimiseeritud kindlaks eesmärgiks. Osad sellised arvutid, näiteks Cell[21], sarnanevad olemuselt AI kiirenditega. Cell mikroprotsessorit on kasutatud mitmetes tehisintellektiga seotud töödes.[22][23][24]
Videokaardid ehk GPUd on riistvara, mis on spetsialiseeritud tegelema piltidega ning arvutama pildi omadusi. Kuna matemaatiliselt on tehisnärvivõrgud ning pildimanipulatsioon sarnased ülesanded, on videokaarte hakatud üha enam kasutama masinõppe töödes.[25][26]
2012. aastal Alex Krizhevsky kasutas kahte videokaarti, et treenida süvaõppe mudel AlexNet.[27] 2010ndatel hakkasid videokaartide tootjad, näiteks Nvidia enda riist- ja tarkvarasse lisama masinõppega tegelevaid osasid. Sel kümnendil arendati videokaarte pidevalt, et neid saaks kasutada masinõppes, nii mudelite treenimisel kui kasutamisel.
Videokaarte kasutatakse siiani suurtes tehisintellekti rakendustes. Näiteks IBM'i poolt valmistatud superarvuti Summit sisaldab endas 27 648 Nvidia Tesla V100 graafikakaarti, mida kasutatakse süvaõppe algoritmide kiirendamiseks.
Kuigi videokaartide efektiivsus tehisintellektil on tunduvalt kõrgem kui protsessoritel, siis veelgi parema tulemuse saab kasutades ASICeid. Nendega on võimalik saavutada kuni 10 korda parem tulemus võrreldes GPUdega.[28][29] Sellised kiirendid optimiseerivad mälukasutust ning kasutavad madalama täpsusega ujukomaarve, et kiirendada arvutusi ning suurendada arvutite läbilaskevõimet.[30][31]
Süvaõppe protsessorid (inglise keeles Deep Learning Processor ehk DLP) on protsessorid, mille eesmärgiks on optimiseerida süvaõppe algoritme kõrge efektiivsuse nimel. Inspireerituna DianNao perest on paljud institutsioonid proovinud luua enda versioone DLPdest. Mõned näited akadeemiavaldkonnast on Eyeriss (MIT), EIE (Stanfordi ülikool), Minerva (Harvardi ülikool) jt. Tööstusvaldkonnast saab nimetada näiteks Google'i TPU ja Cambricon'i MLU.
Artikli kirjutamine on selles kohas pooleli jäänud. Jätkamine on kõigile lahkesti lubatud.(Mai 2024)
↑Zhang, Wei (1988). "Shift-invariant pattern recognition neural network and its optical architecture". Proceedings of Annual Conference of the Japan Society of Applied Physics.
↑Gschwind, M.; Salapura, V.; Maischberger, O. (1996). "A Generic Building Block for Hopfield Neural Networks with On-Chip Learning". 1996 IEEE International Symposium on Circuits and Systems. Circuits and Systems Connecting the World. ISCAS 96. Lk 49–52. DOI:10.1109/ISCAS.1996.598474. ISBN0-7803-3073-0. S2CID17630664.