Deel van 'n reeks oor |
Kunsmatige intelligensie |
---|
![]() |
Tegnologie
|
Woordelys
|
'n Kunsmatige algemene intelligensie (KAI) is 'n tipe hipotetiese intelligente agent. Die KAI-konsep is dat dit kan leer om enige intellektuele taak wat mense of ander diere kan verrig, uit te voer.[1][2] Alternatiewelik is KAI gedefinieer as 'n outonome stelsel wat menslike vermoëns in die meeste ekonomies waardevolle take oortref.[3] Die skep van KAI is 'n primêre doelwit van sommige kunsmatige intelligensie-navorsing en maatskappye soos OpenAI,[3] DeepMind,[4] en Anthropic. KAI is 'n algemene onderwerp in wetenskapfiksie en toekomsstudies.
Die tydlyn vir KAI-ontwikkeling bly 'n onderwerp van voortdurende debat onder navorsers en kundiges. Sommige argumenteer dat dit moontlik oor jare of dekades kan wees, ander hou vol dat dit 'n eeu of langer kan neem, en 'n minderheid glo dat dit dalk nooit bereik sal word nie.[5] Daarbenewens heers daar debat oor die vraag of moderne diepleerstelsels, soos GPT-4, 'n vroeë dog onvolledige vorm van KAI is.[6][7]
Daar bestaan twis oor die potensiaal vir KAI om 'n bedreiging vir die mensdom in te hou; byvoorbeeld, OpenAI hanteer dit as 'n eksistensiële risiko, terwyl ander vind dat die ontwikkeling van KAI te ver in die toekoms is om 'n risiko in te hou.[8][5][7]
'n 2020-opname het 72 aktiewe KAI navorsingsprojekte geïdentifiseer wat oor 37 lande versprei is.[9]
KAI staan ook bekend as sterk KI,[10][11][12] volle KI,[13] of algemene intelligente aksie.[14][15] Sommige akademiese bronne behou egter die term "sterk KI" vir rekenaarprogramme wat gevoel of bewussyn ervaar.[16][17] Daarteenoor is swak KI (of nou KI) in staat om een spesifieke probleem op te los, maar het nie algemene kognitiewe vermoëns nie.[18][11] Sommige akademiese bronne gebruik "swak KI" om wyer te verwys na enige programme wat nie bewussyn ervaar of ook nie 'n verstand in dieselfde sin as mense het nie.[19]
Verwante konsepte sluit in menslike vlak KI, transformerende KI,[5] en superintelligensie.
Verskeie kriteria vir intelligensie is voorgestel (die mees bekende Turingtoets) maar geen definisie word algemeen aanvaar nie. John McCarthy skryf: " ons kan nog nie in die algemeen karakteriseer watter soort berekeningsprosedures ons intelligent wil noem nie."[21][22]
Navorsers meen egter oor die algemeen dat intelligensie nodig is om die volgende te doen: [23]
en, indien nodig, integreer hierdie vaardighede in die voltooiing van enige gegewe doelwit.
Baie interdissiplinêre benaderings (bv. kognitiewe wetenskap, rekenaarintelligensie en besluitneming) oorweeg bykomende eienskappe soos verbeelding (die vermoë om nuwe geestelike beelde en konsepte te vorm)[24] en outonomie.[25]
Rekenaargebaseerde stelsels wat baie van hierdie vermoëns vertoon, bestaan (sien byvoorbeeld rekenaarkreatiwiteit, outomatiese redenasie, besluitondersteuningstelsel, robot, evolusionêre berekening, intelligente agent). Daar is egter geen konsensus dat moderne KI-stelsels dit in 'n voldoende mate besit nie.
Ander belangrike vermoëns sluit in:[26]
Dit sluit die vermoë in om gevaar op te spoor en daarop te reageer.[27]
'n Wiskundig presiese spesifikasie van KAI is voorgestel deur Marcus Hutter in 2000. Genoem AIXI, die voorgestelde KAI-agent maksimeer "die vermoë om doelwitte in 'n wye verskeidenheid omgewings te bevredig".[28] Hierdie tipe KAI, wat gekenmerk word deur die vermoë om 'n wiskundige definisie van intelligensie te maksimeer eerder as om mensagtige gedrag te vertoon,[29] word ook universele kunsmatige intelligensie genoem.[30]
In 2015 het Jan Lieke en Marcus Hutter gewys dat Legg-Hutter-intelligensie – "'n agent se vermoë om doelwitte in 'n wye reeks omgewings te bereik"[31] – gemeet word met betrekking tot "'n vaste universele Turing-masjien (UTM). AIXI is die mees intelligente beleid as dit dieselfde UTM gebruik, 'n resultaat wat "alle bestaande optimaliteitseienskappe vir AIXI ondermyn".[32] Hierdie probleem spruit uit AIXI se gebruik van kompressie as 'n proxy vir intelligensie, wat slegs geldig is indien kognisie in isolasie plaasvind van die omgewing waarin doelwitte nagestreef word. Dit formaliseer 'n filosofiese posisie bekend as gees-liggaam dualisme.[33] Sommige vind enaktivisme meer aanneemlik – die idee dat kognisie plaasvind binne dieselfde omgewing waarin doelwitte nagestreef word.[34] Daarna het Michael Timothy Bennett enaktiewe kognisie geformaliseer en 'n alternatiewe gevolmagtigde vir intelligensie genaamd "swakheid" geïdentifiseer.[33] Die meegaande eksperimente (wat swakheid en kompressie vergelyk) en wiskundige bewyse het getoon dat die maksimalisering van swakheid die optimale "vermoë om 'n wye reeks take te voltooi",[35] of ekwivalent "vermoë om te veralgemeen"[36] tot gevolg het (dus maksimeer intelligensie volgens enige definisie ). As enaktivisme geld en gees-liggaam-dualisme nie, dan is kompressie nie nodig of voldoende vir intelligensie nie, wat wydverspreide sienings oor intelligensie bevraagteken (sien ook Hutter-prys).
Of 'n KAI wat aan een van hierdie formulerings voldoen, menslike gedrag (soos die gebruik van natuurlike taal) toon, sal van baie faktore afhang,[37] byvoorbeeld die wyse waarop die agent beliggaam word,[35] of dit het 'n beloningsfunksie wat menslike aspekte van kognisie soos honger, pyn, ensovoorts, nou naboots.[38]
Verskeie toetse wat bedoel is om KAI op menslike vlak te bevestig, is oorweeg, insluitend:[39][40]
Daar is baie probleme wat algemene kundmatige intelligensie sal moet oorkom, as masjiene die probleme so goed wil oplos as wat mense dit kan doen. Byvoorbeeld, selfs spesifieke eenvoudige take, soos masjienvertaling, vereis dat 'n masjien in albei tale (NLP) lees en skryf, die skrywer se argument (rede) volg, weet waaroor gepraat word (kennis), en die skrywer se oorspronklike opset getrou weergee. (sosiale intelligensie). Al hierdie probleme moet gelyktydig opgelos word om masjienwerkverrigting op menslike vlak te kry.
'n Probleem word informeel "KI-volledigheid " of "KI-hard" genoem as daar geglo word dat 'n mens sterk KI moet implementeer om dit op te los, want die oplossing is buite die vermoëns van 'n doelspesifieke algoritme.[41]
KI-volledigheid probleme word veronderstel om algemene rekenaarvisie, natuurlike taalbegrip en die hantering van onverwagte omstandighede in te sluit terwyl enige werklike wêreldprobleem opgelos word.[42]
KI-volledigheid probleme kan nie opgelos word met huidige rekenaartegnologie alleen nie en vereis 'n mate van menslike berekening. Hierdie beperking kan nuttig wees om te toets vir die teenwoordigheid van mense, soos CAPTCHA's beoog om te doen; en vir rekenaarsekuriteit om brute-krag-aanvalle af te weer.[43][44]
Moderne KI-navorsing het in die middel-1950's begin.[45] Die eerste generasie KI-navorsers was oortuig daarvan dat kunsmatige algemene intelligensie moontlik was en dat dit oor net 'n paar dekades sou bestaan.[46] KI-pionier Herbert A. Simon het in 1965 geskryf: "masjiene sal binne twintig jaar in staat wees om enige werk te doen wat 'n mens kan doen."[47] Hul voorspellings was die inspirasie vir Stanley Kubrick en Arthur C. Clarke se karakter HAL 9000, wat beliggaam het wat KI-navorsers geglo het hulle kon skep teen die jaar 2001. KI-pionier Marvin Minsky was 'n konsultant[48] op die projek om HAL 9000 as realisties te maak as moontlik volgens die konsensusvoorspellings van die tyd. Hy het in 1967 gesê: "Binne 'n generasie... sal die probleem van die skep van 'kunsmatige intelligensie' aansienlik opgelos word".[49]
Verskeie klassieke KI-projekte, soos Doug Lenat se Cyc-projek (wat in 1984 begin het), en Allen Newell se Soar-projek, was op KAI gerig. In die vroeë 1970's het dit egter duidelik geword dat navorsers die moeilikheid van die projek erg onderskat het.
Befondsingsagentskappe het skepties geraak oor KAI en het navorsers onder toenemende druk geplaas om nuttige "toegepaste KI" te produseer. Die Lighthill-verslag het spesifiek KI se "grootsugtige doelwitte" gekritiseer en gelei tot die aftakeling van KI-navorsing in Engeland.[50] In die VSA het DARPA vasbeslote geraak om slegs "missie-georiënteerde direkte navorsing, eerder as basiese ongerigte navorsing" te finansier.[51]
In die vroeë 1980's het Japan se vyfde generasie rekenaarprojek belangstelling in KAI laat herleef en 'n tydlyn van tien jaar uiteengesit wat KAI-doelwitte soos "voer 'n toevallige gesprek" insluit.[52] In reaksie hierop en die sukses van kundige stelsels, het beide die industrie en die regering geld in die veld teruggepomp.[53][54] Vertroue in KI het egter skouspelagtig ineengestort in die laat 1980's, en die doelwitte van die Vyfde Generasie Rekenaarprojek is nooit vervul nie.[55] Vir die tweede keer in 20 jaar het KI-navorsers wat die naderende prestasie van KAI voorspel het, hulle misgis. Teen die 1990's het KI-navorsers 'n reputasie gehad om ydele beloftes te maak. Hulle het enigsins huiwerig geword om voorspellings te maak en vermy die vermelding van kunsmatige intelligensie op "menslike vlak" uit vrees dat hulle as "wilde-oog dromer[s] geëtiketteer word.[56]
In die 1990's en vroeë 21ste eeu het hoofstroom KI kommersiële sukses en akademiese eerbaarheid behaal deur te fokus op spesifieke subprobleme waar KI verifieerbare resultate en kommersiële toepassings kan produseer, soos kunsmatige neurale netwerke en statistiese masjienleer.[57] Hierdie "toegepaste KI"-stelsels word nou op groot skaal deur die tegnologie-industrie gebruik, en navorsing in hierdie trant word goed befonds in beide die akademie en die industrie. Vanaf 2018 is ontwikkeling op hierdie gebied as 'n opkomende tendens beskou, en daar is verwag dat 'n volwasse stadium oor meer as 10 jaar sou plaasvind.[58]
Die meeste hoofstroom KI-navorsers[59] hoop dat sterk KI ontwikkel kan word deur programme te kombineer wat verskeie subprobleme oplos. Hans Moravec het in 1988 geskryf: "Ek is vol vertroue dat hierdie onder-na-bo-roete na kunsmatige intelligensie eendag die tradisionele bo-na-onder-roete meer as halfpad sal ontmoet, gereed om die regte wêreldbevoegdheid en die gesonde verstandkennis te verskaf wat so frustrerend ontwykend was in redenasieprogramme. Ten volle intelligente masjiene sal ontstaan wanneer die metaforiese goue piek aangedryf word wat die twee pogings verenig."[59]
Dit word egter betwis. Byvoorbeeld, Stevan Harnad van Princeton-universiteit het sy 1990 referaat oor die Simbool Gegronde Hipoteses afgesluit deur te sê: "Die verwagting is dikwels uitgespreek dat "bo na onder" (simboliese) benaderings tot modellering van kognisie op een of ander manier "onder na bo" (sensoriese) benaderings iewers tussenin sal ontmoet. As die grondoorwegings in hierdie vraestel geldig is, dan is hierdie verwagting hopeloos modulêr en is daar eintlik net een lewensvatbare roete van sintuig na simbole: van die grond af. 'n Vryswewende simboliese vlak soos die sagtewarevlak van 'n rekenaar sal nooit deur hierdie roete (of andersom) bereik word nie – en dit is ook nie duidelik waarom ons selfs so 'n vlak moet probeer bereik nie, aangesien dit lyk asof om daar te kom net daarop neerkom om ons simbole uit hul intrinsieke betekenisse te ontwortel (en daardeur onsself bloot te reduseer tot die funksionele ekwivalent van 'n programmeerbare rekenaar)."[60]
Die term "kunsmatige algemene intelligensie" is reeds in 1997 deur Mark Gubrud[61] gebruik in 'n bespreking van die implikasies van ten volle outomatiese militêre produksie en operasies. Die term is omstreeks 2002 weer gebruik en gewild gemaak deur Shane Legg en Ben Goertzel.[62] KAI-navorsingsaktiwiteit in 2006 is deur Pei Wang en Ben Goertzel beskryf as "die vervaardiging van publikasies en voorlopige resultate". Die eerste somerskool in AKI is in 2009 in Xiamen, China georganiseer[63] deur die Xiamen-universiteit se Kunsbreinlaboratorium en OpenCog. Die eerste universiteitskursus is in 2010[64] en 2011[65] by Plovdiv Universiteit, Bulgarye deur Todor Arnaudov aangebied. MIT het in 2018 'n kursus in KAI aangebied, georganiseer deur Lex Fridman en met 'n aantal gasdosente.
Vanaf 2023 gee die meeste KI-navorsers min aandag aan KAI, met sommige wat beweer dat intelligensie te kompleks is om op die kort termyn heeltemal gerepliseer te word. 'n Klein aantal rekenaarwetenskaplikes is egter aktief in KAI-navorsing, en baie dra by tot 'n reeks KAI-konferensies. Al hoe meer navorsers stel egter belang in oopleer,[66][67] wat die idee is om KI toe te laat om voortdurend te leer en te innoveer soos mense aksie neem. Alhoewel die meeste oop-einde-leerwerke steeds op Minecraft gedoen word,[68][69][70] kan die toepassing daarvan uitgebrei word na robotika en die wetenskappe.
In die inleiding tot sy 2006-boek,[71] sê Goertzel dat ramings van die tyd wat nodig is voordat 'n werklik buigsame KAI gebou word, wissel van 10 jaar tot meer as 'n eeu. Vanaf 2007 het die konsensus in die KAI-navorsingsgemeenskap gelyk of die tydlyn wat deur Ray Kurzweil in The Singularity is Near[72] (d.w.s. tussen 2015 en 2045) bespreek is, moontlik is.[73] Hoofstroom KI-navorsers het 'n wye verskeidenheid menings gegee oor of vordering so vinnig sal wees. 'n 2012-meta-analise van 95 sulke menings het 'n vooroordeel gevind om te voorspel dat die aanvang van KAI binne 16-26 jaar vir moderne en historiese voorspellings sou plaasvind. Daardie referaat is gekritiseer vir hoe dit menings as deskundige of nie-deskundige gekategoriseer het.[74]
In 2012 het Alex Krizhevsky, Ilya Sutskever en Geoffrey Hinton 'n neurale netwerk genaamd AlexNet ontwikkel, wat die ImageNet-kompetisie gewen het met 'n top-5 toetsfoutkoers van 15.3%, aansienlik beter as die tweedebeste inskrywing se koers van 26.3% (die tradisionele benadering het 'n geweegde som van tellings van verskillende vooraf gedefinieerde klassifiseerders gebruik).[75] AlexNet is beskou as die aanvanklike baanbreker van die huidige diep leergolf.[75]
In 2017 het navorsers Feng Liu, Yong Shi en Ying Liu intelligensietoetse uitgevoer op publiek-beskikbare en vrylik toeganklike swak KI soos Google KI, Apple se Siri, en ander. Op die maksimum het hierdie KI's 'n IK-waarde van ongeveer 47 bereik, wat ongeveer ooreenstem met 'n sesjarige kind in die eerste graad. 'n Volwassene kom gemiddeld op ongeveer 100. Soortgelyke toetse is in 2014 uitgevoer, met die IK-telling wat 'n maksimum waarde van 27 bereik het.[76][77]
In 2020 het OpenAI GPT-3 ontwikkel, 'n taalmodel wat in staat is om baie uiteenlopende take te verrig sonder spesifieke opleiding. Volgens Gary Grossman in 'n VentureBeat-artikel, hoewel daar konsensus is dat GPT-3 nie 'n voorbeeld van KAI is nie, word dit deur sommige as te gevorderd beskou om as 'n nou KI-stelsel te klassifiseer.[78]
In dieselfde jaar het Jason Rohrer sy GPT-3-rekening gebruik om 'n kletsbot te ontwikkel, en het 'n kletsbot-ontwikkelingsplatform genaamd "Project December" verskaf. OpenAI het gevra vir veranderinge aan die kletsbot om aan hul veiligheidsriglyne te voldoen; Rohrer het Project December van die GPT-3 API ontkoppel.[79]
In 2022 het DeepMind Gato ontwikkel, 'n "algemene-doel" stelsel wat in staat is om meer as 600 verskillende take uit te voer.[80]
In 2023 het Microsoft Research 'n studie gepubliseer oor 'n vroeë weergawe van OpenAI se GPT-4, en beweer dat dit meer algemene intelligensie as vorige KI-modelle getoon het en prestasie op menslike vlak gedemonstreer het in take wat oor verskeie domeine strek, soos wiskunde, kodering en die reg. Hierdie navorsing het 'n debat ontketen oor of GPT-4 as 'n vroeë, onvolledige weergawe van kunsmatige algemene intelligensie beskou kan word, wat die behoefte aan verdere verkenning en evaluering van sulke stelsels beklemtoon het.[81]
In 2023 het die KI-navorser Geoffrey Hinton gesê dat:[82]
“Die idee dat hierdie goed eintlik slimmer as mense kan word — 'n paar mense het dit geglo, […]. Maar die meeste mense het gedink dit is ver weg. En ek het gedink dit is ver weg. Ek het gedink dit is 30 tot 50 jaar of selfs langer weg. Natuurlik dink ek nie meer so nie.”
Een moontlike benadering om KAI te bereik is heelbrein-emulasie: 'n Breinmodel word gebou deur 'n biologiese brein in detail te skandeer en te karteer en sy toestand na 'n rekenaarstelsel of 'n ander rekenaartoestel te kopieer. Die rekenaar bestuur 'n simulasiemodel wat voldoende getrou aan die oorspronklike is dat dit feitlik dieselfde optree as die oorspronklike brein.[83] Heelbrein-emulasie word in rekenaarneurologie en neuroinformatika bespreek, in die konteks van breinsimulasie vir mediese navorsingsdoeleindes. Dit word in kunsmatige intelligensie navorsing[73] bespreek as 'n benadering tot sterk KI. Neurobeeldingstegnologieë wat die nodige gedetailleerde begrip kan lewer, verbeter vinnig, en toekomskundige Ray Kurzweil voorspel in die boek The Singularity Is Near[72] dat 'n kaart van voldoende gehalte beskikbaar sal word op 'n soortgelyke tydskaal as die rekenaarvermoë wat nodig is om dit na te boots.
Vir laevlak breinsimulasie sal 'n uiters kragtige rekenaar nodig wees. Die menslike brein het 'n groot aantal sinapse. Elk van die 1011 (eenhonderd miljard) neurone het gemiddeld 7 000 sinaptiese verbindings (sinapse) met ander neurone. Die brein van 'n driejarige kind het ongeveer 1015 sinapse (1 kwadriljoen). Hierdie getal neem af met ouderdom en stabiliseer teen volwassenheid. Skattings verskil vir 'n volwassene, wat wissel van 1014 tot 5×1014 sinapse (100 tot 500 miljard).[84] 'n Skatting van die brein se verwerkingskrag, gebaseer op 'n eenvoudige skakelaarmodel vir neuronaktiwiteit, is ongeveer 1014 (100 miljard) sinaptiese opdaterings per sekonde (SUPS).[85]
In 1997 het Kurzweil na verskeie skattings gekyk vir die hardeware wat nodig is om gelyk te wees aan die menslike brein en 'n syfer van 1016 berekeninge per sekonde (bps) aanvaar.[86] (Ter vergelyking, as 'n "berekening" gelykstaande was aan een "drywende punt" werking" – 'n maatstaf wat gebruik word om huidige superrekenaars te gradeer – dan sal 1016 "berekeninge" gelykstaande wees aan 10 petaFLOPS, wat in 2011 behaal is, terwyl 1018 in 2022 behaal is.) Hy het hierdie syfer gebruik om te voorspel die nodige hardeware sal iewers tussen 2015 en 2025 beskikbaar wees, as die eksponensiële groei in rekenaarvermoë ten tyde van die skryf daarvan voortgegaan het.
Die kunsmatige neuronmodel wat deur Kurzweil aanvaar word en in baie huidige kunsmatige neurale netwerkimplementasies gebruik word, is eenvoudig in vergelyking met biologiese neurone. 'n Breinsimulasie sal waarskynlik die gedetailleerde sellulêre gedrag van biologiese neurone moet vasvang, wat tans slegs in breë trekke verstaan word. Die bokoste wat deur volledige modellering van die biologiese, chemiese en fisiese besonderhede van neurale gedrag (veral op 'n molekulêre skaal) ingestel word, sal berekeningvermoë vereis wat verskeie grootteordes groter is as Kurzweil se skatting. Boonop hou die skattings nie rekening met gliaselle nie, wat bekend is dat hulle 'n rol speel in kognitiewe prosesse.[87]
Sommige navorsingsprojekte ondersoek breinsimulasie deur meer gesofistikeerde neurale modelle te gebruik, geïmplementeer op konvensionele rekenaarargitekture. Die Artificial Intelligence System-projek het in 2005 nie-intydse simulasies van 'n "brein" (met 1011 neurone) geïmplementeer. Dit het 50 dae geneem op 'n groep van 27 verwerkers om 1 sekonde van 'n model te simuleer.[88] Die Blue Brain-projek het een van die vinnigste superrekenaar-argitekture, IBM se Blue Gene-platform, gebruik om 'n intydse simulasie van 'n enkele staaf neokortikale kolom te skep wat in 2006 uit ongeveer 10 000 neurone en 108 sinapse bestaan het.[89] ’n Langtermyndoelwit is om ’n gedetailleerde, funksionele simulasie van die fisiologiese prosesse in die menslike brein te bou: “Dit is nie onmoontlik om ’n menslike brein te bou nie en ons kan dit in 10 jaar doen,” Henry Markram, direkteur van die Bloubrein Projek, in 2009 by die TED-konferensie in Oxford gesê.[90] Neurosilikon-koppelvlakke is voorgestel as 'n alternatiewe implementeringstrategie wat beter kan opskaal.[91]
Hans Moravec het bogenoemde argumente aangespreek ("breine is meer ingewikkeld", "neurone moet in meer detail gemodelleer word") in sy 1997 referaat "Wanneer sal rekenaarhardeware ooreenstem met die menslike brein?".[92] Hy het die vermoë van bestaande sagteware gemeet om die funksionaliteit van neurale weefsel, spesifiek die retina, te simuleer. Sy resultate hang nie af van die aantal glialeselle nie, en ook nie van watter soort verwerkingsneurone waar verrig nie.
Die werklike kompleksiteit van die modellering van biologiese neurone is ondersoek in die OpenWorm-projek wat gemik was op volledige simulasie van 'n wurm wat slegs 302 neurone in sy neurale netwerk het (onder ongeveer 1000 selle in totaal). Die dier se neurale netwerk is goed gedokumenteer voor die aanvang van die projek. Alhoewel die taak aan die begin eenvoudig gelyk het, het die modelle gebaseer op 'n generiese neurale netwerk egter nie gewerk nie. Daarna fokus pogings op presiese emulasie van biologiese neurone (gedeeltelik op die molekulêre vlak), maar die resultaat kan nog nie 'n totale sukses genoem word nie.
'n Fundamentele kritiek op die gesimuleerde breinbenadering kom uit beliggaamde kognisieteorie wat beweer dat menslike beliggaming 'n noodsaaklike aspek van menslike intelligensie is en nodig is om betekenis in te bed.[93] As hierdie teorie korrek is, sal enige ten volle funksionele breinmodel meer as net die neurone moet insluit (bv. 'n robotliggaam). Goertzel[73] stel virtuele beliggaming (soos in Second Life) as 'n opsie voor, maar dit is onbekend of dit voldoende sal wees.
Tafelrekenaars wat mikroverwerkers gebruik wat in staat is om meer as 109 cps (Kurzweil se nie-standaard eenheid "berekeninge per sekonde", sien hierbo) is beskikbaar sedert 2005. Volgens die breinkragberamings wat deur Kurzweil (en Moravec) gebruik word, behoort so 'n rekenaar te wees in staat om 'n simulasie van 'n bybrein te ondersteun, maar ten spyte van 'n mate van belangstelling[94]bestaan geen sodanige simulasie nie. Daar is verskeie redes hiervoor:
Daarbenewens is die skaal van die menslike brein tans nie goed ingeperk nie. Een skatting stel die menslike brein op ongeveer 100 biljoen neurone en 100 triljoen sinapse[97][98] Nog 'n skatting is 86 miljard neurone waarvan 16,3 miljard in die serebrale korteks en 69 miljard in die serebellum is.[99] Gliale sel sinapse is tans ongekwantifiseer, maar dit is bekend dat dit uiters talryk is.
Sien ook: Filosofie van kunsmatige intelligensie en Turingtoets
In 1980 het filosoof John Searle die term "sterk KI" geskep as deel van sy Chinese kamerargument.[100] Hy wou tussen twee verskillende hipoteses oor kunsmatige intelligensie onderskei.[101]
Die eerste een het hy "sterk" genoem omdat dit 'n sterker stelling maak: dit neem aan iets spesiaals het met die masjien gebeur wat verder gaan as daardie vermoëns wat ons kan toets. Die gedrag van 'n "swak KI"-masjien sal presies identies wees aan 'n "sterk KI"-masjien, maar laasgenoemde sal ook subjektiewe bewuste ervaring hê. Hierdie gebruik is ook algemeen in akademiese KI-navorsing en handboeke.[102]
In teenstelling met Searle en hoofstroom KI, gebruik sommige toekomskundiges soos Ray Kurzweil die term "sterk KI" om "kunsmatige algemene intelligensie op menslike vlak" te beteken.[72] Dit is nie dieselfde as Searle se sterk KI nie, tensy jy aanneem dat bewussyn nodig is vir menslike vlak KAI. Akademiese filosowe soos Searle glo nie dat dit die geval is nie, en vir die meeste kunsmatige intelligensie-navorsers is die vraag buite die omvang van hul navorsing.
Hoofstroom KI stel die meeste belang in hoe 'n program optree.[72] Volgens Stuart J. Russell en Peter Norvig, "solank die program werk, gee hulle nie om of jy dit werklik of 'n simulasie noem nie." As die program kan optree asof dit 'n verstand het, is dit nie nodig om weet of dit werklik verstand het – daar sal inderdaad geen manier wees om te sê nie. Vir KI-navorsing is Searle se "swak KI-hipotese" gelykstaande aan die stelling "kunsmatige algemene intelligensie is moontlik". Dus, volgens Russell en Norvig, "neem die meeste KI-navorsers die swak KI-hipotese as vanselfsprekend, en gee nie om oor die sterk KI-hipotese nie." Dus, vir akademiese KI-navorsing, "Sterk KI" en "KAI" is twee baie verskillende dinge.
Ander aspekte van die menslike verstand behalwe intelligensie is relevant tot die konsep van sterk KI, en dit speel 'n groot rol in wetenskapfiksie en die etiek van kunsmatige intelligensie:
Hierdie eienskappe het 'n morele dimensie, want 'n masjien met hierdie vorm van sterk KI kan regte hê, analoog aan die regte van nie-menslike diere. Voorlopige werk is gedoen om volledige etiese agente te integreer met bestaande wetlike en sosiale raamwerke, met die fokus op die regsposisie en regte van 'sterk' KI.[104] Bill Joy, onder andere, voer aan 'n masjien met hierdie eienskappe kan 'n bedreiging vir menslike lewe of waardigheid wees.[105]
Vordering in kunsmatige intelligensie het deur periodes van vinnige vordering gegaan, geskei deur periodes wanneer vordering gelyk het of dit opgehou het. [106] Beëindig elke hiatus fundamentele vooruitgang in hardeware, sagteware of albei om ruimte te skep vir verdere vordering [106][107][108] Byvoorbeeld, die rekenaarhardeware wat in die twintigste eeu beskikbaar was, was nie voldoende om diep leer te implementeer nie, wat groot getalle grafiese prosesseeringseenheid-geaktiveerde Sentrale verwerkingseenhede vereis.[109]
Die veld het ook gewissel tussen benaderings tot die probleem. Soms het pogings gefokus op eksplisiete opeenhoping van feite en logika, soos in kundige stelsels. Op ander tye is daar van stelsels verwag om op hul eie te verbeter deur middel van masjienleer, soos in kunsmatige neurale netwerke.[110]
'n Verdere uitdaging is die gebrek aan duidelikheid in die definisie van wat intelligensie behels. Vereis dit bewussyn? Moet dit die vermoë toon om doelwitte te stel sowel as om dit na te streef? Is dit bloot 'n kwessie van skaal, sodat intelligensie na vore sal kom as modelgroottes voldoende toeneem? Word fasiliteite soos beplanning, redenering en oorsaaklike begrip vereis? Vereis intelligensie die eksplisiete replisering van die brein en sy spesifieke fakulteite? Vereis dit emosies?[111] David Gelernter skryf: "Geen rekenaar sal kreatief wees tensy dit al die nuanses van menslike emosie kan simuleer nie."[112][113][114]
KAI kan 'n wye verskeidenheid toepassings hê. As dit op so 'n doelwit gerig is, kan KAI help om verskeie probleme in die wêreld soos honger, armoede en gesondheidsprobleme te versag.[115]
KAI kan produktiwiteit en doeltreffendheid in die meeste werke verbeter. Byvoorbeeld, in openbare gesondheid kan KAI mediese navorsing versnel, veral teen kanker.[116] Dit kan vir bejaardes sorg[117] en toegang tot vinnige, hoëgehalte mediese diagnostiek demokratiseer. Dit kan pret, goedkoop en persoonlike onderwys bied.[117] Vir feitlik enige werk wat die samelewing bevoordeel as dit goed gedoen word, sal dit waarskynlik vroeër of later verkieslik wees om dit aan 'n KAI oor te laat. Die behoefte om te werk om te bestaan kan verouderd raak as die welvaart wat geproduseer word behoorlik herverdeel word.[117][118] Dit laat ook die vraag ontstaan oor die plek van mense in 'n radikaal geoutomatiseerde samelewing.
KAI kan ook help om rasionele besluite te neem, en om rampe te antisipeer en te voorkom. Dit kan ook help om die voordele van potensieel katastrofiese tegnologieë soos nanotegnologie of klimaatingenieurswese te pluk, terwyl die gepaardgaande risiko's vermy word.[119] As 'n KAI se primêre doelwit is om eksistensiële rampe soos menslike uitwissing te voorkom (wat moeilik kan wees as die Kwesbare Wêreldhipotese waar blyk te wees[120]), kan dit maatreëls tref om die risiko's drasties te verminder[119] terwyl die negatiewe impak tot die minimum beperk word.
Sien Hoofartikel: Kunsmatige-intelligensie-veiligheid
Die tesis dat KI 'n eksistensiële risiko vir mense inhou, en dat hierdie risiko baie meer aandag verg as wat dit tans kry, is omstrede, maar is onderskryf deur baie openbare figure, insluitend Elon Musk, Bill Gates en Stephen Hawking. KI-navorsers soos Stuart J. Russell, Roman Yampolskiy en Alexey Turchin ondersteun ook die basiese tesis van 'n potensiële bedreiging vir die mensdom.[121][104][122] Gates verklaar dat hy nie "verstaan waarom sommige mense nie bekommerd is nie",[123] en Hawking het wydverspreide onverskilligheid in sy 2014-meningsartikel gekritiseer:
“Dus, met moontlike toekoms van onberekenbare voordele en risiko's, doen die kundiges sekerlik alles moontlik om die beste uitkoms te verseker, nie waar nie? Verkeerd. As 'n voortreflike uitheemse beskawing vir ons 'n boodskap stuur wat sê: 'Ons kom oor 'n paar dekades,' sal ons net antwoord: 'OK, bel ons as jy hier kom—ons sal die ligte aan laat?' Waarskynlik nie – maar dit is min of meer wat met KI gebeur.”[124]
Die lot van die mensdom is soms vergelyk met die lot van gorillas wat deur menslike aktiwiteite bedreig word. Bykomende intelligensie het veroorsaak dat die mensdom gorillas oorheers, wat nou kwesbaar is op maniere wat hulle nie kon verwag het nie. Die gorilla het 'n bedreigde spesie geword, nie uit boosheid nie, maar bloot as 'n kollaterale skade deur menslike aktiwiteite.[125]
Die skeptikus Yann LeCun is van mening dat KAI's geen begeerte sal hê om die mensdom te oorheers nie en dat ons versigtig moet wees om hulle nie te antropomorfiseer en hul bedoelings te interpreteer soos ons vir mense sou doen nie. Hy het gesê dat mense nie "slim genoeg sal wees om super-intelligente masjiene te ontwerp nie, maar tog belaglik dom tot die punt om dit moroniese doelwitte te gee sonder voorsorgmaatreëls".[126] Aan die ander kant dui die konsep van instrumentele konvergensie daarop dat byna wat ook al hul doelwitte is, intelligente agente redes sal hê om te probeer oorleef en meer mag te verkry as tussengangerstappe om hierdie doelwitte te bereik. En dat dit nie vereis om emosies te hê nie. Nick Bostrom gee die gedagte-eksperiment van die skuifspelde-optimaliseerder:[127]
“Gestel ons het 'n KI wie se enigste doel is om soveel skuifspelde as moontlik te maak. Die KI sal vinnig besef dat dit baie beter sou wees as daar geen mense was nie, want mense kan besluit om dit af te skakel. Want as mense dit doen, sal daar minder skuifspelde wees. Menslike liggame bevat ook baie atome wat in skuifspelde gemaak kan word. Die toekoms waarna die KI sou probeer rat, sou een wees waarin daar baie skuifspelde was, maar geen mense nie.”
'n Sistematiese oorsig in 2021 van die risiko's verbonde aan KAI, terwyl die gebrek aan data opgemerk is, het die volgende potensiële bedreigings gevind: "KAI verwyder homself van die beheer van menslike eienaars/bestuurders, word gegee of ontwikkel onveilige doelwitte, ontwikkeling van onveilige KAIs, KAI's met swak etiek, sedes en waardes; onvoldoende bestuur van KAI, en eksistensiële risiko's".[128]
Baie geleerdes wat bekommerd is oor eksistensiële risiko, bepleit (moontlik massiewe) navorsing oor die oplossing van die moeilike "beheerprobleem" om die vraag te beantwoord: watter tipe beveiligingsmaatreëls, algoritmes of argitekture kan programmeerders implementeer om die waarskynlikheid te maksimeer dat hul rekursief-verbeterende KI sal voortgaan om op 'n vriendelike, eerder as vernietigende manier op te tree nadat dit superintelligensie bereik het?[104][129] Die oplossing van die beheerprobleem word bemoeilik deur die KI-wapenwedloop,[130][131] wat byna seker die militarisering en bewapening sal meebring van KAI deur meer as een nasiestaat, wat lei tot KAI-geaktiveerde oorlogvoering, en in die geval van KI-wanbelyning, KAI-gerigte oorlogvoering, moontlik teen die hele mensdom[132][133]
Die tese dat KI eksistensiële risiko kan inhou, het ook teenstanders. Skeptici beweer soms dat die tesis kripto-godsdienstig is, met 'n irrasionele geloof in die moontlikheid van superintelligensie wat 'n irrasionele geloof in 'n almagtige God vervang. Jaron Lanier het in 2014 aangevoer dat die idee dat die destydse huidige masjiene op enige manier intelligent was "'n illusie" en 'n "verstommende bedrogspul" deur die rykes is.[134]
Baie kritiek voer aan dat KAI op kort termyn onwaarskynlik is. Rekenaarwetenskaplike Gordon Bell voer aan dat die menslike ras homself sal vernietig voordat dit die tegnologiese singulariteit bereik. Gordon Moore, die oorspronklike voorstander van Moore se wet, verklaar: "Ek is 'n skeptikus. Ek glo nie dat ('n tegnologiese singulariteit) waarskynlik sal gebeur nie, ten minste nie vir 'n lang tyd nie."[135] Voormalige Baidu-visepresident en hoofwetenskaplike Andrew Ng het in 2015 gesê om bekommerd te wees oor KI-eksistensiële risiko is "soos om bekommerd te wees oor oorbevolking op Mars wanneer ons nog nie eens voet op die planeet gesit het nie."[136][137]
In 2023 het die HUB's van Google DeepMind, OpenAI en Anthropic, saam met ander bedryfsleiers en navorsers, 'n gesamentlike verklaring uitgereik waarin hulle beweer dat "Die versagting van die risiko van uitwissing van KI 'n wêreldwye prioriteit moet wees saam met ander risiko's op maatskaplike skaal soos pandemies en kernoorlog."[138]
Navorsers van OpenAI het beraam dat "80% van die Amerikaanse arbeidsmag ten minste 10% van hul werktake kan hê wat deur die bekendstelling van LLM's geraak word, terwyl ongeveer 19% van werkers dalk sien dat ten minste 50% van hul take geraak word".[139][140] Hulle beskou kantoorwerkers as die mees blootgestelde, byvoorbeeld wiskundiges, rekenmeesters of webontwerpers.[140] KAI kan 'n beter outonomie hê, vermoë om besluite te neem, om met ander rekenaargereedskap te koppel, maar ook om gerobotiseerde liggame te beheer.
Volgens Stephen Hawking sal die uitkoms van outomatisering op die lewenskwaliteit afhang van hoe die rykdom herverdeel sal word:[141]
“Almal kan 'n lewe van luukse ontspanning geniet as die masjien-geproduseerde rykdom gedeel word, of die meeste mense kan ongelukkig arm word as die masjieneienaars suksesvol teen die herverdeling van rykdom steun. Tot dusver blyk die neiging na die tweede opsie te wees, met tegnologie wat steeds toenemende ongelykheid dryf.”
Elon Musk is van mening dat die outomatisering van die samelewing van regerings sal vereis om 'n universele basiese inkomste aan te neem.[142]
AGI stands for Artificial General Intelligence, a hypothetical computer program...
Op sy laagtepunt het sommige rekenaarwetenskaplikes en sagteware-ingenieurs die term kunsmatige intelligensie vermy uit vrees om as wilde-oog dromers beskou te word.
Daar is beslis ook diegene wat beweer ons sien reeds 'n vroeë voorbeeld van 'n KAI-stelsel in die onlangs aangekondigde GPT-3 natuurliketaalverwerking (NLP) neurale netwerk. … Is GPT-3 dus die eerste voorbeeld van 'n KAI-stelsel? Dit is debatteerbaar, maar die konsensus is dat dit nie KAI is nie. … As niks anders nie, vertel GPT-3 vir ons dat daar 'n middeweg tussen eng en algemene KI is.
{{cite journal}}
: Cite has empty unknown parameter: |1=
(hulp)
{{cite web}}
: AS1-onderhoud: meer as een naam (link)