Mitmed akadeemikud ja poliitikaeksperdid on teinud ettepaneku, et Rahvusvaheline Teadusnõukogu – oma pluralistliku liikmeskonnaga sotsiaal- ja loodusteadustest – looks protsessi, mille abil koostada ja säilitada märkustega raamistik/kontrollnimekiri riskide, eeliste, ohtude ja võimaluste kohta. mis on seotud kiiresti liikuvate digitaaltehnoloogiatega, sealhulgas – kuid mitte ainult – tehisintellektiga. Kontrollnimekirja eesmärk on teavitada kõiki sidusrühmi – sealhulgas valitsusi, kaubandusläbirääkijaid, reguleerivaid asutusi, kodanikuühiskonda ja tööstust – võimalikest tulevikustsenaariumidest ning määrata, kuidas nad võiksid kaaluda võimalusi, eeliseid, riske ja muid küsimusi.
ISC-l on hea meel esitleda seda aruteludokumenti kiiresti areneva digitaalse ja sellega seotud tehnoloogia hindamise kohta. Tehisintellekt, sünteetiline bioloogia ja kvanttehnoloogiad on suurepärased näited innovatsioonist, mille aluseks on teadus ja mis arenevad enneolematu kiirusega. Võib olla keeruline süstemaatiliselt ette näha mitte ainult nende rakendusi, vaid ka nende tagajärgi.
Generatiivse tehisintellekti ühiskondlike aspektide hindamine, nagu suured keelemudelid, mis kujutavad ettearvatavalt suuremat osa sellest aruteludokumendist, on vajalik sild praeguses diskursuses – mõnikord paanikast tingitud, teinekord mitte piisavalt sügava mõttega – ja vajalikke kursusi. meetmed, mida saame teha. ISC on veendunud, et selliste uute tehnoloogiate ühiskondliku aktsepteerimise ja nende võimaliku reguleerimise vahel on vaja analüütilist raamistikku, et hõlbustada sidusrühmadevahelisi arutelusid, mis on vajalikud teadlike ja vastutustundlike otsuste tegemiseks selle kiiresti areneva tehnoloogia sotsiaalse kasu optimeerimise kohta.
ISC on avatud meie kogukonna reaktsioonidele selle aruteludokumendi kaudu, et hinnata, kuidas kõige paremini jätkata tehnoloogiateemalises arutelus osalemist ja sellesse panustamist.
Salvatore Aricò, tegevjuht
ISC aruteludokument
Raamistik kiiresti arenevate digitaalsete ja sellega seotud tehnoloogiate hindamiseks: AI, suured keelemudelid ja muud
See aruteludokument annab ülevaate esialgsest raamistikust, mis annab teavet tehisintellektiga seotud mitmete ülemaailmsete ja riiklike arutelude kohta.
Laadige aruanne allaUus! Lugege poliitikakujundajatele mõeldud 2024. aasta versiooni, millel on teie organisatsiooni jaoks allalaaditav raamistik.
Juhend poliitikakujundajatele: kiiresti arenevate tehnoloogiate, sealhulgas tehisintellekti, suurte keelemudelite ja muu hindamine
See aruteludokument annab ülevaate esialgsest raamistikust, mis annab teavet tehisintellektiga seotud mitmete ülemaailmsete ja riiklike arutelude kohta.
Sisu
Sissejuhatus
Kiiresti esilekerkivad tehnoloogiad kujutavad endast väljakutseid nende juhtimise ja võimaliku reguleerimise osas. Tehisintellekti (AI) ja selle kasutamise teemalised poliitika ja avalikud arutelud on toonud need küsimused terava tähelepanu alla. Kuigi UNESCO, OECD ja teised on välja kuulutanud tehisintellekti üldpõhimõtted ning tehnoloogia globaalse või jurisdiktsioonilise reguleerimise üle on alles tekkimas arutelud, on kõrgetasemeliste põhimõtete väljatöötamise ja nende regulatiivsesse, poliitikasse kaasamise vahel ontoloogiline lõhe. juhtimis- ja majandamisviisid. Siin võiks valitsusvälistel teadusringkondadel olla eriline roll.
Mitmed akadeemikud ja poliitikaeksperdid on teinud ettepaneku, et Rahvusvaheline Teadusnõukogu (ISC) – oma pluralistliku liikmeskonnaga sotsiaal- ja loodusteadustest – kehtestaks protsessi, mille abil koostada ja säilitada märkustega raamistik/kontrollnimekiri riskide, eeliste, kiiresti liikuvate digitaaltehnoloogiatega seotud ohud ja võimalused, sealhulgas – kuid mitte ainult – tehisintellekt. Kontrollnimekirja eesmärk on teavitada kõiki sidusrühmi – sealhulgas valitsusi, kaubandusläbirääkijaid, reguleerivaid asutusi, kodanikuühiskonda ja tööstust – võimalikest tulevikustsenaariumidest ning määrata, kuidas nad võiksid kaaluda võimalusi, eeliseid, riske ja muid küsimusi.
Väljundid ei toimiks hindamisorganina, vaid adaptiivse ja areneva analüütilise raamistikuna, mis võiks olla aluseks hindamis- ja reguleerimisprotsessidele, mida sidusrühmad, sealhulgas valitsused ja mitmepoolne süsteem, võivad välja töötada. Igasugune analüütiline raamistik tuleks ideaaljuhul välja töötada sõltumatult valitsuse ja tööstuse väidetest, arvestades nende arusaadavaid huve. Samuti peab see olema oma perspektiivides maksimaalselt pluralistlik, hõlmates seega kõiki tehnoloogia aspekte ja selle mõjusid.
See aruteludokument annab ülevaate esialgsest raamistikust, mis annab teavet tehisintellektiga seotud mitmete ülemaailmsete ja riiklike arutelude kohta.
Taust: Miks analüütiline raamistik?
Tehisintellekti keerukuse ja tagajärgedega tehnoloogia kiire esilekerkimine toob kaasa palju väiteid suure kasu kohta. Kuid see tekitab ka hirmu oluliste riskide ees, alates üksikisikust kuni geostrateegilise tasemeni. Suur osa arutelust kipub toimuma vaadete spektri äärmuslikes otstes ja vaja on pragmaatilisemat lähenemist. AI-tehnoloogia areneb edasi ja ajalugu näitab, et peaaegu igal tehnoloogial on nii kasulik kui ka kahjulik kasutus. Seetõttu on küsimus: kuidas saavutada selle tehnoloogiaga kasulikke tulemusi, vähendades samal ajal kahjulike tagajärgede ohtu, millest mõned võivad olla eksistentsiaalsed?
Tulevik on alati ebakindel, kuid tehisintellekti ja generatiivse tehisintellekti kohta on piisavalt usaldusväärseid ja asjatundlikke hääli, et julgustada suhteliselt ettevaatust. Lisaks on vaja süsteemset lähenemist, sest tehisintellekt on tehnoloogiate klass, mida kasutavad ja rakendavad laialdaselt mitut tüüpi kasutajad. See tähendab, et tehisintellekti mõju üksikisikutele, ühiskondlikule elule, kodanikuelule, ühiskonnaelule ja globaalses kontekstis tuleb arvesse võtta kogu konteksti.
Erinevalt enamikust varasematest tehnoloogiatest on digitaalsel ja sellega seotud tehnoloogial väga lühike aeg arendusest avaldamiseni, mis on suuresti ajendatud tootmisettevõtete või agentuuride huvidest. AI levib kiiresti; mõned omadused võivad ilmneda alles pärast vabastamist ja tehnoloogial võib olla nii pahatahtlikke kui ka heatahtlikke rakendusi. Oluliste väärtuste mõõtmed mõjutavad seda, kuidas mis tahes kasutust tajutakse. Lisaks võivad mängus olla geostrateegilised huvid.
Siiani on virtuaaltehnoloogia reguleerimist vaadeldud suures osas läbi “põhimõtete” ja vabatahtliku järgimise. Viimasel ajal on aga arutelu pöördunud riikliku ja mitmepoolse valitsemise, sealhulgas regulatiivsete ja muude poliitiliste vahendite kasutamise üle. Tehisintellekti poolt või vastu esitatud väited on sageli hüperboolsed ja tehnoloogia olemust arvestades raskesti hinnatavad. Tõhusa ülemaailmse või riikliku tehnoloogia reguleerimise süsteemi loomine on keeruline ja ahelas on vaja mitut riskipõhist otsuste tegemise tasandit, leiutajast tootjani, kasutajani, valitsuseni ja mitmepoolse süsteemini.
Kuigi kõrgetasemelisi põhimõtteid on välja kuulutanud muuhulgas UNESCO, OECD ja Euroopa Komisjon ning käimas on mitmesugused kõrgetasemelised arutelud võimaliku reguleerimise küsimuste üle, on selliste põhimõtete ja juhtimis- või reguleeriva raamistiku vahel suur ontoloogiline lõhe. Milline on kaalutluste taksonoomia, mida reguleeriv asutus võib kaaluda? Kitsalt fokusseeritud raamimine poleks nende tehnoloogiate laiaulatuslikku mõju arvestades mõistlik. Seda potentsiaali on palju kommenteeritud, nii positiivseid kui ka negatiivseid.
Analüütilise raamistiku väljatöötamine
ISC on peamine ülemaailmne vabaühendus, mis integreerib loodus- ja sotsiaalteadusi. Selle ülemaailmne ja distsiplinaarne haare tähendab, et tal on head võimalused sõltumatute ja ülemaailmselt asjakohaste nõuannete saamiseks, et anda teavet eelseisvate keeruliste valikute tegemiseks, eriti kuna praegused hääled sellel areenil on suures osas tööstustelt või suurematelt tehnoloogilistelt suurriikidelt. Pärast viimastel kuudel toimunud ulatuslikku arutelu, sealhulgas valitsusvälise hindamisprotsessi kaalumist, jõudis ISC järeldusele, et selle kõige kasulikum panus oleks luua ja säilitada adaptiivne analüütiline raamistik, mida saab kasutada diskursuse ja otsuste tegemise alusena. kõik sidusrühmad, sealhulgas mis tahes ametliku hindamisprotsessi käigus.
See raamistik oleks kõikehõlmava kontrollnimekirja kujul, mida saaksid kasutada nii valitsusasutused kui ka valitsusvälised institutsioonid. Raamistik tuvastab ja uurib tehnoloogia, nagu AI ja selle tuletised, potentsiaali laia silmaringi kaudu, mis hõlmab inimeste ja ühiskonna heaolu, aga ka väliseid tegureid, nagu majandus, poliitika, keskkond ja julgeolek. Mõned kontrollnimekirja aspektid võivad olenevalt kontekstist olla asjakohasemad kui teised, kuid paremad otsused on tõenäolisemad, kui arvestada kõiki domeene. See on kontrollnimekirja lähenemisviisi loomupärane väärtus.
Kavandatav raamistik tuleneb varasemast tööst ja mõtlemisest, sealhulgas Rahvusvahelise Valitsuse Teadusnõuannete Võrgustiku (INGSA) digitaalse heaolu aruandest1 ja OECD tehisintellekti klassifitseerimise raamistik2 tutvustada tehisintellektiga seotud võimalikke võimalusi, riske ja mõjusid. Nende varasemate toodete eesmärk oli nende aega ja konteksti arvestades piiratum, seetõttu on vaja kõikehõlmavat raamistikku, mis käsitleks kõiki probleeme nii lühi- kui ka pikemas perspektiivis.
Kuigi see analüütiline raamistik töötati välja tehisintellekti kaalumiseks, saab seda rakendada mis tahes kiiresti areneva tehnoloogia jaoks. Probleemid on edasiseks uurimiseks laias laastus rühmitatud järgmistesse kategooriatesse:
Iga ülaltoodud kategooria kaalutluste loend on lisatud koos nende võimaluste ja tagajärgedega. Mõned neist on asjakohased AI konkreetsete juhtumite või rakenduste jaoks, samas kui teised on üldised ja platvormi või kasutuse suhtes agnostilised. Ühtegi siin sisalduvat kaalutlust ei tohiks käsitleda prioriteedina ja seetõttu tuleks kõiki uurida.
Kuidas saaks seda raamistikku kasutada?
Seda raamistikku saab kasutada järgmistel viisidel, kuid mitte ainult:
Järgmine tabel on analüütilise raamistiku mõõtmete varajane kujundamine. Sõltuvalt tehnoloogiast ja selle kasutamisest on mõned komponendid olulisemad kui teised. Näited on toodud illustreerimaks, miks iga domeen võib olla oluline; kontekstis vajaks raamistik kontekstuaalselt asjakohast laiendamist. Samuti on oluline teha vahet platvormi arendustel ja üldistel probleemidel, mis võivad ilmneda konkreetsete rakenduste käigus.
Mõõtmed, mida uue tehnoloogia hindamisel arvesse võtta
Esialgne mustand mõõtmetest, mida võib olla vaja uue tehnoloogia hindamisel arvesse võtta | ||
Löögi mõõtmed | Kriteeriumid | Näited selle kohta, kuidas see võib analüüsis kajastuda |
Individuaalne/ise | Kasutajate AI pädevus | Kui pädevad ja süsteemi omadustest teadlikud on tõenäolised kasutajad, kes süsteemiga suhtlevad? Kuidas antakse neile asjakohane kasutajateave ja hoiatused? |
Mõjutatud sidusrühmad | Kes on peamised sidusrühmad, keda süsteem mõjutab (st üksikisikud, kogukonnad, haavatavad, sektori töötajad, lapsed, poliitikakujundajad, spetsialistid)? | |
Valikulisus | Kas kasutajatele on antud võimalus süsteemist loobuda; kas neile tuleks anda võimalus väljundit vaidlustada või parandada? | |
Ohud inimõigustele ja demokraatlikele väärtustele | Kas süsteem võib mõjutada (ja millises suunas) inimõigusi, sealhulgas, kuid mitte ainult, eraelu puutumatust, sõnavabadust, õiglust, diskrimineerimise ohtu jne? | |
Võimalik mõju inimeste heaolule | Kas süsteem võib mõjutada (ja mis suunas) individuaalse kasutaja heaolu (st töö kvaliteet, haridus, sotsiaalne suhtlus, vaimne tervis, identiteet, keskkond)? | |
Inimese tööjõu ümberpaigutamise potentsiaal | Kas süsteemil on potentsiaali automatiseerida inimeste poolt täidetavaid ülesandeid või funktsioone? Kui jah, siis millised on allavoolu tagajärjed? | |
Identiteedi, väärtuste või teadmistega manipuleerimise potentsiaal | Kas süsteem on loodud või potentsiaalselt suuteline manipuleerima kasutaja identiteedi või seatud väärtustega või levitama desinformatsiooni? Kas on võimalik esitada valesid või kontrollimatuid ekspertiisi väiteid? | |
Eneseväärtuse mõõdikud | Kas on survet kujutada idealiseeritud mina? Kas automatiseerimine võiks asendada isikliku eneseteostuse tunnet? Kas töökohal on surve süsteemiga konkureerida? Kas isikliku maine kaitsmine desinformatsiooni eest on raskem? | |
Privaatsus | Kas eraelu puutumatuse kaitsmise kohustus on hajutatud ja kas tehakse mingeid eeldusi selle kohta, kuidas isikuandmeid kasutatakse? | |
Autonoomia | Kas süsteem võib mõjutada inimese autonoomiat, tekitades lõppkasutajate liigset sõltuvust tehnoloogiast? | |
Inimareng | Kas see mõjutab inimarengu võtmeoskuste omandamist, nagu täidesaatvad funktsioonid, inimestevahelised oskused, õppimist mõjutavad tähelepanuaja muutused, isiksuse areng, vaimse tervise probleemid jne? | |
Isiklik tervishoid | Kas on väiteid personaliseeritud tervishoiulahenduste kohta? Kui jah, siis kas need on regulatiivsete standardite kohaselt valideeritud? | |
Vaimse tervise | Kas on olemas suurenenud ärevuse, üksinduse või muude vaimse tervise probleemide oht või suudab tehnoloogia selliseid mõjusid leevendada? | |
Inimese evolutsioon | Kas tehnoloogia võib viia muutusteni inimese evolutsioonis? | |
Löögi mõõtmed | Kriteeriumid | Kirjeldus |
Ühiskond/ühiskondlik elu | Ühiskondlikud väärtused | Kas süsteem muudab põhimõtteliselt ühiskonna olemust või võimaldab normaliseerida varem antisotsiaalseteks peetud ideid või rikub see selle kultuuri ühiskondlikke väärtusi, milles seda rakendatakse? |
Sotsiaalne suhtlus | Kas see mõjutab sisukaid inimkontakte, sealhulgas emotsionaalseid suhteid? | |
Omakapital | Kas rakendus/tehnoloogia tõenäoliselt vähendab või suurendab ebavõrdsust (st majanduslikku, sotsiaalset, hariduslikku, geograafilist)? | |
Rahvastiku tervis | Kas süsteemil on potentsiaali rahvastiku tervisega seotud kavatsusi edendada või õõnestada? | |
Kultuuriline väljendus | Kas kultuurilise omastamise või diskrimineerimise suurenemist on tõenäoline või raskem käsitleda? Kas otsustussüsteemile toetumine võib ühiskonna osad välja jätta või marginaliseerida? | |
Avalik haridus | Kas see mõjutab õpetaja rolle või haridusasutusi? Kas süsteem rõhutab või vähendab õpilaste ebavõrdsust ja digitaalset lõhet? Kas teadmiste või kriitilise arusaamise sisemine väärtus on arenenud või õõnestatud? | |
Moonutatud tegelikkus | Kas meetodid, mida me kasutame tõe väljaselgitamiseks, on endiselt kehtivad? Kas reaalsustaju on ohus? | |
Majanduslik kontekst (kaubandus) | Tööstussektor | Millises tööstussektoris süsteemi kasutatakse (st rahandus, põllumajandus, tervishoid, haridus, kaitse)? |
Ärimudel | Millises ärifunktsioonis süsteemi kasutatakse ja millises võimsuses? Kus süsteemi kasutatakse (era, avalik, mittetulunduslik)? | |
Mõju kriitilistele tegevustele | Kas süsteemi funktsiooni või tegevuse katkemine mõjutaks olulisi teenuseid või kriitilisi infrastruktuure? | |
Kasutuselevõtu hingamine | Kuidas süsteemi juurutatakse (kitsalt organisatsiooni sees vs laialt levinud riiklikult/rahvusvaheliselt)? | |
Tehniline küpsus (TRL) | Kui küps on süsteem tehniliselt? | |
Tehnoloogiline suveräänsus | Kas tehnoloogia suurendab tehnoloogilise suveräänsuse kontsentratsiooni? | |
Tulude ümberjaotamine ja riiklikud fiskaalhoovad | Kas suveräänse riigi põhirollid (st reservpangad) võivad ohtu seada? Kas riigi suutlikkus täita kodanike ootusi ja tagajärgi (st sotsiaalseid, majanduslikke, poliitilisi) paraneb või väheneb? | |
Löögi mõõtmed | Kriteeriumid | Kirjeldus |
Kodanikuelu | Juhtimine ja avalik teenistus | Kas juhtimismehhanisme ja globaalseid juhtimissüsteeme võib mõjutada positiivselt või negatiivselt? |
Uudiste meedia | Kas avalik diskursus muutub tõenäoliselt enam-vähem polariseerituks ja kinnistub elanikkonna tasandil? Kas see mõjutab meedia usaldusväärsust? Kas tavapärased ajakirjanduseetika ja aususe standardid saavad veelgi mõjutatud? | |
Seadus | Kas see mõjutab võimet tuvastada üksikisikuid või organisatsioone, keda vastutusele võtta (st millist vastutust ebasoodsate tulemuste eest algoritmile määrata)? Kas see toob kaasa suveräänsuse (st keskkonna-, fiskaal-, sotsiaalpoliitika, eetika) kaotuse? | |
Poliitika ja sotsiaalne sidusus | Kas on võimalik rohkem juurdunud poliitilisi vaateid ja vähem võimalusi konsensuse saavutamiseks? Kas on võimalik rühmi veelgi marginaliseerida? Kas vastandlikud poliitikastiilid on enam-vähem tõenäolised? | |
Geostrateegiline/ geopoliitiline kontekst | Täpne jälgimine | Kas süsteemid on koolitatud individuaalsete käitumis- ja bioloogiliste andmete põhjal ja kui jah, siis kas neid saab kasutada üksikisikute või rühmade ärakasutamiseks? |
Digitaalne kolonisatsioon | Kas riiklikud või valitsusvälised osalejad suudavad süsteeme ja andmeid kasutada, et mõista ja kontrollida teiste riikide elanikkonda ja ökosüsteeme või kahjustada jurisdiktsiooni kontrolli? | |
Geopoliitiline konkurents | Kas süsteem mõjutab riikide ja tehnoloogiaplatvormide vahelist konkurentsi individuaalsetele ja kollektiivsetele andmetele juurdepääsu nimel majanduslikel või strateegilistel eesmärkidel? | |
Kaubandus ja kaubanduslepingud | Kas süsteemil on mõju rahvusvahelistele kaubanduslepingutele? | |
Ülemaailmsete jõudude muutus | Kas rahvusriikide staatus maailma peamiste geopoliitiliste osalejatena on ohus? Kas tehnoloogiaettevõtted kasutavad kunagi rahvusriikidele reserveeritud võimu ja kas neist saavad iseseisvad suveräänsed osalejad? | |
desinformatsiooni | Kas riiklikel ja valitsusvälistel osalejatel on lihtsam toota ja levitada desinformatsiooni, mis mõjutab sotsiaalset ühtekuuluvust, usaldust ja demokraatiat? | |
Keskkonna | Energia- ja ressursitarbimine (süsiniku jalajälg) | Kas süsteem ja nõuded suurendavad energia- ja ressursitarbimist lisaks rakenduse kaudu saavutatavale tõhususe kasvule? |
Löögi mõõtmed | Kriteeriumid | Kirjeldus |
Andmed ja sisend | Tuvastamine ja kogumine | Kas andmeid ja sisendit koguvad inimesed, automatiseeritud andurid või mõlemad? |
Andmete päritolu | Kas need andmed on esitatud, vaadeldud, sünteetilised või tuletatud? Kas päritolu kinnitamiseks on olemas vesimärgikaitsed? | |
Andmete dünaamiline olemus | Kas andmed on dünaamilised, staatilised, aeg-ajalt uuendatavad või reaalajas uuendatavad? | |
õigus | Kas andmed on omandiõigusega kaitstud, avalikud või isiklikud (st seotud tuvastatavate isikutega)? | |
Isikuandmete tuvastatavus | Kui isikuandmed on anonüümsed või pseudonüümsed? | |
Andmete struktuur | Kas andmed on struktureeritud, poolstruktureeritud, keeruka struktureeritud või struktureerimata? | |
Andmete vorming | Kas andmete ja metaandmete vorming on standarditud või mittestandardiseeritud? | |
Andmete ulatus | Mis on andmestiku skaala? | |
Andmete asjakohasus ja kvaliteet | Kas andmekogum sobib eesmärgile? Kas valimi suurus on piisav? Kas see on piisavalt esinduslik ja terviklik? Kui mürarikkad on andmed? Kas see on veaohtlik? | |
MUDEL | Teabe kättesaadavus | Kas teave süsteemi mudeli kohta on saadaval? |
AI mudeli tüüp | Kas mudel on sümboolne (inimese loodud reeglid), statistiline (kasutab andmeid) või hübriid? | |
Modelliga seotud õigused | Kas mudel on avatud lähtekoodiga või patenteeritud, enda või kolmanda osapoole hallatav? | |
Üksik või mitu mudelit | Kas süsteem koosneb ühest mudelist või mitmest omavahel seotud mudelist? | |
Generatiivne või diskrimineeriv | Kas mudel on generatiivne, diskrimineeriv või mõlemad? | |
Mudeli ehitamine | Kas süsteem õpib inimeste kirjutatud reeglite alusel, andmete põhjal, juhendatud õppimise või tugevdava õppe kaudu? | |
Mudeli areng (AI triiv) | Kas mudel areneb ja/või omandab võimeid valdkonna andmetega suhtlemisel? | |
Liit- või keskõpe | Kas mudelit õpetatakse tsentraalselt või mitmes kohalikus serveris või "servaseadmes"? | |
Arendus ja hooldus | Kas mudel on universaalne, kohandatav või kohandatud AI-näitleja andmetega? | |
Deterministlik või tõenäosuslik | Kas mudelit kasutatakse deterministlikul või tõenäosuslikul viisil? | |
Mudeli läbipaistvus | Kas kasutajatele on kättesaadav teave, mis võimaldab neil mõista mudeli väljundeid ja piiranguid või kasutada piiranguid? | |
Arvutuslik piirang | Kas süsteemil on arvutuslikke piiranguid? Kas võime ennustada võimekuse hüppeid või skaleerimisseadusi? | |
Löögi mõõtmed | Kriteeriumid | Kirjeldus |
Ülesanne ja väljund | Süsteemi poolt teostatud ülesanne(d). | Milliseid ülesandeid süsteem täidab (st tuvastamine, sündmuste tuvastamine, prognoosimine)? |
Ülesannete ja tegevuste kombineerimine | Kas süsteem ühendab mitu ülesannet ja tegevust (st sisu genereerimise süsteemid, autonoomsed süsteemid, juhtimissüsteemid)? | |
Süsteemi autonoomia tase | Kui autonoomsed on süsteemi tegevused ja millist rolli mängivad inimesed? | |
Inimese kaasatuse määr | Kas tehisintellektisüsteemi üldise tegevuse ja võime otsustada, millal ja kuidas süsteemi igas olukorras kasutada, on kaasatud ka inimkond? | |
Põhirakendus | Kas süsteem kuulub põhirakenduste valdkonda, nagu inimkeeletehnoloogia, arvutinägemine, automatiseerimine ja/või optimeerimine või robootika? | |
Hindamine | Kas süsteemi väljundi hindamiseks või ettenägematute esilekerkivate omadustega tegelemiseks on olemas standardid või meetodid? |
Võti deskriptorite allikad
tavaline tekst:
Gluckman, P. ja Allen, K. 2018. Heaolu mõistmine kiirete digitaalsete ja sellega seotud muutuste kontekstis. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
Halb tekst:
OECD. 2022. aasta. OECD AI süsteemide klassifitseerimise raamistik. OECD Digital Economy Papers, nr 323, OECD Publishing, Pariis. https://oecd.ai/en/classification
kursiivkirjas:
Uued deskriptorid (mitmest allikast)
Edasine tee
Olenevalt sellele aruteludokumendile antud vastusest moodustab ISC ekspertide töörühma, et edasi arendada või muuta ülaltoodud analüütilist raamistikku, mille abil sidusrühmad saaksid igakülgselt vaadata platvormide või kasutusmõõtmete olulisi arenguid. Töörühm oleks distsiplinaarselt, geograafiliselt ja demograafiliselt mitmekesine, eksperditeadmised ulatuksid tehnoloogia hindamisest avaliku poliitikani, inimarengust sotsioloogia ning tuleviku- ja tehnoloogiauuringuteni.
Selle aruteludokumendiga tutvumiseks külastage veebisaiti Council.science/publications/framework-digital-technologies
Tänusõnad
Selle dokumendi väljatöötamisel on konsulteeritud paljude inimestega, mille koostasid ISC president Sir Peter Gluckman ja Hema Sridhar, endine kaitseministeeriumi juhtivteadur ja nüüdne vanemteadur Aucklandi ülikoolist Uus-Meremaal.
Eelkõige täname Lord Martin Reesi, endist Kuningliku Seltsi presidenti ja Cambridge'i Ülikooli eksistentsiaalsete riskide uurimise keskuse kaasasutajat; professor Shivaji Sondhi, Oxfordi ülikooli füüsikaprofessor; professor K Vijay Raghavan, India valitsuse endine teaduslik nõunik; Amandeep Singh Gill, ÜRO peasekretäri tehnoloogiasaadik; dr Seán Óh Éigeartaigh, Cambridge'i ülikooli eksistentsiaalsete riskide uurimiskeskuse tegevdirektor; Amanda-June Brawner, vanempoliitikanõunik ja Ian Wiggins, rahvusvaheliste suhete direktor, Royal Society UK; dr Jerome Duberry, dr Marie-Laure Salles, direktor, Genfi Graduate Institute; hr Chor Pharn Lee, strateegiliste futuuride keskus, peaministri büroo, Singapur; Barend Mons ja dr Simon Hodson, andmekomitee (CoDATA); prof Yuko Harayama, Jaapan; professor Rémi Quirion, INGSA president; Dr Claire Craig, Oxfordi ülikool ja endine valitsuse teadusbüroo prognoosijuht; ja prof Yoshua Bengio, ÜRO peasekretäri teaduslik nõuandekogu ja Université de Montréal. Kontrollnimekirja lähenemisviisi üldiselt toetati ja rõhutati ISC mis tahes tegevuse õigeaegsust.
Pilt: adamichi iStockis