
Mākslīgais intelekts: aizliegt nevar atļaut
Eiropas Parlamenta deputāts (Renew Europe), Igaunijas premjerministrs (2005-2014) un ES digitālo lietu komisārs (2009-2014) Andruss Ansips ar šo runu 13. oktobrī piedalījās Ivara Ijaba rīkotajā konferencē Rīgā par mākslīgo intelektu sabiedrībā, izglītībā un zinātnē.
“Kad cilvēki runā par mākslīgo intelektu (AI), dažādiem cilvēkiem ir ļoti atšķirīgas sajūtas, viņi domā par dažādām lietām.
Dažiem mākslīgais intelekts asociējas ar darba ražīguma palielināšanu vai cilvēku dzīvību glābšanu. Piemēram, jaunu zāļu radīšana kļūst daudz ātrāka un lētāka, pateicoties mākslīgajam intelektam, kas spēj atlasīt piemērotus zāļu kandidātus. Darbu, kas agrāk prasīja tūkstošiem eksperimentu, tagad mākslīgais intelekts var paveikt dažu sekunžu laikā.
Uz AI balstīta runas atpazīšanas sistēma spēj noteikt, vai cilvēkam ir insults vai infarkts. Medicīnisko attēlu analīzes automatizēšana ļauj noteikt precīzāku diagnozi. Ārstam ir nepieciešamas vismaz trīs stundas, lai pārlūkotu medicīniskos veselības datus, lai noteiktu iespējamās alerģiskās reakcijas, ar precizitāti 75 procenti. Mākslīgais intelekts to var izdarīt trīs sekundēs ar 95 procentu precizitāti.
Tātad pirmā cilvēku grupa galvenokārt domā par panākumiem un ieguvumiem. Viņi sapņo par labklājību. Citi cilvēki uztraucas par savu darbu. Viņi baidās, ka mākslīgais intelekts vai uz mākslīgo intelektu balstīti roboti atņems viņu darbavietas. Protams, dažas darbavietas izzudīs, taču vēsturiski progress vienmēr ir radījis vairāk darbavietu, nekā atņēmis. Uz mākslīgo intelektu balstītiem risinājumiem ir jāpalīdz cilvēkiem, nevis jākļūst par konkurentiem vai pretiniekiem.
Tomēr, protams, tiem, kas ir noraizējušies par savām darbavietām, ir pamats uztraukties. Uz mākslīgo intelektu balstīti lielie valodu modeļi spēj ātri apgūt jaunas valodas, tostarp programmēšanas valodas un rakstības stilus. Tas nozīmē, ka tie varētu pārņemt arī kodu rakstītāju darbu. Sabiedrībai ir jāpalīdz tiem, kuri, iespējams, zaudēs darbu: mūžizglītībai jākļūst par normu.
Treškārt, kad daži cilvēki domā par mākslīgo intelektu, viņi galvenokārt domā par “singularitāti”. Dienu, kad datori kolektīvi kļūs gudrāki par cilvēci. Turklāt, protams, datori kolektīvi zina, ka aprēķinu ātrums ir lielāks, kad temperatūra ir zemāka, un tas nozīmē, ka šis mākslīgais intelekts iznīcina atmosfēru, kas aizsargā mūsu planētu. Un tas ir cilvēces gals. Šie paši cilvēki zina, ka singularitāte nenāks uzreiz; līdz pasaules galam notiks daudz sliktu lietu. Mēs esam redzējuši filmas, kurās tiek palaists dronu pulks, un katrs drons, izmantojot sejas atpazīšanu, precīzi uz pareizās pieres norāda 3 gramus sprāgstvielu. Mēs saskaramies arī ar dziļiem viltojumiem - reālistiskām ziņām par notikumiem, kas nekad nav notikuši. Tas ir biedējoši. Protams, politiķiem ir jāiejaucas.
Un politiķi iejaucas.
Daži politiķi patiešām vēlas pasargāt cilvēci no ļaunā mākslīgā intelekta. Citi saskata iespēju gūt politisku labumu, izmantojot piesardzības principus, lai aizsargātu cilvēci. Viņi gribētu noteikt aizliegumus un aizliegt mūsu labā. Jūs visi atceraties Vispārīgās datu aizsardzības regulas (GDPR) dzimšanu. Bija daudz kritizētāju, taču rezultāts bija negaidīts. Drīz pēc tam vairāk nekā 100 valstis visā pasaulē kopēja ES GDPR, jo visur bija nepieciešams aizsargāt cilvēku privātumu. Daudzas valstis vēlējās kopēt Amerikas datu aizsardzības regulu, taču Amerikas Savienotajās Valstīs nebija šāda federāla likuma. GDPR kļuva par globālu standartu. Tas nāca par labu visiem. Īpaši mazajiem uzņēmumime, jo tiem bija gandrīz neiespējami izprast toreizējos 28 dažādos datu aizsardzības likumus, kas ļoti sarežģīja darbības paplašināšanu Eiropas Savienībā.
GDPR bija ieguvums arī globāliem tehnoloģiju uzņēmumiem, jo tā vietā, lai tērētu resursus 28 dažādu noteikumu izpratnei, tie tagad var koncentrēties uz sava produkta kvalitātes uzlabošanu. GDPR panākumi ir iedrošinājuši daudzus politiķus, kuri tolaik kritizēja GDPR, radīt savus globālos standartus. Tomēr diemžēl paralēles, meklējot globālus standartus mākslīgajam intelektam, nav pārāk aktuālas. GDPR tika balstīta uz ES dalībvalstīs spēkā esošajiem datu aizsardzības noteikumiem. Dažās valstīs personas datu aizsardzības līmenis bija jāsamazina, bet dažās - jāpaaugstina. GDPR ir vienkārši vidējais rādītājs no Eiropā spēkā esošajiem datu aizsardzības noteikumiem.
Mākslīgā intelekta regulējums ir daudz sarežģītāks, jo dalībvalstīs nav spēkā esošo noteikumu. Ir ļoti grūti radīt noteikumus, pamatojoties uz to, kas vidēji nepastāv. Tomēr ir vērojama ambīcija noteikt globālus standartus attiecībā uz mākslīgo intelektu.
Eiropas Parlaments ierosināja Eiropas Komisijai izsludināt piecu gadu moratoriju sejas atpazīšanas sistēmu izstrādei. Ierosinātāji cerēja piecu gadu laikā izstrādāt nepieciešamos tiesību aktus, kas pēc tam kļūtu par globālu standartu, un izstrādātājiem pēc piecu gadu pārtraukuma būtu jāsāk izstrādāt sejas atpazīšanas sistēmas. Kurš, pie velna, gaidīs piecus gadus, kamēr tiks izstrādāti noteikumi!
Tomēr Komisija šādu priekšlikumu neiesniedza, un izstrādātāji negaidīja, bet ideja par aizliegumu dzīvoja Parlamentā. Sākotnējais grandiozais moratorijs tika samazināts līdz aizliegumam izmantot sejas atpazīšanas sistēmas reāllaikā publiskās vietās, kam Eiropas Komisija un dalībvalstis nav gatavas piekrist. Auksta duša aizlieguma atbalstītājiem bija Francijas parlamenta lēmums atļaut uz mākslīgo intelektu balstītu sejas atpazīšanas sistēmu izmantošanu reāllaikā publiskās vietās drošības nolūkos Parīzes olimpisko spēļu laikā.
Dažās Eiropas Savienības dalībvalstīs ar aizliegumiem tika sagaidīts ChatGPT, un Google savu līdzīgo risinājumu Eiropas lietotājiem nepiedāvāja, jo vēlas redzēt, kādi ierobežojumi un ierobežojumi tiks noteikti mākslīgā intelekta attīstībai ES.
Bailes no jaunā nav raksturīgas tikai Eiropas politiķiem. Pēc ChatGPT izveides tūkstošiem zinātnieku un citu ievērojamu personu Īlona Maska (Elon Musk) vadībā aicināja noteikt sešu mēnešu moratoriju vispārējā mākslīgā intelekta attīstībai.
Vēsturē moratorijs tehnoloģiju attīstībai ir bijis efektīvs.
Pēc tam, kad Pols Bergs radīja pirmo rekombinantās DNS molekulu, viņš aicināja zinātniekus visā pasaulē noteikt viena gada moratoriju visiem ar rekombinanto DNS saistītajiem darbiem. Gēnu inženierijas straujā attīstība radīja riskus un bažas, ka iespēja pievienot koli baktērijām vēzi izraisošas īpašības izraisīs vēzi visām dzīvajām radībām visā pasaulē. Asilomaras konferencē 1975. gadā tika panākta vienošanās par gēnu inženierijas drošības noteikumiem. Taču pats Nobela prēmijas laureāts Pols Bergs trīsdesmit gadus vēlāk piekrita, ka tas, kas bija iespējams laikā, kad zinātni galvenokārt finansēja valsts un ko galvenokārt veica universitātēs un akadēmiskās pētniecības iestādēs, mūsdienās vairs nav iespējams. Tehnoloģiju attīstību tagad galvenokārt finansē privātais sektors, un starptautiskajā sacensībā piedalās gan demokrātiskas, gan autoritāras valstis. Vai mēs varētu uzticēties Krievijai, kas nogalina nevainīgus cilvēkus Ukrainā, ka tā apstiprinās, ka moratorija laikā neattīstīs nekādas tehnoloģijas? Droši vien nē. Praktiski viss, ko cilvēce ir radījusi, ir izmantots gan labiem, gan sliktiem mērķiem. Šodien moratorijs varētu novest pie tā, ka tie, kuru nodomi, iespējams, nav labi, varētu panākt pārējos. Tāpēc Maska iniciatīva par moratoriju ātri vien nomira.
Lielākajai daļai mākslīgā intelekta izstrādātāju ir savi ētikas kodeksi mākslīgā intelekta izstrādē. Vismaz Eiropā mēs esam izvirzījuši mērķi radīt uz cilvēku, nevis uz valsti vai mākslīgo intelektu orientētu AI. Tas nozīmē, ka AI vienmēr jāpaliek cilvēka kontrolē. Godīgi sakot, tā tas jau ir - cilvēki nosaka ietvaru, kurā AI darbojas.
Tomēr mēs precīzi nezinām, cik miljonus cilvēkam nemanāmu savienojumu starp dažādiem elementiem var izveidot pašmācīšanās programmas.
Mēs varētu arī jautāt vispārīgāk - cilvēki ir radījuši ekonomiku, bet vai ekonomika ir cilvēku kontrolē? Ja tā ir cilvēka kontrolē, tad kāpēc mēs atkal un atkal saskaramies ar dziļām ekonomikas krīzēm?
Ir bezjēdzīgi mēģināt pilnībā aizliegt esošās vai strauji augošās tehnoloģijas. Ir lietderīgi regulēt dažas šo tehnoloģiju jomas. Mēs nedomājam aizliegt nažus kā priekšmetus. Nažus var izmantot daudziem saprātīgiem mērķiem, piemēram, kartupeļu mizošanai vai desas sagriešanai. Taču cilvēka nogalināšana ar nazi, ja vien tā nav pašaizsardzība, ir jāaizliedz.
Pārmērīgs regulējums kādā jomā var viegli nogalināt inovācijas. Dažu nepamatotu aizliegumu noteikšana var apturēt noteiktu tehnoloģiju attīstību Eiropā. Ja reālā laika sejas atpazīšanas sistēmas sabiedriskās vietās tiks pilnībā aizliegtas, šīs tehnoloģijas attīstība Eiropā beigsies. Ja tehnoloģijai nav potenciālo klientu, nav finansējuma un nav arī attīstības. Ar aizliegumiem ir jābūt piesardzīgiem. Eiropieši bieži jautā, kāpēc Amerikā ir Google, Facebook un Apple un kāpēc mēs tos neizveidojām. Es nevēlos, lai nākotnē cilvēki sāktu jautāt, kāpēc mākslīgais intelekts attīstās Amerikā un kāpēc tas neattīstās šeit. Viena no atbildēm ir tāda, ka politiķi baidījās, bija nobijušies un balsoja pret to.
Parasti nepieciešamība pieņemt lēmumus rodas tad, kad lietas neattīstās vai var neattīstīties pareizajā virzienā. Un parasti lēmumi jāpieņem ierobežotu resursu, tostarp ierobežotu laika un informācijas resursu, apstākļos. Pareizs zinātnieks vēlas būt simtprocentīgi pārliecināts par savu apgalvojumu. Viņi neapmierinās ar to, ka par kādu parādību zina pietiekami daudz, piemēram, 90 procentus.
Viņi vēlas turpināt pētniecību pat tad, ja jau zina 99 procentus vai 99,99 procentus iespējamās informācijas. Ārstiem šāda laika nav.
Kad pacients atrodas uz operāciju galda un ārsts saskaras ar nepatīkamiem pārsteigumiem, viņiem ir jāpieņem lēmumi un jārīkojas ātri, jo laiks ir nežēlīgs. Dažkārt līdzīgā situācijā atrodas arī politiķi. Viņiem nākas riskēt un pieņemt lēmumus ierobežotu resursu apstākļos, jo neizlēmībai var būt liktenīgas sekas.
Būtu jāatļauj sejas atpazīšana, pamatojoties uz mākslīgo intelektu, noteiktās šaurās situācijās ar tiesas atļauju. Piemēram, meklēt pazudušu bērnu un viņa nolaupītāju, izmantojot tās pašas drošības kameras, kas ir uzstādītas visās Eiropas pilsētās. Vai arī varētu vērsties pie tiesneša, lai, izmantojot mākslīgo intelektu, meklētu teroristu, kas plāno detonēt bumbu. Ja šāda atļauja tiek saņemta, tad viena konkrēta persona tiek meklēta reāllaikā no pilsētvides. Es neredzu nekādas Ķīnas novērošanas sabiedrības pazīmes. Bieži vien pamattiesības ir pretrunā viena ar otru. Cilvēkam ir tiesības uz privātumu, bet viņam ir arī tiesības uz dzīvību. Un abas tiesības ir jāaizsargā.
Protams, mākslīgais intelekts ir noderīgs noteiktiem uzdevumiem un būs liels palīgs cilvēkiem. Tomēr maz ticams, ka tuvākajā nākotnē mākslīgais intelekts kļūs gudrāks par cilvēku. ChatGPT ir par vispārējām zināšanām, ko cilvēki ir radījuši un kāda informācija ir pieejama internetā. Cilvēka smadzenes nav saistītas tikai ar elektriskiem signāliem, tās ir arī ķīmiskas vielas.
Cilvēks spēj domāt jēdzienu kategorijās, bet, piemēram, jēdziena "Rīgas balzams" vai "šprotes eļļā" aprakstīšana datoram prasa nesalīdzināmi vairāk laika un enerģijas nekā latvietim un igaunim.
Mēs katru dienu uzņemamies aprēķinātus riskus. Mēs zinām, ka braukt ar automašīnu ir bīstami, bet mēs novērtējam riskus un tomēr sēžamies pie stūres. Risks nāk līdz ar tehnoloģiju attīstību.
Es gribētu, lai mūsu politiķi visur spētu adekvāti novērtēt riskus. Es gribētu, lai mums pietiktu drosmes neapmierināties ar ērtiem aizliegumiem un pieņemt tādus lēmumus, kas veicina tehnoloģisko progresu.”