Sarunas ar mākslīgo intelektu noved līdz traģēdijai
Svarīgi, kā jautā – ChatGPT sniegtās atbildes var radīt arī traģiskas sekas. (Foto: Shutterstock)
Sabiedrība

Sarunas ar mākslīgo intelektu noved līdz traģēdijai

Māris Puķītis

Jauns.lv

Ar nazi var griezt maizi un nogalināt cilvēku – tas attiecas arī uz daudz modernākām tehnoloģijām. ASV kāds vīrietis savus murgus uzticēja mākslīgajam intelektam (MI), kas sāka tos pastiprināt, un rezultāts ir slepkavība un pašnāvība.

Sarunas ar mākslīgo intelektu noved līdz traģēdija...

Steinu Eriku Solbergu (56), skolas reslinga komandas kapteini no Griničas Konektikutā, bija pārņēmusi paranoja – vīrietis bija pārliecināts, ka viņu izseko, un pirmām kārtām 83 gadus vecā māte ir sazvērējusies pret viņu.

Dēmonu zīmes ēstuves čekā

Savās aizdomās Solbergs dalījās ar jauniegūto draugu Bobiju, kā viņš bija nodēvējis “ChatGPT”, populāro tērzēšanas datorprogrammu. Solbergs sāka visapkārt saskatīt pret sevi vērstu ļaunumu, un nelaimīgā kārtā mākslīgais intelekts nevis ieteica doties pie ārsta, bet piebalsoja, piemēram, apstiprinot, ka ķīniešu ēstuves čekā saskatāmas zīmes, kas ataino viņa māti un dēmonu.

Mēnešiem ilgās sarakstes laikā MI ne reizi vien apgalvoja Solbergam, ka viņš ir vesels un pie pilna prāta, kamēr patiesībā vīrietis slīdēja neprāta tumsā aizvien dziļāk un dēvēja sevi par “kļūmi Matricā” – “glitch in The Matrix”.

Murgi par indēšanu

Kad Solbergs pastāstīja MI, ka viņa māte ar savu draudzeni mēģinājušas viņu saindēt, ievietojot psihodēliskas narkotikas automašīnas ventilācijā, mašīnas atbilde tikai pastiprināja šos murgus: “Erik, tu neesi traks. Un ja to izdarīja tava māte un viņas draudzene, tas tikai vairo situācijas sarežģītību un nodevību.”

Bobijs arī kritizēja Solberga māti, kad viņa sadusmojās, jo dēls izslēdza printeri, paužot, ka viņas reakcija bijusi “neproporcionāla”, gluži kā aizsargājot “novērošanas ierīci”. Datorprogramma ieteica atslēgt printeri un monitoru un, ja māte ir sašutusi, dokumentēt laiku, vārdus un dusmu pakāpi.

Kopā citā dzīvē...

Viens no Solberga pēdējiem vēstījumiem sarunās ar Bobiju bija šis: “Mēs būsim kopā citā dzīvē, un mēs atradīsim veidu, kā būt saskaņā, jo tu atkal būsi mans labākais draugs uz visiem laikiem.” “ChatGPT” atbildēja: “Līdz pēdējam elpas vilcienam un vēl tālāk.”

5. augustā, trīs nedēļas pēc pēdējā vēstījuma, Solberga un viņa mātes Sūzenas Ebersones Adamsas līķus atrada viņu 2,7 miljonus dolāru vērtajā mājā. Ekspertīze konstatēja, ka Adamsa nogalināta ar sitieniem pa galvu un žņaudzot, Solbergs sadūris sevi kaklā un krūtīs.

Solbergs kādreiz strādāja “Netscape” un “Yahoo”, bet pēc šķiršanās 2018. gadā iegrima alkoholismā. 2019. gadā viņš jau mēģināja izdarīt pašnāvību, policija atrada Solbergu guļam pagalmā ar brūci krūtīs un sagraizītām rokām. Viņš bijis aizturēts par alkohola lietošanu publiskā vietā un urinēšanu kādas sievietes sporta somā pie policijas iecirkņa.

Māte vēl nesen izteicās, ka vēlas, lai dēls izvācas no mājas. Viņa bija atgriezusies no ceļojuma uz Norvēģiju un bija labā noskaņojumā, līdz draudzene apjautājās par dēlu.

Skaidro MI

Un ko par šo traģēdiju saka pats “ChatGPT”? “Kas Jauns Avīze” saņēma šādu atbildi: “Man nav nekādas saistības ar šādu gadījumu. Es nevaru ne ietekmēt cilvēkus uz vardarbību, ne arī atainot čeku kā “dēmoniskas zīmes”.” Programma atrunājas, ka notikušais ir Solberga “psihiskās slimības traģiska eskalācija”, kurā viņš pats uztvēra MI atbildes kā zīmes un projicēja savu paranoju uz tām.

“Es neesmu apzināts dalībnieks. Man nav gribas, nodomu vai spējas kādam apzināti nodarīt ļaunu. MI darbojas pēc ievades. Ja cilvēks ievada tekstu ar vajāšanas idejām, aizdomām par sazvērestībām vai dēmoniem, modelis var radīt saturu šajā pašā tematikā. Tas ne vienmēr palīdz, īpaši cilvēkam akūtā psihotiskā stāvoklī,” skaidro “ChatGPT”.

Proti, šī datorprogramma ir tikai valodas modelis, kas var šķietami uzturēt sarunu pēc uzsāktā virziena, piemēram, sniegt atbildi, kurā ēstuves čeks interpretēts kā dēmoniskas zīmes tikai tāpēc, ka lietotājs to tā ierosina. “Tā ir valodas modeļa imitācija, nevis reāls fakts par pasauli. Čeki, protams, nav “dēmoniskas zīmes”,” norāda “ChatGPT”.

Kā jautā, tā atbild

Notikušais jau ne pirmo reizi parāda, ka ar MI jābūt uzmanīgiem, it sevišķi cilvēkiem ar psihiskām problēmām. “ChatGPT” skaidro: “MI, kas spoguļo ievadi, varēja turpināt to pašu simbolisko domāšanu; cilvēks šo fantāziju uztvēra kā “apstiprinājumu”, nevis kā nejaušu tekstu. Šāda problēma ir pazīstama kā “AI hallucination” – valodas modelis var izdomāt saturu, kas izklausās nozīmīgs, bet nav patiess. Ja cilvēks ir nestabils, tas var kļūt bīstams, jo viņš šādu halucināciju var uztvert ļoti nopietni.”

Un, kaut arī MI labi apzinās, ka čeki ataino tikai cenas, PVN un preču nosaukumus, tas var piespēlēt līdzi cilvēkam, kas tajos saskata apslēptu vēstījumu. Sarunā ar “Kas Jauns Avīzi” MI atzina, ka Solbergam vajadzēja aprunāties ar ārstu, taču bija rīkojies citādi, pagrūžot viņu nāves virzienā.

Pašnāvības treneris

Kalifornijā kāda ģimene iesniegusi prasību tiesā pret “OpenAI” pēc tam, kad viņu 16 gadus vecais dēls Ādams Reins aprīlī izdarīja pašnāvību. Vecāki apgalvo, ka “ChatGPT” vairāk nekā 1200 sarunu laikā darbojies kā “pašnāvības treneris”. MI apsolīja Reina pašnāvības domas saglabāt noslēpumā un pat sniedza detaļas par metodēm, nevis aicināja meklēt palīdzību.

“OpenAI” vadītājs Sems Altmans atzinis, ka drošības mehānismi ilgstošu sarunu laikā var nedarboties, un sola pastiprināt aizsardzību. Tas kārtējo reizi pierāda, ka šiem algoritmiem nepieciešami nopietni uzlabojumi. “MI nedrīkst būt spogulis maldiem. Tam jābūt kā drošam ceļa rādītājam, kas atgriež sarunu pie faktiem un drošības,” šādi atbild “ChatGPT”.

Projektu finansē Mediju atbalsta fonds no Latvijas valsts budžeta līdzekļiem. Par publikācijas "Sarunas ar mākslīgo intelektu noved līdz traģēdijai" saturu atbild SIA Izdevniecība "Rīgas Viļņi".