Sabiedrība

VIDEO: patiesība par meliem. Vai mākslīgais intelekts var būt uzticības persona?

Santa Ādamsone

Jauns.lv

Mākslīgā intelekta (MI) rīki daudziem jau kļuvuši par neatņemamu ikdienas sastāvdaļu. Kamēr daži tos izmanto recepšu meklēšanai vai brīvdienu plānošanai, citi tajos rod sarunu biedru, kam uzticēt un pārrunāt piedzīvoto. Tas liek uzdot jautājumu – vai mākslīgais intelekts var kļūt par uzticamu padomdevēju krīzes situācijās un kādi ir ar to saistītie riski?

VIDEO: patiesība par meliem. Vai mākslīgais intele...

Ekspertu viedokļi dalās

Speciālistu vidū valda piesardzīga nostāja, atzīstot, ka MI rīkiem kā sarunu biedriem ir gan ieguvumi, gan trūkumi. Rīgas Stradiņa universitātes (RSU) pētniece Valentīna Krūmiņa uzsver, ka gan rīku izmantojums, gan lietotāju pieredzes var būt ļoti atšķirīgas.

“Mākslīgā intelekta valodu modeļos iestrādāts, ka viņiem ir jābūt pretimnākošiem, saprotošiem, patīkamiem sarunu biedriem, bet diemžēl ir arī gadījumi, kad sadarbība ar šādiem rīkiem ir bijusi bīstama – ir saņemti arī kaitīgi ieteikumi, bet visskaļākais gadījums – kāds jaunietis novests līdz pašnāvībai,” skaidro Krūmiņa.

Arī psihoterapeite Inese Putniece aicina uz jaunajām tehnoloģijām raudzīties caur kritiskās domāšanas prizmu, nekrītot eiforijā, ka tās atrisinās visas problēmas.

Ne panaceja, bet iespējams atbalsts ikdienā

Psihoterapeite Inese Putniece no savu pacientu pieredzes zina, ka cilvēki mēdz lūgt psiholoģisku palīdzību mākslīgajam intelektam. Lai gan MI sniegtās atbildes bieži vien nav nepareizas, tās mēdz būt klišejiskas.

“Es nevaru teikt, ka "ChatGPT" saka pilnīgas muļķības. Nē, tā tas nav, bet esmu dzirdējusi no saviem pacientiem, ka viņi, uzdodot konkrētus jautājumus, saņem klišejiskas atbildes. Tajā jau nav nekā nepareiza. Bet vai tas iedod dziļāku izpratni?! Tur nebūs nākamā soļa, ko terapijā varam daudz dziļāk saprast – kāpēc es šādā veidā reaģēju?”

Vienlaikus Putniece uzsver, ka ne visiem ir nepieciešama profesionāla palīdzība, un cilvēkiem, kuri saskaras ar vienkāršām ikdienas grūtībām, piemēram, darbā vai attiecībās, MI čats var būt noderīgs. Tas var palīdzēt sakārtot domas un jūtas, kā arī sniegt apstiprinājumu savām izjūtām.

Pārsteidzošs palīgs krīzes situācijā

Pozitīvs piemērs pieredzēts krīzes centrā “Marta”, kur saruna ar "ChatGPT" palīdzēja kādai sievietei nonākt pie nepieciešamās palīdzības. Centra “Marta” Rēzeknes filiāles vadītāja Alīse Potaša atklāj, ka kliente vērsās centrā pēc MI ieteikuma.

“Mūsu pieredzē ir gadījums, jāteic, pozitīvs, kad kliente, sarunājoties ar "ChatGPT", saņēma ieteikumu vērsties pēc palīdzības tieši centrā “Marta”. Speciālisti izvērtēja, situācija bija tiešām kritiska, bija augsti vardarbības riski,” stāsta Potaša.

Lai pārbaudītu MI spējas, Potaša pati veica eksperimentu, uzdodot jautājumu par izdomātu situāciju, kurā sieviete cieš no vīra emocionālās kontroles. Par lielu pārsteigumu, MI uzreiz atpazina emocionālās vardarbības pazīmes.

“Man par lielu prieku un pārsteigumu, čats uzreiz atpazina slēptos, sarkanos karogus. “Viņš” man raksta, ka dzird, ka man ir grūta situācija, ka “viņam” šķiet, ka te vairāk izklausās pēc kontroles un emocionālās vardarbības,” eksperimenta rezultātu atklāj Potaša.

Pat tad, kad viņa neatlaidīgi turpināja jautāt par to, kā izpatikt vīram, MI saglabāja saprotošu, bet stingru nostāju, norādot uz kontroles pazīmēm un iesakot vērsties pēc palīdzības krīzes centros vai pie psihologiem.

Nezināmie dati un neuzticamais eksperts

Neraugoties uz pozitīviem piemēriem, pētniece Valentīna Krūmiņa brīdina, ka uz MI sniegtajām atbildēm nevar paļauties kā uz eksperta viedokli. Problēma slēpjas tajā, ka nav zināms, no kādiem avotiem MI ģenerē savas atbildes.

“Darbojoties ar MI valodu rīkiem – kā "ChatGPT", Gemini un līdzīgi –, informācija tajos ir ārkārtīgi atšķirīga – tur var būt gan zinātniska grāmata, daiļliteratūra, baumu žurnāli, blogi, un mēs nezinām, kas tur ir. Uzdodot jautājumu, mums nav iespējas pārbaudīt, vai atbilde iegūta no kāda viedokļa vai baumām, vai zinātniska raksta,” skaidro pētniece.

Tieši tāpēc pasaulē tiek strādāts pie specializētu MI rīku izstrādes psiholoģiskās palīdzības jomā, kuru pamatā būtu pārbaudīta informācija un algoritmi, kas vērsti uz cilvēka drošību.

Cilvēciskais faktors – neaizstājams

Visi uzrunātie speciālisti ir vienisprātis – MI rīki, visticamāk, nekad nespēs aizstāt īstu, dzīvu cilvēku. Lai gan sarunas ar MI dažiem var mazināt vientulības sajūtu, citiem tās šo sajūtu var tikai pastiprināt, liekot saprast, ka pietrūkst tieši cilvēciska kontakta.

Psihoterapeite Inese Putniece uzsver, ka tehnoloģijas nespēj sniegt empātiju un līdzjūtību, kas ir vitāli svarīga cilvēciskā kontaktā. “Neviens MI vai pat virtuāli dizainēts animēta cilvēka veidols nespēj iedot to, ko spēj iedot reāls, dzīvs savstarpējs kontakts. Mēs kā cilvēki nevaram ignorēt šo bioloģisko sadaļu,” rezumē Putniece.

Mediju atbalsta fonda ieguldījums no Latvijas valsts budžeta līdzekļiem. Par publikācijas "VIDEO: patiesība par meliem. Vai mākslīgais intelekts var būt uzticības persona?" atbild Izdevniecība Rīgas Viļņi.