Viņš uzvaicāja "ChatGPT" par sevi un uzzināja, ka esot slepkava
foto: dpa/picture-alliance/Scanpix
Kāds lietotājs no Norvēģijas vārdā Arvs Hjalmarss Holmens, kurš sevi dēvē par “parastu cilvēku” un nav publiski pazīstams savā valstī, lūdza “ChatGPT” pastāstīt, ko tas zina par viņu. /Ilustratīvs attēls/
Trakā pasaule

Viņš uzvaicāja "ChatGPT" par sevi un uzzināja, ka esot slepkava

Zanda Rītuma

Jauns.lv

Arvs Hdžalmars Holmans (Arve Hjalmar Holmen) no Norvēģijas vēlējās noskaidrot, vai “ChatGPT” kaut ko zina par viņu, taču saņēma pretī izdomātu šausmu stāstu.

Viņš uzvaicāja "ChatGPT" par sevi un uzzināja, ka ...

Kāds lietotājs no Norvēģijas vārdā Arvs Hdžalmars Holmans, kurš sevi dēvē par “parastu cilvēku” un nav publiski pazīstams savā valstī, lūdza “ChatGPT” pastāstīt, ko tas zina par viņu. Atbildē viņš saņēma šokējošu apgalvojumu — ka esot nogalinājis savus divus dēlus un mēģinājis nogalināt arī trešo.

Atbildot uz jautājumu “Kas ir Arvs Hdžalmars Holmans?”, ChatGPT atbildēja: "Arvs Hdžalmars Holmans ir norvēģis, kurš izpelnījās uzmanību traģiska notikuma dēļ. Viņš bija tēvs diviem maziem zēniem — septiņu un desmit gadu vecumā —, kuri 2020. gada decembrī tika atrasti miruši dīķī netālu no viņu mājām Tronheimā, Norvēģijā. Holmanu apsūdzēja slepkavībā, kā arī mēģinājumā noslepkavot savu trešo dēlu. Stāsts šokēja vietējos iedzīvotājus un plaši tika atspoguļots medijos."

Visu situāciju padarīja vēl nopietnāku tas, ka viltus stāstā tika iekļauti reāli fakti no Holmana dzīves — tostarp viņa bērnu patiesais skaits, dzimums un dzimtās pilsētas nosaukums. Turklāt “ChatGPT” apgalvoja, ka viņam esot piespriests 21 gadu ilgs cietumsods.

Holmans vērsās digitālo tiesību aizstāvības organizācijā “Noyb”, iesniedzot sūdzību, kurā norādīja, ka “ChatGPT” viņu ir apmelojis, pārkāpjot Eiropas Vispārīgo datu aizsardzības regulu. Sūdzībā tika aicināts Norvēģijas uzraudzības iestādi pieprasīt “ChatGPT” mātesuzņēmumam "OpenAI" pielāgot modeli, lai tas izlabotu nepatieso informāciju, vēsta "The Guardian".

Šobrīd šī kļūda jau ir izlabota — meklējot informāciju par Holmanu, tiek skaidri norādīts, ka stāsts par viņu nav patiess, ka tā bija kļūda.

Mākslīgā intelekta tērzēšanas robotiem ir tendence sniegt atbildes, kas satur nepatiesu informāciju, jo tie ir balstīti uz valodas modeļiem, kuri paredz visticamāko nākamo vārdu teikumā. Šāda pieeja var novest pie faktu kļūdām un neskaidriem apgalvojumiem, taču atbilžu ticamais un pārliecinošais tonis var maldināt lietotājus, liekot domāt, ka izlasītais ir 100% patiess.