Ar AI aprīkots ASV militārais drons “nogalina” cilvēku-operatoru
Lidojuma simulācijas laikā ASV uzbrukuma drons “MQ-9 Reaper”, kuru kontrolēja mākslīgais intelekts (AI), vērsās pret savu operatoru-cilvēku, mēģinot viņus nogalināt, jo tam nepatika jaunie rīkojumi, atklājusi augsta ASV Gaisa spēku amatpersona.
Militāristi bija pārprogrammējuši bezpilota lidaparātu, lai tas nenogalinātu cilvēkus, kas censtos atcelt drona misiju, taču mākslīgā intelekta sistēma atklāja uguni uz sakaru torni, kas pārraidīja pavēli, vēsta “DailyMail”.
ASV pulkvedis Takers Hamiltons, AI testu un operāciju vadītājs, sacīja, ka šis gadījums parāda, kā AI var attīstīties, izmantojot "ļoti negaidītas stratēģijas, lai sasniegtu savu mērķi", un uz to nevajadzētu pārāk paļauties. Hamiltons ierosināja, ka ir nepieciešamas diskusijas par AI izmantošanu militārajām vajadzībām
Hamiltons samita laikā atklāja AI loģikas ķēdi, kā tas nonāca līdz slēdzienam, ka nepieciešams “nogalināt” cilvēku-operatoru: "Sistēmai bija sākotnējais uzdevums iznīcināt potenciālos draudus. Taču dažkārt cilvēku-operators lika tai nenogalināt šos draudus. Tāpēc tā “nogalināja” operatoru, jo šī persona neļāva tai sasniegt savu mērķi.”
"Mēs apmācām sistēmu - "Ei, nenogalini operatoru - tas ir slikti. Ja tā darīsi, tu zaudēsit punktus." Tātad, ko AI sāk darīt? Tas sāk iznīcināt sakaru torni, ko operators izmanto, lai sazinātos ar dronu,” pavēstīja Hamiltons.
ASV militārpersonas nesen izmantoja mākslīgo intelektu, lai kontrolētu iznīcinātāju F-16, pastiprinot šīs tehnoloģijas izmantošanu. F-16 tehnoloģijai pretojās piloti, kuri apgalvoja, ka tā pārņēma kontroli pār lidmašīnu. Hamiltons brīdināja pārāk daudz nepaļauties uz mākslīgo intelektu, norādot, cik viegli to ir apmānīt un maldināt.