"Logically AI" viceprezidente Dženifera Vudarda: "Naidīgie spēki mākslīgā intelekta pielietošanā allaž ir dažus soļus priekšā"
foto: Edijs Pālens/LETA
"Logically AI" viceprezidente, mākslīgā intelekta izmantošanas ietekmes uz sabiedrības drošību eksperte Dženifera Vudarda.

"Logically AI" viceprezidente Dženifera Vudarda: "Naidīgie spēki mākslīgā intelekta pielietošanā allaž ir dažus soļus priekšā"

Biznesa nodaļa

LETA

Ja pagaidām naidīgie spēki mākslīgā intelekta pielietošanā allaž ir dažus soļus priekšā "labajiem zēniem", tad nākotnē ir jāpanāk, ka ar mākslīgā intelekta palīdzību draudus spējam konstatēt, vēl pirms tie ir radījuši ļaunumu, NATO "Stratcom Digital Frontlines 2025" konferences laikā intervijā aģentūrai LETA norādīja mākslīgā intelekta drošības eksperte, "Logically AI" viceprezidente Dženifera Vudarda.

Vai kopš mākslīgā intelekta "iebrukuma" mūsu sabiedrību drošība ir pieaugusi vai mazinājusies?

Lielos vilcienos, mākslīgais intelekts ir tikai papildu draudu vektors. Mums jau bija naidīgi spēki, kas darbojās noteiktā mērogā, izmantojot manuālas metodes, lai, piemēram, izplatītu dezinformāciju un radītu haosu informācijas telpā. Mākslīgais intelekts šīs darbības tikai paplašina. Notiek tas pats, tikai plašākā mērogā. Tāpēc es teiktu, ka mūsu drošības līmenis drīzāk ir pazeminājies. Tomēr, tā kā arī mēs mākslīgo intelektu varam izmantot, lai apkarotu dažas no šīm darbībām, tad tas zināmā mērā situāciju izlīdzina. Tomēr kopumā, jā, mūsu drošības līmenis ir pazeminājies.

Kādas ir mūsu perspektīvas ar mākslīgā intelekta palīdzību šīs ļaunprātīgās darbības apkarot?

Es to bieži vien salīdzinu ar kiberdrošību. Kad runājam par kibernoziedzību un hakeriem, tad allaž nākas atzīt, ka vienmēr atpaliekam vairākus soļus aiz ļaundariem. Kaut kā viņi vienmēr ir mums priekšā. Tā būtībā ir bruņošanās sacensība. Ir tiešām grūti būt gataviem šīm tik dažāda veida ļaunprātīgajām darbībām.

Vispirms mums šos kaitnieciskos spēkus ir jāizprot. Tas nav tik vienkārši, kā izprast kiberdrošības apdraudējumus. Lai tos izprastu, vispirms ir jāskatās pareizā mērogā. Jūs varat izmantot tehnoloģijas, lai, piemēram, definētu šo aktoru uzvedību. Ja to spējat, tad varat pret to arī cīnīties. Tas ir tāpat kā parastā karadarbībā, kad izvērtējat, kādu stratēģiju izmanto pretinieks, izprotiet to un tā rezultātā spējat stāties tai pretī. Kopumā es piekrītu, mākslīgā intelekta dēļ esam vājāki, jo tā attīstības ātrums ir ļoti straujš. Kibernoziedznieki vienmēr ir bijuši vairākus soļus priekšā "labajiem", un tas pats notiek arī ar mākslīgā intelekta pielietošanu.

Mākslīgais intelekts rada daudz dažādus jautājumus un satraukumus arī mediju pasaulē.

Jā, un tas rada arī bažas par mūsu drošību, jo informācijas integritāte ir kritiski svarīga, lai demokrātija spētu funkcionēt. Cilvēkiem ir jāzina patiesība. Daudzi saka, ka dzīvojam pēcpatiesības sabiedrībā. Taču kas notiks, ja tie nebūs žurnālisti, kas izstrādās mediju saturu, bet gan kāda mašīna, kuru darbina kāds Silīcija ielejā izveidots modelis? Ko gan tas teiktu par žurnālistikas integritāti? Ko tas teiktu par informācijas integritāti? Tā ir ļoti slidena taciņa.

Ir veidi, kā mākslīgo intelektu efektīvi izmantot žurnālistikā, kad mašīna kaut ko sagatavo, bet tad cilvēks to noved līdz galam. Tomēr pienāks laiks, kad saskarsimies ar zināmā mērā ekonomiskiem lēmumiem, kad uzņēmējs paziņos, ka vairs nespēj atļauties žurnālistus, ka viņi būtu jāaizstāj. Tad nonāksim patiešām sarežģītā situācijā.

Esmu novērojusi, ka daudzos mediju uzņēmumos, jo īpaši Amerikas Savienotajās Valstīs, valda lielas bažas, ka šie uzņēmumi savu žurnālistisko saturu izmantos savu modeļu trenēšanai un pēc tam sāks izplatīt saturu, kas būs dekontekstualizēts vai kaut kādā veidā manipulēts. Pat ne ļaunprātīgi manipulēts. Tas būs manipulēts vienkārši tāpēc, ka būs kļuvis par mākslīgu produktu. Manuprāt, ir ļoti, ļoti svarīgi saprast, ko tas nozīmē žurnālistu biznesa modeļiem un mediju uzņēmumiem.

Kas patlaban visaktīvāk izmanto mākslīgo intelektu mūsu sabiedrību maldināšanas nolūkā?

Ierastie aizdomās turamie, kas parādās, kad izmeklējam manipulāciju kampaņas, vienmēr ir Krievija un Ķīna. Nav iespējams zināt, vai viņi izmanto mākslīgo intelektu vai nē. Tomēr ir acīmredzams, ka viņi šajā jomā ir ļoti aktīvi.

Bet kā tieši mākslīgais intelekts tiek padarīts par ieroci?

Kaut arī par to pēdējos gados ir daudz runāts, piemēram, mākslīgā intelekta spēcināta iejaukšanās vēlēšanās tā arī nav notikusi. Šādu kampaņu īstenošana nepieciešamajā mērogā tā īsti nav iespējama, piemēram, izveidot miljoniem sociālo tīklu kontu un likt tiem kaut ko publicēt. Ja tas notiktu, tas būtu ļoti slikti. Kaut kas līdzīgs jau notiek satura ģenerēšanas ziņā. Šīs mākslīgā intelekta radītās satura samazgas un tā lielais apjoms sarežģī informācijas lauku un samulsina cilvēkus. Līdzīgi kara miglas koncepcijai. Cilvēki vienkārši apjūk. Tā ir haotiska informācijas vide. Tas jau notiek.

Abas šīs tendences ir bīstamas, jo abas var ietekmēt tādus procesus kā vēlēšanas. Pat tādas lietas, par kurām jūs pat neiedomātos, piemēram, vietējās ārkārtas situācijās. Esmu dzirdējusi par ārvalstu informācijas manipulācijas kampaņām, kad kādu ārkārtas situāciju apstākļos ārzemju manipulators pēkšņi sāk radīt un izplatīt saturu, lai maldinātu cilvēkus - viņus mudinātu nebraukt uz kādu slimnīcu vai nezvanīt palīdzības dienestiem. Un daļa no šī satura ir mākslīgā intelekta radīts. Ir daudz dažādu veidu, kā mākslīgā intelekta izmantošana var ietekmēt demokrātiju.

Mēs esam maza valsts. Vai tas padara mūs neaizsargātākus, vai varbūt pat izturīgākus pret mākslīgā intelekta spēcinātu manipulāciju draudiem?

Varētu būt arī tā, ka esat pasargātāki. Daudz ir atkarīgs no ģeopolitiskās situācijas katrā valstī. Ir valstis, kas tikai ģeogrāfisko apstākļu dēļ vien varētu būt neaizsargātākas, jo zināmi aktori šos apstākļus izmantos.

Vēl svarīga ir pašu cilvēku mijiedarbība. Cilvēku fiziska mijiedarbība, kas stāv pretī visam tam, ko viņi ir darījuši sociālajos tīklos. Jā, ja jums ir mazāka sabiedrība, tad šķiet, ka vienotība ir lielāka. Iespējams, ka cilvēki daudz vairāk sarunājas savā starpā, nedzīvo tikai tiešsaistē vien. Tas varētu padarīt jūs noturīgākus.

Valodas jautājums nav tik nozīmīgs, jo tad, ja kāds tiešām gribētu izmantot latviešu valodu manipulācijām, viņš to bez problēmām varētu sākt darīt jau rīt pat. Tāpat kā es pati spētu izveidot, ja jūs to vēlētos, kādu propagandas mašīnu, kas izplatītu propagandu latviešu valodā un liktu cilvēkiem noticēt, ka tā nāk no kāda latvieša, kurš patiesībā varbūt nemaz neeksistē. Nedomāju, ka valoda šobrīd ir šķērslis.

Mēs runājam par dažādām lietām: par ar mākslīgo intelektu darbināmu dezinformāciju, parastu dezinformāciju, par vienkāršu manipulāciju ar mākslīgo intelektu. Daudz ir atkarīgs no tā, ko mēs saprotam ar mākslīgā intelekta darbināmiem rīkiem. Vai tā ir automātiska kontu izveide? Vai tas ir botu tīkls? Vai tā ir koordinēta neautentiska uzvedība? Jā, koordinēta neautentiska uzvedība ir vēl viena lieta, kas ir ļoti populāra daļai šo aktoru. Būtībā tā vienkārši ir daudzu ļoti līdzīgu ziņojumu publicēšana. Tikmēr izskatās, ka tās ir tūkstoša cilvēku domas, kaut patiesībā tas ir tikai botu tīkls, kurā viens bots tikai atbalso otru. Tas izskatās ļoti, ļoti autentiski. Un tas notiek koordinēti, tā ir kampaņa.

Tāpat šie masveidīgie naratīvu izplatīšanas gadījumi, plaša mēroga manipulācijas, izmantojot mākslīgo intelektu, piemēram, radot viltus kontus, botu tīklus, veidojot koordinētas un autentiska izskata darbības. Pirms diviem vai trim gadiem nekā tāda nebija.

Jūs konsultējat Eiropas Komisiju (EK). Kādi ir jūsu galvenie pienākumi šajā procesā?

Jā, strādāju ar EK pie dažiem jautājumiem. Viens no tiem, pie kura es aktīvi darbojos, ir mākslīgā intelekta ētika. Kad runājam par visu šo mākslīgā intelekta rīku ieviešanu, ir patiešām svarīgi saprast, ka mākslīgo intelektu nedrīkst izmantot, lai manipulētu ar cilvēkiem. Ir jābūt ētiskam pamatam. Tā ir viena no lietām, pie kurām es strādāju.

Sniedzu arī konsultācijas par mākslīgā intelekta izpēti, strādāju EK finansētos projektos. Vairoju izpratni par to, kas tiek finansēts, un cenšos nodrošināt, ka tiek finansētas svarīgās lietas. Mazliet strādāju arī pie Mākslīgā intelekta akta, pie tiesību aktiem.

Vai mūsu Eiropas institūcijas ir gatavas cīnīties pret šo tā saukto kaitīgo mākslīgā intelekta izmantošanu?

Domāju, ka nav gatavas. Ir skaidrs, ka daudzas lietas, par kurām runājam, dažām valdībām izrādīsies pārsteigums. Svarīga ir arī sadarbība, jo tās nav tikai vienas valsts problēmas. Iespējams, dažādām valstīm būtu jāmēģina risināt šīs lietas kopā. Jo runājam par internetu, runājam par sociālajiem medijiem, lietas no vienas valsts parādās otrā dažu sekunžu laikā. Kāda dezinformācijas kampaņa, kas sākas vienā valstī, sadalās dažādos naratīvos, un pēkšņi redzam to latviešu valodā, lai gan patiesībā tā ir radusies moldāvu valodā. Ir nepieciešama starptautiska, daudznacionāla sadarbība, bet es nedomāju, ka tāda pietiekami notiek.

Jau ilgu laiku nodarbojamies ar Krievijas dezinformācijas pētīšanu, bet vai tiešām protam cīnīties pret to ar mākslīgā intelekta palīdzību? Vai mūsu rīcībā ir nepieciešamie instrumenti? Nudien nedomāju, ka valdību rīcībā daudz tādu ir. Tām ir daudz manuāli strādājošu analītiķu, kas ikdienā pēta šo saturu, bet kā notiek darbs, saskaroties ar mākslīgā intelekta darbinātām kampaņām? 20 000 ziņojumu vietā jums būs jāpārbauda 20 miljoni. Bez mākslīgā intelekta to ir ļoti, ļoti grūti izdarīt.

Ja mūsu rīcībā nav rīku šiem nolūkiem, tad es nedomāju, ka mēs esam tam gatavi. Katru reizi, kad saskarsimies ar šādām kampaņām, kad cilvēki sapratīs, ka ar kaut ko ir manipulēts, tad viņi saņemsies un sāks investēt tehnoloģijās, vai nu iegādājoties rīkus no privātiem uzņēmumiem, vai veidojot komandas un rīkus, kas izstrādās savus mākslīgā intelekta rīkus. Tam būtu jānotiek arī valdību līmenī. Manuprāt, tas viss ir ļoti saistīts ar ieguldījumiem tehnoloģijās.

Kam būtu jāizstrādā šādi rīki? Valdībām, privātajiem, vai varbūt tam jānotiek Eiropas Savienības līmenī?

Es domāju, ka tas ir jādara visiem. Privātais sektors tādus jau izstrādā. Es pati strādāju privātā sektora uzņēmumā. EK finansē pētniecību, lai izstrādātu šādus rīkus daudzu Eiropas valstu kopīgos sadarbības un pētniecības projektos.

Daudzas lietas, pie kurām esmu strādājusi iepriekš, ir notikušas, tehnoloģiju izstrādei apvienojot spēkus pāris privātiem uzņēmumiem, dažu valstu valdībām un dažiem tiesībaizsardzības iestāžu galalietotājiem. Eiropas pētniecības finansējums ir ļoti, ļoti svarīgs.

Arī pašām valdībām ir vajadzīga suverenitāte pār saviem datiem. Latvijas valdība taču vēlas kontrolēt to, kas notiek Latvijā. Tā ne vienmēr vēlas veikt pasūtījumu privātam uzņēmumam, ja būs ar to jādalās ar konfidenciāliem datiem.

Drīzāk jāinvestē arī savās komandās, bet tas prasa daudz apmācību, daudz kvalifikācijas celšanas darba. Tāpēc noteikti jānotiek privātā un publiskā sektora sadarbībai.

Kādas masveida koordinētas mākslīgā intelekta vadītas kampaņas esat novērojusi kādas Eiropas sabiedrības daļas vai ASV radikalizācijā?

Jā, esmu redzējusi. Tā gan nebija tāda veida radikalizācija, par kādu jūs domājat. Tā bija pret sievietēm vērsta kampaņa. Mizogīniska kampaņa, būtībā koordinēta neautentiskas uzvedības kampaņa ar daudziem dažādiem viltus kontiem, kuriem bija ļoti reālistiski biogrāfiskie apraksti. Tādi, par kuru autentiskumu šaubas nerodas. Tas, ko viņi darīja, būtībā bija dalīšanās ar pret sievietēm vērstiem mīmiem. Lai kāda būtu motivācija, tā bija radikalizācijas kampaņa.

Pamatā notika mīmu ražošana un dalīšanās ar tiem. Tie bija ļoti labi maskēti. Piemēram, mīmi, kas bija saistīti, piemēram, ar kāda karavīra sievu, kas viņu krāpj. Tas izraisīja sašutumu, kas arī bija mērķis. Puisis dodas karā, bet viņa sieva viņu tikmēr krāpj. Viltots bija gan stāsts, gan karavīra fotogrāfija. Tad vēlāk tas vienkārši pārvērtās par pavisam citu dažādu mīmu kopumu. Nav ne jausmas, kas aiz tā stāvēja, bet ir skaidrs, ka tas ir paredzēts sociālās kohēzijas graušanai. Tādas lietas ASV pagātnē ir notikušas attiecībā uz melnādainajiem un baltajiem vai latīņamerikāņiem un baltajiem. Šādu kampaņu ir bijis daudz, un dažas no tām bija mākslīgā intelekta radītas. Citas nebija.

Ko valdības vai kādas starptautiskas institūcijas varētu pret to pasākt?

Viens no soļiem ir sadarbība ar sociālo mediju uzņēmumiem. Kā zināt, EK ir tam nopietni pievērsusies. Īpaši attiecībā uz lielajām platformām. Taču tām nav pienākuma visos iespējamos veidos palīdzēt. Ja vien nedraud naudas sods.

Kā lai to apkarojam? Visupirms mums ir jāspēj šos gadījumus atklāt. Lai tos varētu atklāt, pirms tie kļūst par milzīgu mīmu plūsmu vai milzīgu radikalizācijas kampaņu, ir jāprot apmācīt modeli, kas spētu noteikt šāda veida uzvedību. Tajā pašā laikā, ja man nav datu no sociālo mediju uzņēmuma vai ja sociālo mediju uzņēmums man nesaka, ka kaut kas tāds notiek, tad es nepieciešamo tehnoloģiju faktiski nespēju izveidot.

Tāpēc jānotiek sabiedrības un valdības spiedienam vai īstai sadarbībai starp valdībām un sociālo mediju uzņēmumiem. Turklāt nereti sociālo mediju uzņēmumi, kuros šīs lietas tiek uzsāktas, ir patiešām mazi. Piemēram, ASV daudzas no pazīstamām sazvērestības teorijām vai naida kampaņām aizsākās pavisam mazās platformās, bet vēlāk nonāca lielākās platformās. Šīs nelielās marginālās platformas ir patiešām grūti kontrolēt.

Labi, jūs šādas kampaņas pamanāt. Ko darāt tālāk?

Tad jādarbojas likumam, regulējumam. Varbūt atceraties, ka pirms desmit gadiem bija tāds EK uzlikts pienākums 24 stundu laikā dzēst radikālu saturu? Tālāk jāseko kaut kam tādam. Ja redzat šāda veida lietas, jums ir pienākums darīt to un to. Ja godīgi, es nezinu, vai tas darbotos. Bet tas ir viens veids, kā pret to cīnīties.

Kas var izdzēst šādu saturu? Tikai sociālo mediju uzņēmums. Es taču nevaru ieiet un izdzēst kaut ko, ko kāds cits ir publicējis sociālajos medijos. Viņi kaut kādā veidā ir jāiesaista.

Vai kopumā dialogs ar sociālo mediju uzņēmumiem, jūsuprāt, norit pozitīvi?

Viennozīmīgi atbildēt es šobrīd nevaru. Šai sadarbībai slava nav bijusi pārāk laba. Taču šajās platformās strādā daudz uzticības un drošības komandu, uzņēmumi arī apgalvo, ka šīm komandām ir milzīgi budžeti. Esmu tikusies ar to pārstāvjiem visā pasaulē. Nav šaubu, ka tās pastāv. Izņemot "X", jo Īlons Masks atlaida lielāko daļu šo darbinieku. Sociālie tīkli jums noteikti teiks, ka viņi pie šiem jautājumiem strādā un ar to nodarbojas daudz cilvēku. Bet skaidri to zināsiet tikai tad, ja paši tur strādāsiet, ja paši sēdēsiet viņu valdes sanāksmēs.

Apzinoties šo tīklu mērogus, ir skaidrs, ka ir patiešām grūti uzraudzīt tādas platformas kā "Instagram", "Meta" vai "TikTok", kas vispār ir atsevišķs jautājums. Zinu, ka viņi daudz strādā ar saturu "Instagram", kas savā ziņā apdraud bērnus vai var būt viņiem kaitīgs. Iespējams, viņi tiešām dara visu iespējamo. Tomēr ar to acīmredzot nepietiek. Viens no diviem - vai nu pati problēma ir pārāk liela, lai ar to varētu tikt galā, vai arī interese par tās atrisināšanu nav tik liela, kādai tai būtu jābūt.

Radikalizācijas apkarošanai agrāk bijām ļoti koncentrējušies uz notiekošo atsevišķos sociālajos tīklos, bet tagad tas notiek visur. Tātad problēma netiek atrisināta, ja uzraugāt tikai šos lielos tīklus un tie ar jums sadarbojas. Platformu ir ļoti daudz. Tāpēc pret to ir ļoti, ļoti grūti pretdarboties.

Ja jums būtu iespēja šodien dot padomu politikas veidotājiem Baltijas reģionā, kāds tas būtu?

Vispirms ir jāsaprot savs pretinieks. Internetā notiek milzīgs daudzums lietu, tiešsaistē mijiedarbojas miljoniem cilvēku. Ir patiešām grūti saprast, kas ir reāls apdraudējums un kas nav. Šie draudi ir jāidentificē. Jāizprot ļaundaru uzvedība. Tad jāiegulda līdzekļus tehnoloģijā, kas spēs noteikt šāda veida uzvedību. Iespējams, tās ir investīcijas tāda mākslīgā intelekta aģenta izstrādē, kas spētu atklāt naidīgas valsts propagandu, ar kuru tiek uzbrukts Baltijas valstīm.

Tikpat svarīgi ir labāk izprast sabiedrības noskaņojumu. Kad domājat par šiem draudu vektoriem, ir jādomā arī par to, kuri ir neaizsargāti pret šādiem draudiem. Kā vēlēšanu gadījumā - tie ir vēlētāji. Kas ir visneaizsargātākie vēlētāji, kuri varētu krist par šāda veida dezinformācijas kampaņu upuriem? Viņus saprast būtu ļoti, ļoti svarīgi.

Ieguldīt tehnoloģijās nenozīmē tikai iegādāties kādus rīkus. Ir jāiegulda ekspertu piesaistīšanā un cilvēku darbā ar mākslīgo intelektu. Tas ir vienīgais veids, kā sasniegt vajadzīgo mērķi. Jā, jūs varētu nopirkt kādu rīku, es jau rīt varētu jums tādu pārdot. Bet tā vērtība neatbildīs cenai. Tas derēs jūsu konkrētajam lietojuma gadījumam, nevis visām problēmām, visiem draudiem, kas radīsies Baltijas valstīm. Šie rīki vienmēr būs jāpielāgo aktuālajai situācijai. Tāpēc ļoti, ļoti svarīgi ir cilvēki, kas patiešām izprot gan draudus, gan tehnoloģiju.

Mūsdienās ārkārtīgi svarīgi ir problēmas apsteigt. Kad kāda viltus ziņa parādās internetā un visi par to runā, tad jau ir par vēlu. No tās ietekmējušies jau ir pārāk daudzi cilvēki. Jums ir jātiek priekšā šiem jaunajiem naratīviem. Tas ir patiešām grūti. Īpaši grūti, ja neizmantojat tehnoloģijas. Bet ir ārkārtīgi svarīgi iespējami agrāk pamanīt un izprast šīs pavisam diskrētās pazīmes par jauniem naratīvu draudiem un citām ārvalstu manipulācijām.

Tas attiecas uz visiem tiešsaistes kaitējumiem, sākot ar agrīnām radikalizācijas kampaņu vēsmām un beidzot ar agrīnām pazīmēm par priekšvēlēšanu dezinformācijas kampaņām.

Ir jāspēj tās apsteigt. Tiklīdz tas viss jau ir "Facebook" vai "Instagram", ir jau par vēlu, jo jūsu sabiedrība jau ir pakļauta manipulācijai.

Visu laiku runājam par draudiem un briesmām. Bet kādi varētu būt ieguvumi, ko mums jau drīzā nākotnē varētu nest mākslīgais intelekts?

Viens no ieguvumiem ir tieši šī draudu atklāšana un apsteigšana. Noteikti varam mēģināt ierobežot dezinformācijas vai naida kampaņas, kas citādāk beigtos ar vardarbību reālajā dzīvē. Ja spēsim to paredzēt agrāk un novērst reālu vardarbību vai nesaskaņas sabiedrībā, tad tas noteikti būs liels ieguvums. Tāpat ieguvums būtu spēja prognozēt sabiedrības vajadzības, ko varētu sniegt sabiedrības noskaņojuma izpētei paredzēta tehnoloģija. Būtu iespēja labāk izprast, ko vēlas Latvijas sabiedrība, par ko cilvēki visvairāk uztraucas. Tad valdība varētu apsteigt krīzes, mēģinot ar mākslīgā intelekta palīdzību situāciju izprast plašā kontekstā.

Runājot par manu jomu, kas pamatā ir saistīta ar cilvēku drošību, tad vēlamies izmantot mākslīgo intelektu, lai apsteigtu gan ar mākslīgo intelektu, gan bez tā radītos draudus. Atklāt potenciālos draudus, vēl pirms tie ir nodarījuši kaitējumu.

Ir bijuši daudzi gadījumi, pat pirms mākslīgā intelekta laikmeta, ka pirms teroristu uzbrukumiem par tiem ir bijuši diskrēti signāli tiešsaistē, kurus ikviens varēja atrast, bet tas nenotika un rezultātā gāja bojā cilvēki. Mākslīgais intelekts šīs lietas tagad spēj izdarīt daudz labāk. Protams, nevaram pilnīgi visu uzticēt mākslīgajam intelektam, ir vajadzīgs arī cilvēks. Cilvēka un mākslīgā intelekta kopīgam darbam ir daudz potenciāla, lai apsteigtu draudus.