Riski sabiedrībai un cilvēcei - Masks ar domubiedriem aicina “piebremzēt” mākslīgā intelekta attīstību
foto: AFP/Scanpix
Īlons Maks un eksperti norāda, ka nekontrolējot mākslīgo intelektu, var būt visādi "pārsteigumi".
Auto un tehnoloģijas

Riski sabiedrībai un cilvēcei - Masks ar domubiedriem aicina “piebremzēt” mākslīgā intelekta attīstību

Jauns.lv

Īlons Masks un mākslīgā intelekta (AI) ekspertu grupa aicinājusi AI izstrādātājus uz sešiem mēnešiem pārtraukt AI apmācību sistēmās, kas ir jaudīgākas par “OpenAI” jaunizveidoto GPT-4 modeli. Masks un eksperti vēstulē norāda, ka to nepieciešams darīt, lai mazinātu iespējamos riskus  sabiedrībai un cilvēcei, vēsta “Reuters”.

Vēstuli, ko izdevis bezpeļņas organizācija “Future of Life”, un kuru parakstījuši vairāk nekā 1000 cilvēku, tostarp Masks, “Stability AI” izpilddirektors Emads Mostaks, “Alphabet” piederošā “DeepMind” pētnieki, kā arī mākslīgā intelekta nozares autoritātes smagsvari Džošua Bendžo un Stjuarts Rasels aicināja apturēt progresīvu AI izstrādi, līdz neatkarīgi eksperti izstrādās, ieviesīs un auditēs kopīgus drošības protokolus šādiem AI.

"Jaudīgas AI sistēmas ir jāizstrādā tikai tad, kad esam pārliecināti, ka to ietekme būs pozitīva un to riski būs pārvaldāmi," teikts vēstulē.

Vēstulē arī sīki aprakstīti iespējamie riski sabiedrībai un civilizācijai, ko rada cilvēku konkurētspējīgas mākslīgā intelekta sistēmas, kas izpaužas kā ekonomiski un politiski traucējumi. AI izstrādātāji aicināti sadarboties ar politikas veidotājiem par pārvaldību un regulējošajām iestādēm.

Eiropols pirmdien pievienojās ekspertu grupai, brīdinot par iespējamu sistēmas ļaunprātīgu izmantošanu pikšķerēšanas mēģinājumos, dezinformācijā un kibernoziegumos.

Savukārt “Microsoft” un Bils Geits ir mudinājis “OpenAI” izstrādātā  “ChatGPT” konkurentus paātrināt līdzīgu lielu valodu modeļu izstrādi, un uzņēmumus savos produktos integrēt ģeneratīvos AI modeļus.