Ģeologi iesaka cilvēkiem ēst vienu akmeni dienā: jaunā Google mākslīgā intelekta funkcija pieļauj smieklīgas kļūdas
Google jaunā mākslīgā intelekta (MI) meklēšanas funkcija tiek kritizēta par neprognozējamu un neprecīzu atbilžu sniegšanu.
Eksperimentālais rīks “AI Overviews” dažiem lietotājiem, kuri meklēja, kā panākt, lai siers labāk pieliptu pie picas, norādīja, ka viņi var izmantot “līmi, kas nav toksiska”. Meklētājprogrammas MI ģenerētās atbildes ir arī vēstījušas, ka ģeologi iesaka cilvēkiem ēst vienu akmeni dienā.
Neparastu atbildi saņēma arī kāds BBC žurnālists, kurš meklēja “Google”, vai var izmantot benzīnu, lai ātrāk pagatavotu spageti, saņemot atbildi “nē... bet jūs varat izmantot benzīnu, lai pagatavotu pikantu spageti” un arī recepti.
"Google” pārstāvis BBC sacīja, ka tie ir “atsevišķi piemēri”, un dažas no atbildēm bija balstītas uz “Reddit” komentāriem vai satīriskās vietnes “The Onion” rakstiem.
“Google” uzstāj, ka MI funkcija kopumā darbojas labi un izskatītie piemēri neatspoguļo vairuma cilvēku pieredzi. “Google” informēja, ka lielākoties MI sniedz kvalitatīvu informāciju ar saitēm uz tīmekļa vietnēm, padziļinātai informācijas izpētei.
Uzņēmums paziņoja, ka ir reaģējis, kad konstatēti drošības noteikumu pārkāpumi, ņemot tos vērā, lai turpinātu uzlabot sistēmu.
Šī nav pirmā reize, kad uzņēmums ir saskaries ar problēmām saistībā ar saviem MI produktiem. Kopumā MI kļūdas jeb arī nosauktās par halucinācijām nav tikai “Google” problēma, bet kā pasaules lielākajam meklētājam tam tiek pievērsta lielāka uzmanība.