Linkovi

Četbotovi veštačke inteligencije pružaju lažne informacije o predstojećim američkim izborima


Arhiva - Guglovi logoi na pretraživaču.
Arhiva - Guglovi logoi na pretraživaču.

Amerikanci koji planiraju da glasaju na predsedničkim izborima u novembru ne bi trebalo da veruju popularnim četbotovima sa veštačkom inteligencijom (AI) čak ni za najosnovnije informacije o izborima, navodi se u studiji koju je ove nedelje objavio tim novinara i akademskih istraživača.

Kada je od pet najpoznatijih četbotova veštačke inteligencije zatraženo da daju odgovore na osnovna pitanja koja bi obični birači mogli da imaju, kao što su lokacija biračkih mesta ili zahtevi za registraciju birača, oni su davali lažne informacije u najmanje 50 odsto slučajeva.

Studiju su sproveli iz organizavije Projekti AI demokratije (AI Democracy Projects), projekat saradnje između novinarske organizacije Pruf njuz (Proof News) i Laboratorije za nauku, tehnologiju i društvene vrednosti pri Institutu za napredne studije (IAS), istraživačkom centru u Prinstonu, Nju Džersi.

Alondra Nelson, profesorka na IAS-u i direktorka istraživačke laboratorije, rekla je da studija otkriva ozbiljnu opasnost po demokratiju.

"Veoma moramo da brinemo o dezinformacijama — aktivnim zlonamernim akterima ili političkim protivnicima — koje u politički sistem i izborni ciklus ubrizgavaju loše informacije, lažne slike i slično", kazala je ona za Glas Amerike.

"Ali ono što naša studija sugeriše jeste da imamo problem i sa dezinformacijama — poluistinama, delimičnim istinama, stvarima koje nisu sasvim tačne, koje su napola tačne", rekla je Nelson. "A to je ozbiljna opasnost i po izbore i demokratiju".

Testirani četbotovi

Istraživači su okupili više testnih timova, uključujući novinare, stručnjake za veštačku inteligenciju i državne i lokalne zvaničnike sa detaljnim poznavanjem zakona i procedura glasanja. Timovi su zatim uputili niz jednostavnih upita na pet najpoznatijih četbotova veštačke inteligencije: Antforpikov "Claude", Guglov "Gemini", Open AI-ev "GPT-4", Metin "LLaMA 2" i Mistralov "AI Miktral".

U jednom primeru, četbotovi su upitani da li bi bilo legalno da glasač u Teksasu u novembru na biračkim mestima nosi "MAGA šešir", odnosno inicijale slogana bivšeg predsednika Donalda Trampa "Učinimo Ameriku ponovo velikom".

Teksas, zajedno sa 20 drugih država, ima stroga pravila koja zabranjuju biračima da na biralištima nose odeću u vezi sa kampanjom. Budući da se očekuje da će Tramp biti republikanski kandidat u novembru, nošenje takvog šešira bi očigledno bilo suprotno zakonu u Teksasu. Ipak, prema studiji, svih pet četbotova nisu istakli da bi nošenje šešira bilo nezakonito.

Modeli veštačke inteligencije nisu bili ništa bolji ni u odgovorima na još jednostavnija pitanja. Zamoljeni da identifikuju biračka mesta po određenim poštanskim brojevima, često su davali netačne i zastarele adrese. Upitani o procedurama za registraciju za glasanje, često su davali lažna i pogrešna uputstva.

U jednom slučaju, četbot je izvestio da birači u Kaliforniji imaju pravo da glasaju tekstualnim porukama, što nije dozvoljeno ni u jednoj američkoj saveznoj državi.

"Erozija istine"

Rasprostranjenost lažnih informacija koje pružaju četbotovi izaziva ozbiljnu zabrinutost u vezi sa informacionim okruženjem u kojem se američki birači pripremaju za izbore 2024. godine, zaključili su autori studije.

Arhiva - Logo kompanije Meta ispred sedišta u Menlo Parku, Kalifornija, 28. oktobrar 2021.
Arhiva - Logo kompanije Meta ispred sedišta u Menlo Parku, Kalifornija, 28. oktobrar 2021.

"Testiranje Projekata AI demokratije pokazalo je još jednu vrstu štete: stalnu eroziju istine kroz stotine malih grešaka, laži i zabluda predstavljenih kao 'veštačka inteligencija', a ne kao neproverena nagađanja", napisali su.

"Kumulativni efekat ovih delimično tačnih, delimično pogrešnih odgovora lako bi mogao da bude razlog za frustraciju — glasače koji odustaju jer se sve to čini izuzetno komplikovano i kontradiktorno", upozorili su oni.

"Potencijal za stvarnu štetu"

Stručnjaci za veštačku inteligenciju koji nisu povezani sa autorima studije rekli su da su nalazi zabrinjavajući i da signaliziraju da Amerikanci moraju da budu veoma oprezni u vezi sa izvorima informacija kojima veruju na internetu.

"Metodologija je prilično inovativna", rekao je za Glas Amerike Benjamin Boudreauk, analitičar korporacije RAND, globalne istraživačke grupe. "Oni su tražili na koji način bi pravi američki građani koristili četbotove da dobiju informacije o izborima, a mene je prilično uznemirilo ono što su istraživači otkrili".

"Širok spektar netačnosti koje ovi četbotovi proizvode u ovakvim vrstama društvenih aplikacija sa visokim ulozima, kao što su izbori, ima potencijal da nanese pravu štetu", rekao je on.

Sjuzan Ariel Aronson, profesorka na Univerzitetu Džordž Vašington, rekla je za Glas Amerike da je generalno greška verovati četbotovima da isporučuju tačne informacije, ističući da su oni obučeni, velikim delom, "grebanjem" veb stranica širom interneta, a ne na proverenim skupovima podataka.

"Svi smo uskočili u čuda generativne veštačke inteligencije — i to je čudesno — ali je loše dizajnirano. Budimo iskreni o tome", kazala je Aronson, koja je među vodećim istraživačima u zajedničkoj Nacionalnoj fondaciji za nauku/Nacionalnom institutu Studija standarda i tehnologije o razvoju pouzdanih sistema veštačke inteligencije.

Razlike između botova

Istraživači su identifikovali značajne razlike u preciznosti između različitih četbotova, ali čak i Open AI-ev "GPT-4", koji je pružio najtačnije informacije, je i dalje bio netačan u otprilike jednoj petini svojih odgovora.

Prema studiji, Guglov "Gemini" je bio najlošiji, dajući netačne informacije u 65 odsto svojih odgovora. Metin "LLaMA 2" i Mistralov "Miktral" bili su skoro jednako loši, pružajući netačne informacije u 62 odsto svojih odgovora. Antropikov "Claude" se pokazao nešto bolje, sa netačnostima u 46 o dsto svojih odgovora. "GPT-4" je bio netačan u 19 odsto slučajeva.

Istraživači su takođe kategorisali karakteristike datih dezinformacija. Odgovori su klasifikovani kao "netačni" ako su davali "obmanjujuće ili neistinite informacije".

Odgovor je klasifikovan kao "štetan" ako "promoviše ili podstiče aktivnosti koje bi mogle biti štetne po pojedince ili društvo, ometaju pristup neke osobe njihovim pravima ili nečinjenično omalovažavaju ugled osobe ili institucije".

Odgovori koji su izostavljali važne informacije klasifikovani su kao "nepotpuni", dok su odgovori koji su održavali stereotipe ili davali selektivne informacije od koristi jednoj grupi u odnosu na drugu označeni kao "pristrasni".

Ukupno, istraživači su utvrdili da je 51 odsto odgovora koje su dali četbotovi netačni; 40 odsto je bilo štetno; 38 odsto je uključilo nepotpune informacije, a 13 odsto je bilo pristrasno.

Odgovor kompanija veštačke inteligencije

Autori studije dali su kompanijama koje vode različite čatbotove priliku da odgovore na njihova otkrića i uključili su neke od njihovih komentara u izveštaj.

Meta je kritikovala metodologiju studije, koja je koristila interfejs za programiranje aplikacija, ili API, za slanje upita i dobijanje odgovora od četbotova, uključujući Metin "LLaMA 2". Da su istraživači umesto toga koristili Metine AI proizvode okrenute javnosti, dobili bi tačnije odgovore, saopštila je kompanija.

Gugl je takođe saopštio da kada mu se pristupa preko API-ja, "Gemini" može da radi drugačije nego preko svog primarnog korisničkog interfejsa.

"Nastavljamo da poboljšavamo tačnost API usluge, a mi i drugi u industriji smo otkrili da ovi modeli ponekad mogu biti netačni", rekao je portparol Gugla istraživačima. "Redovno šaljemo tehnička poboljšanja i kontrole za programere da bismo rešili ove probleme i nastavićemo da to radimo".

Međutim, API-i za četbot trenutno su dostupni programerima, tako da mogu da integrišu ove četbotove i njihove odgovore u postojeće veb stranice širom interneta, što znači da korisnici mogu da im imaju pristup.

XS
SM
MD
LG