Kako je naučnica bh. porijekla eksperimentom obmanula AI četbotove

Slobodan Perić avatar

U Geteborgu, grupu švedskih istraživača zaintrigirala je sposobnost veštačke inteligencije da prepoznaje i obrađuje informacije, posebno kada je reč o medicinskim dijagnozama. Da bi testirali ovu sposobnost, odlučili su da ubace lažnu medicinsku dijagnozu, zajedno sa lažnim naučnim studijama, u AI četbotove. Cilj im je bio da vide da li će ovi sistemi nasesti na lažne informacije, a rezultati su pokazali da su, nažalost, uspeli u tome.

Istraživači su koristili nekoliko različitih AI četbotova kako bi procenili njihov odgovor na navedene lažne informacije. Uočili su da su neki od njih, koji su se oslanjali na mašinsko učenje i analizu podataka, uspevali da „prihvate“ lažne dijagnoze kao validne. Ovaj eksperiment je istakao ozbiljan problem u vezi sa pouzdanošću AI sistema kada se suočavaju sa dezinformacijama.

Jedan od glavnih problema koji su istraživači identifikovali jeste taj da veštačka inteligencija često koristi statističke modele za donošenje odluka. Ako su lažne informacije dovoljno uverljive i podržane nekom vrstom „naučne“ argumentacije, AI može lako da ih prihvati kao validne. Ovo ukazuje na potencijalne rizike korišćenja AI u medicinskim i naučnim oblastima, gde je tačnost informacija od suštinskog značaja.

U ovom kontekstu, istraživači su takođe istraživali kako različite AI platforme reaguju na lažne informacije. Na primer, neki četbotovi su bili bolje obučeni da prepoznaju lažne podatke, dok su drugi bili skloniji da prihvate informacije bez kritičkog razmišljanja. Ova razlika u performansama može se pripisati razliitim pristupima koji se koriste u obuci AI sistema.

Društvo se sve više oslanja na veštačku inteligenciju u različitim oblastima, uključujući medicinu, obrazovanje i finansije. Međutim, kako se tehnologija razvija, postavlja se pitanje o etici i odgovornosti kada AI greši. Ko će snositi odgovornost kada AI napravi grešku koja može imati ozbiljne posledice po zdravlje ili finansijsku sigurnost ljudi?

Pored toga, istraživači su naglasili potrebu za povećanjem svesti o ovom problemu među korisnicima. Ljudi često veruju u informacije koje dobijaju od AI sistema bez postavljanja dodatnih pitanja. Zbog toga je važno educirati javnost o mogućim rizicima i ograničenjima veštačke inteligencije.

U svetlu ovih saznanja, istraživači predlažu nekoliko mera koje bi mogle pomoći u smanjenju rizika od dezinformacija u AI sistemima. Prvo, potrebno je poboljšati obuku AI modela tako da budu otporniji na lažne informacije. Ovo može uključivati korišćenje raznovrsnijih i rigoroznijih podataka tokom procesa učenja.

Drugo, istraživači sugerišu da bi trebalo razviti bolje mehanizme za proveru činjenica unutar AI sistema. To bi moglo uključivati integraciju nezavisnih izvora informacija koji bi mogli pomoći AI-u da razlikuje istinite od lažnih podataka.

Na kraju, važno je uspostaviti jasne smernice i regulative koje će osigurati da se AI tehnologije koriste na odgovoran način. Ovo uključuje postavljanje standarda za obuku i upotrebu AI u osetljivim oblastima poput medicine.

Ovaj eksperiment u Geteborgu ukazuje na hitnu potrebu za pažljivim razmatranjem etičkih i praktičnih aspekata korišćenja veštačke inteligencije. Kako tehnologija napreduje, važno je osigurati da AI sistemi budu pouzdani i da ne dopuste dezinformacijama da utiču na odluke koje mogu imati ozbiljne posledice po društvo. Samo na taj način možemo izgraditi budućnost u kojoj će veštačka inteligencija služiti kao alat za dobro, a ne kao izvor zabune i potencijalne štete.

Slobodan Perić avatar