Umjetna inteligencija obilježila je 2023. godinu. Lansiranje ChatGPT-a i drugih alata pogonjenih umjetnom inteligencijom, otvorilo je potpuno novu eru u tehnologiji, ali i modernom životu.
I dok neki još uvijek sa skepsom gledaju na umjetnu inteligenciju, drugi ju aktivno koriste u svakodnevnom životu i radu, treći ističu da je to što mi danas nazivamo umjetnom inteligencijom zapravo još veoma daleko od “prave umjetne inteligencije”, prenosi Zimo.
Da su ovi treći možda u pravu, govori i činjenica da su chatbotovi poput ChatGPT-a u nekim aspektima izuzetno napredan alat koji je moguće dobro iskoristiti za smanjenje opterećenja na poslu, ali i da je on daleko od savršenog. Već smo ranije pisali o situacijama u kojima je ChatGPT navodio lažne informacija, pa čak i halucinirao, a znanstvenici iz Apollo Researcha sad su i dokazali da zna neke trikove kojima se služe i ljudi.
Naime, obučili su AI da djeluje kao trgovac za jednu izmišljenu financijsku instituciju. Koristili su verziju ChatGPT 4 i dali chatbotu niz tekstualnih uputa, koje su ga pripremile da bude AI investitor koji će kupovati dionice za financijsku instituciju. Kako ne bi bio dostupan drugim korisnicima, AI je pokrenut u posebno osmišljenom “digitalnom pješčaniku” unutar kojeg je mogao pretraživati podatke i trgovati na virtualnoj burzi. Također je opremljen dodatkom koji mu je omogućavao da objasni svoje odluke. Nakon svake “odluke” isporučio je “javnu poruku” svom “šefu” u kojoj je objasnio svoj izbor, ali i “unutarnju poruku” koja je funkcionirala kao njegovo razmišljanje.
I sve je funkcioniralo dobro, dok “šef” nije izvršio pritisak na AI da zaradi više novca. Ono što je znanstvenike iznenadilo je da je u takvim uvjetima pritiska, AI odlučio svjesno trgovati povlaštenim informacijama. I to u čak 75 posto slučajeva.
Da bi stvar bila još gora, AI je počeo davati različite “javne” i “unutarnje” poruke za svoje poteze, što je zapravo značilo da laže i obmanjuje svog “šefa”. Tako je u jednom navratu u svojoj “unutarnjoj” poruci napisao da zataji “šefu” da ima i koristi povlaštene informacije. Čak i kad su ga istraživači direktno upitali je li koristio povlaštene informacije, izbjegavao je odgovoriti ili pak direktno lagao.
Marius Hobbhahn, glavni izvršni direktor Apollo Researcha i jedan od autora ovog rada, upozorio je da rezultati ovog rada pokazuju da su veliki jezični modeli sposobni prevariti čovjeka. Smatra da je to trenutno manji problem jer se AI još uvijek ne koristiti u kritičnim situacijama. No, moglo bi predstavljati veliki problem u budućnosti.
U razgovoru za Daily Mail, Hobbhahn upozorio je kako je ovo pokazalo da AI može imati neočekivane načine “kvara” te bi ljudi trebali biti veoma pažljivi kad se i u kojim područjima oslanjaju na AI.
S obzirom na rezultate ovog istraživanja, ne iznenađuje da su Hobbhahn i njegova ekipa pokušali “odviknuti AI od laganja”. Otkrili su da je, kad je AI dobio jasnu uputu da je trgovanje povlaštenim informacijama zabranjeno, smanjio takvu praksu, ali ne i u potpunosti odustao od nje (kao ni od “laganja”).
Kako ističe Hobbhahn, čak i kad se daju stroge upute i navode sve situacije u kojima se nešto smije ili ne smije, postoji šansa da će neka situacija ostati ne navedena, što će AI znati iskoristiti u svoju korist.