Svi smo u svoj inbox nekada dobili poruku od Beyonce koja nam nudi milion dolara preko Paypala ili slavnu poruku o nasljedstvu nigerijskog princa. Ali iz dubina interneta, kako se tehnologija razvija i umjetna inteligencija dobija sve više upotrebe, prijete novi rizici za krajnje korisnike i korisnice.
Jedan od tih je i AI reklamiranje ili prevara u koju su uključene i verzije slavnih osoba, zaposjele su društvene mreže i stranice. Od lažnih romantičnih scenarija do nagradnih igara, mnogi korisnici širom svijeta zavarani su iluzijama koje ove stranice nude. Često, prevaranti pokušavaju dobiti materijalnu korist od korisnika, ali i prodati neki proizvod.
Prevaranti često koriste slike ili video zapise generisane umjetnom inteligencijom kako bi obmanuli žrtvu i učinili finansijsku ili drugu vrstu prevare.
Jedna od tih osoba je i Brad Pitt, a priča je postala viralna kada je korisnica priznala da je prevarena od strane osobe iz afričkih država koja je mjesecima govorila da je slavni glumac, te da treba novac za hitnu operaciju.
Nakon što je priča izašla u javnost, oglasio se i Brad Pitt, te je rekao da je “užasno je što prevaranti iskorištavaju snažnu povezanost obožavatelja sa slavnim osobama”.
Koja tehnologija stoji iza svega?
Deepfake tehnologija može stvoriti vrlo uvjerljive prevare, čak i lažno predstavljanje poznatih ličnosti. Nedostatak poznavanja društvenih medija može povećati ranjivost na sofisticirane prevare. Slike i videozapisi generirani umjetnom inteligencijom koriste se za manipuliranje žrtvama kako bi prebacile velike sume novca.
Bitno je naglasiti i to da deepfake tehnologija ne mora biti striktno vezana za slavne ličnosti, već vaš lik mogu iskoristiti kako bi prevarili druge ili se osvetili putem pornografije.
Osim video zapisa, vaš glas također može biti korišten kao sredstvo obmane putem vještačke inteligencije. No, ni slavne osobe nisu imune na isti.
Kada je nova glasovna opcija na najnovijem OpenAI-jevom AI modelu, ChatGPT-4o, sadržavala tonove koji su bili vrlo slični onima glumice Scarlett Johansson, rekla je da je bila šokirana i ljuta jer je glas “zvučao toliko jezivo slično mom da moji najbliži prijatelji i novinske kuće nisu mogli prepoznati razliku”.
Pošteđen nije ni predsjednik SAD-a Donald Trump koji često dijeli takve video zapise koje je generisala umjetna inteligencija, ali u svrhe zabave, kako bi svojim korisnicima pokazao sebe u McDonaldsu ili u šetnji.
A da domaće zvijezde nisu imune, dokazuje i slučaj Halida Bešlića, legendarnog pjevača, koji je bio žrtvom prevare na internetu.
Jedna stranica na društvenim mrežama reklamirala je sodu bikarbonu koja ‘ubija dijabetes’, a prodavao je “lično” Halid Bešlić. Naravno, ubrzo je od slavnog pjevača stigao i demanti, te je rekao da je sve ‘laž’.
Osim njega, žrtvama su bile i zvijezde iz regiona kao što je Miloš Biković koji je prodavao gel za vene ili Nina Badrić koja je reklamirala tablete za mršavljenje.
Korisnici vjeruju slavnim ličnostima i zato bi mogli lako nasjesti na prevare ovog tipa, a koje iskorištavaju ličnosti poznate javnosti kako bi stekli dojam povjerenja i sigurnosti u proizvod, ali i to da nema platne prevare.
Velika uloga umjetne inteligencije u ovom slučaju ne smije biti zanemarena, a prevare se svakim danom povećavaju obimom i vjerodostojnosti snimaka.
Kako se zaštititi?
Najbitnije pravilo je da svoje privatne, posebno finansijske podatke, ne dijelite na interentu sa trećim stranama.
Bitno je i da ne klikate na ponude koje su isuviše dobre da bi bile istina, te da svoje slike i video zapise držite na privatnim postavkama na društvenim mrežama.
Krajnji korisnici nisu krivi ako im se desi prevara, jer u softisticiranosti tehnologije, teško je razlučiti šta je istina, a šta ne. Ali treba se trenirati i pokušati razlučiti da li je nešto na ‘golo oko’ sumnjivo ili ne.