Aurascape, projekt koji je pokrenula tvrtka za rudarenje Bitcoina Auradine, otkrio je složenu shemu koja 'truje’ pretrage umjetne inteligencije kako bi korisnicima dostavljala lažne telefonske brojeve. Aurascape, tvrtka specijalizirana za kibernetičku sigurnost i umjetnu inteligenciju (AI), koju je stvorio Auradine, ali koja djeluje neovisno unutar ekosustava Aura Labs, razotkrila je ovaj novi model internetske prijevare.
Manipulacija velikim jezičnim modelima
Prijevare, o kojima je riječ u priopćenju od 8. prosinca, izravno ciljaju popularne AI platforme kao što su ChatGPT, Google, Perplexity i druge asistente koji se temelje na velikim generativnim jezičnim modelima (LLM). Prema provedenom istraživanju, ovaj se model oslanja na sustavnu manipulaciju sadržajem na webu s ciljem preusmjeravanja korisnika na lažne telefonske brojeve korisničke službe, posebice onih zrakoplovnih kompanija.
Istraživači objašnjavaju ključnu razliku u ovom napadu: napadači ne pokušavaju promijeniti unutarnje funkcioniranje AI asistenata (programa koji odgovaraju na pitanja koristeći napredne modele). Umjesto toga, oni interveniraju u okruženje iz kojeg ti sustavi crpe informacije.

Manipuliraju legitimnim web stranicama na način da, kada korisnik traži podatke za kontakt zrakoplovne tvrtke, asistenti prikažu lažne telefonske brojeve. Ti brojevi vode do centara za prijevare čiji je cilj ishoditi plaćanja ili ukrasti osjetljive podatke. U praksi, napad nije usmjeren protiv same umjetne inteligencije, već protiv materijala koje taj model pregledava i analizira. Stoga, umjesto izravnog varanja korisnika, napadači uče kako utjecati na sustave koji sintetiziraju odgovore, što značajno povećava doseg prijevare, tvrdi tim Aurascapea.
Kako funkcionira trovanje podataka: 'LLM phone-number poisoning’
Prema Aurascapeu, prevaranti primjenjuju proces koji istraživači opisuju kao „LLM phone-number poisoning” (trovanje telefonskih brojeva za jezične modele). Ovaj mehanizam uključuje modificiranje legitimnog sadržaja na internetu kako bi ga AI asistenti pročitali i preporučili lažne brojeve kao službene.
Istraživači naglašavaju da „napadači napadaju samu mrežu”. Kako bi to postigli, koriste niz sofisticiranih metoda:
- Postavljanje lažnog sadržaja na web stranice javnih institucija i sveučilišta.
- Ubacivanje lažnih informacija u WordPress blogove.
- Manipulacija opisima na YouTubeu.
- Korištenje recenzija na platformama kao što je Yelp za širenje lažnih podataka.
Osim toga, hakeri koriste i druge tehnike, poznate kao Generative Engine Optimization i Answer Engine Optimization, kako bi utjecali na način na koji sustavi odabiru i sintetiziraju dostupne informacije. Zahvaljujući ovim dvjema tehnikama, uspijevaju zauzeti mjesto koje AI asistenti smatraju „točnim odgovorom”, čime se legitimizira prijevara u očima krajnjeg korisnika.

Rudari Bitcoina i konvergencija s AI industrijom
Auradine je američka tvrtka primarno poznata po stvaranju hardvera za rudarenje bitcoina. Druge velike rudarske tvrtke, poput MARA (MARA) i Genesis Digital Assets (GDA), već su nabavile njihovu ASIC opremu. Međutim, istraživanje Aurascapea ilustrira i jedan poseban fenomen koji svakim danom dobiva na značaju: presjek interesa između tvrtki koje rudare bitcoin i industrije umjetne inteligencije.
Kako izvještava CriptoNoticias, rudari sve više proširuju svoje poslovanje na aktivnosti povezane s umjetnom inteligencijom. Ove tvrtke, naviknute na upravljanje velikim hardverskim infrastrukturama i podatkovnim centrima, nastoje ograničiti svoju izloženost volatilnosti tržišta rudarenja kroz diversifikaciju svojih usluga.
Analiza sigurnosti koju je provela Auradine izvrstan je primjer napretka ovog fenomena te pokazuje način na koji rudari koriste svoje tehničko iskustvo kako bi ušli u sektore gdje potražnja za računalnom snagom, analitikom i kibernetičkom sigurnošću neprestano raste.
