Thursday, February 6, 2025
spot_img
HomeBezbednostZaštita podatakaAI prevare: Od fišinga do deepfake-a

AI prevare: Od fišinga do deepfake-a

Ekspanzija veštačke inteligencije (AI) promenila je način na koji kupujemo, koristimo bankarske usluge, vozimo, pretražujemo internet, kreiramo i konzumiramo sadržaj. AI je jedan od alata koji će menjati i oblikovati društvene mreže i digitalne usluge tokom 2025. Pa, iako četbotovi i algoritmi poboljšavaju korisničko iskustvo i prilagodljivi su različitim primenama, otvorili su naše lične i poslovne živote za nove – i mračnije – napade socijalnog inženjeringa. Napretkom tehnologije i AI prevare su postale realnost.

Identity Fraud Report navodi da se pokušaj deepfake prevare dešava u proseku svakih pet minuta. Svetski ekonomski forum izveštava da bi čak 90 odsto online sadržaja moglo biti generisano veštački do 2026. godine. Na prvi pogled, moglo bi se pretpostaviti da su najveće deepfake i AI-fišing mete poznate ličnosti ili javne figure. Međutim, primarne mete i ciljevi ostaju kao i kod tradicionalnih prevara i obmana – pojedinci. Pojedinci sa njihovim ličnim, bankarskim i platnim informacijama, i kompanije, kao čuvari vrednih podataka i sredstava.

Koje AI tehnike koriste internet prevaranti

Fišing napadi danas su sve češće ojačani veštačkom inteligencijom. Fišing je internet prevara osmišljena da prevari žrtve i navede da nenamerno otkriju login podatke ili informacije o platnim karticama. Može ciljati i pojedince i kompanije, ali može biti masovan ili usmeren na samo jedanu instituciju ili korisnika. Fišing poruke obično dolaze u formi lažnih obaveštenja od banaka, provajdera usluga, e-plaćanja ili drugih organizacija. U slučajevima ciljane fišing kampanje, ove poruke mogu da izgledaju kao da dolaze od poznate osobe. Ovakve prevare aktivne su i kod nas već neko vreme.

Pročitajte još:

Uobičajeni resursi koji se koriste u fišing napadima često su loše napisani, generički i puni grešaka. Sada, Large Language Models omogućavaju napadačima da kreiraju personalizovane, uverljive poruke i stranice sa dobrom gramatikom, strukturom i značenjem. Fišing je tako postao globalna pretnja. Napadači sad mogu efikasnije da ciljaju pojedince na jezicima koje ne govore, oslanjajući se na generativnu veštačku inteligenciju. Pored toga, počinioci mogu da imitiraju stil određenih osoba, poput poslovnog partnera ili kolege, analizirajući objave na društvenim mrežama, komentare ili druge sadržaje povezane s njihovim identitetom.

AI prevare

Štaviše, u savremenoj digitalnoj eri, AI tehnologije nude mogućnost besprekornog kreiranja upečatljivih vizuala ili čak kompletnih internet stranica. Nažalost, iste te alatke mogu biti zloupotrebljene od strane sajber kriminalaca za izradu još uverljivijih fišing materijala. U tome im sada posebno AI alatke pomažu da budu efikasniji i proaktivniji.

Audio deepfake prevare

Deepfake tehnologija omogućava stvaranje sintetičkih medija u kojima veštačka inteligencija uverljivo replicira nečiji lik ili glas. Sa samo nekoliko sekundi audio zapisa, AI može da generiše snimke u nečijem glasu. To omogućava napadačima da kreiraju lažne glasovne poruke koje oponašaju pouzdane izvore, kao što su prijatelji ili porodica. Zamislite napadače koji preuzmu nalog aplikacije za dopisivanje i koriste glasovne poruke, da stvore lažne snimke koji imitiraju glas vlasnika?! Tada bi mogli koristiti te snimke za slanje poruka vlasnikovim prijateljima i rođacima, pretvarajući se da su on. Zastrašujuće je, ali sasvim moguće! Napadači bi mogli da iskoriste vaš glas kako bi zatražili hitne finansijske transfere ili osetljive informacije, koristeći lično poverenje za prevaru, kako na ličnom, tako i na korporativnom nivou.

Video deepfake prevare

Napadači takođe mogu da koriste AI alate za kreiranje video deepfake snimaka – čak i od samo jedne fotografije. Ako mislite da je to poput naučne fantastike i CGI efekata iz filmova koji zahtevaju doktorat iz računarstva – iznenadićete se! Posle nekoliko jednostavnih tutorijala, moguće je zameniti lice i pokrete usana, čak i korišćenjem složenog softvera. Moguće je zameniti lica u video snimcima, ispraviti nepravilnosti generisane AI-jem i dodati realističan glas liku.

Sa ovim alatima na raspolaganju, napadači mogu da osmise naizgled nezamislive prevare. Kreiranje lažnih reklama, upućivanje obmanjujućih poziva ili čak vođenje video poziva uživo, pretvarajući se da su saradnik ili bliska osoba… To su samo neke od prevara, koje na kraju mogu dovesti do značajnih finansijskih gubitaka ili krađe onlajn identiteta.

AI prevare

AI prevare: Primeri iz stvarnog života

U kompaniji Kaspersky već su uočili da kriminalci koriste velike jezičke modele za generisanje sadržaja u fišing i prevarantskim napadima. Ipak, ovakvi napadi često ostavljaju prepoznatljive tragove specifične za AI. Prevarantski sadržaj generisan uz pomoć LLM-a omogućava napadačima da automatizuju kreiranje desetina ili čak stotina fišing i prevarantskih web stranica sa uverljivim sadržajem, čineći napade verodostojnijim.

Osim fišinga, već su se pojavili brojni primeri deepfake napada visokog nivoa. Jedna žrtva je prevarena nakon što joj je rečeno da ju je Ilon Mask izabrao za ulaganje u projekat. Pozvana je na konferencijski poziv, a deepfake verzija Maska je objasnila detalje grupi učesnika. Potom su pozvani da uplate sredstva, što je dovelo do značajnih gubitaka.

Pročitajte još:

Sajber kriminalci koriste lažne reklame sa deepfake snimcima poznatih ličnosti, glumaca ili političara, koje plasiraju na različitim platformama. U jednom slučaju, deepfake video prikazao je premijera Kanade Džastina Trudoa kako promoviše investicionu šemu.

Deepfake prevare nisu ograničene samo na investicione šeme. Na primer, AI romantične prevare koriste deepfake tehnologiju za kreiranje izmišljenih identiteta i interakciju sa žrtvama putem video poziva. Nakon što zadobiju poverenje žrtve, prevaranti traže novac za hitne slučajeve, putovanja ili zajmove. Nedavno je uhapšena grupa sa više od 20 ljudi umešanih u ovakve prevare nakon što su od žrtava širom Tajvana, Singapura i Indije ukrali 46 miliona dolara.

Lažni glasovi takođe su korišćeni u prevarama usmerenim ka pojedincima, kao i u napadima na banke koje koriste glasovnu autentifikaciju.

AI prevare

AI prevare i kako se zaštititi

Kako se AI tehnologija razvija, tako moraju i naše odbrambene mere. Mere zaštite mogu se podeliti na one tehničke i uobičajene prirode. Kada je reč o tehničkim merama, veliki jezički modeli u budućnosti bi mogli – i verovatno hoće – da integrišu vodene žigove. Ovi vodeni žigovi su neprimetni ljudima, ali ih algoritmi vide, pomažući u identifikaciji i označavanju AI-generisanog sadržaja. Važno je napomenuti da je ovaj pristup uglavnom efikasan za velike modele koje razvijaju vodeće kompanije. Ako zlonamerni akter kreira i koristi svoj lični veliki jezički model, lako bi mogao zaobići ove oznake.

Još jedna obećavajuća tehnologija su detektori deepfake sadržaja. Ovi alati prepoznaju specifične karakteristike manipulisanih slika, neočekivane fluktuacije u glasu, atipične fraze u tekstu i druge artefakte koji ukazuju na upotrebu AI prevare. Glavni izazov za detektore je da se razvijaju jednako brzo kao i generativna AI tehnologija, kako bi ostali efikasni.

Digitalni potpisi, široko korišćeni za bankarske transakcije i komunikaciju, mogli bi se usvojiti za proveru autentičnosti video i audio zapisa. Suštinski, ovo je jedno od najpouzdanijih tehničkih rešenja. Kao što danas mnogi sajtovi koriste digitalne potpise koji se automatski verifikuju u pozadini, verovatno će u budućnosti i video i audio poruke imati digitalne potpise, s verifikacijom koja će se odvijati diskretno u pozadini.

Pročitajte još:

Međutim, borba protiv socijalnog inženjeringa ne može se osloniti isključivo na tehnologiju. Prevare su postojale mnogo pre deepfake tehnologije, a edukacija i podizanje svesti su oduvek bili ključne odbrambene mere. Danas postoji kritičan jaz: mnogi ljudi nisu svesni koliko lako ova tehnologija može biti zloupotrebljena. Napadači koriste ovu neinformisanost, što ukazuje na hitnu potrebu za otvorenim dijalogom i sveobuhvatnim edukativnim kampanjama na ovu temu.

Zaključno, iako pretnje pokretane veštačkom inteligencijom i deepfake-ovi predstavljaju sve veći izazov, razumevanje rizika je prvi korak ka njihovom rešavanju. Nema potrebe za strahom – podizanje svesti i unapređenje sajber pismenosti su ključ. Pojedinci se mogu zaštititi tako što ostaju informisani, oprezni i promišljeni u svojim online interakcijama. Organizacije mogu da preduzmu proaktivne korake za smanjenje rizika povezanih s AI tehnologijom kroz proverena sigurnosna rešenja, poboljšane sigurnosne prakse i inicijative. Udruženim snagama i pažljivim pristupom ovim izazovima možemo stvoriti sigurnije i otpornije digitalno okruženje.

AI prevare su realnost koja prevazilazi državne, jezičke i sve druge barijere jednostavno i brzo. Stoga i mere zaštite moraju preduzimati na vreme, promišljeno i mudro. Lična zaštita i opreznost pojedinca ostaju izuzetno važno. Zato proveravajte sve, jer AI prevare dolaze u različitim oblicima i na različitim platformama.

PROČITAJTE I OVO

OSTAVITE KOMENTAR

Please enter your comment!
Please enter your name here

- Advertisment -spot_img

NAJPOPULARNIJE

NAJNOVIJI KOMENTARI

Marko Čavić on iPhone 16 cene u Srbiji
Gazda milutin on iPhone 16 cene u Srbiji