HomeBezbednostZaštita podatakaTransparentna upotreba veštačke inteligencije – kako je postići?

Transparentna upotreba veštačke inteligencije – kako je postići?

Kompanija Kaspersky u Madridu je početkom jula održala prvu Kaspersky HORIZONS konferenciju. Nasleđujući dosadašnji NEXT, HORIZON je okupio više od 30 novinara iz celog sveta, pružajući uvid u najnovije trendove sajber bezbednosti. Glavni grad Španije tri dana je bio centar zbivanja sajberbezbednosne industrije, na kojem su stručnjaci kompanije Kaspersky ukazali da je transparentna upotreba veštačke inteligencije neophodna što pre.

Veštačka inteligencija je mač sa dve oštrice“, moglo se čuti na HORIZONS konferenciji. Iako može doneti značajne iskorake u efikasnosti i otvoriti nove mogućnosti za kompanije i pojedince, takođe može biti i zloupotrebljena od strane sajber kriminalaca za pravljenje malvera i druge napade.

Prema nedavnom Kaspersky istraživanju, 52% kompanija globalno strahuje od gubitka poverenja ukoliko ne unaprede zaštitu od AI napada. Istovremeno, 41% navodi da im nedostaje stručno znanje o eksternim pretnjama kako bi se efikasno zaštitile od takvih scenarija. Pomoću Smernica za bezbedan razvoj i primenu AI sistema, Kaspersky nudi konkretne preporuke kompanijama za bezbednu i odgovornu AI implementaciju. Dodatno, Principi etičke upotrebe AI sistema u sajber bezbednosti dopunjuju smernice etičkim načelima za razvoj i korišćenje veštačke inteligencije.

Sajber kriminalci već koriste AI za napade

Veštačka inteligencija se brzo razvija. Njen potencijal uglavnom je usmeren ka korisnim efektima za kompanije i pojedince. Ali, manje sofisticirani sajber kriminalci već koriste AI kako bi proširili svoje kapacitete za maliciozne aktivnosti.

Nedavno istraživanje kompanije Kaspersky pokazuje da je većina kompanija svesna ovih opasnosti. Gotovo 60% kompanija širom sveta strahuje od gubitka poverljivih podataka. Više od polovine strahuje od gubitka poverenja i finansijske štete, ukoliko ne unaprede zaštitu od napada zasnovanih na veštačkoj inteligenciji. Međutim, često nedostaje potrebno znanje. Čak 41% ispitanika navodi da nemaju relevantne informacije od eksternih stručnjaka o aktuelnim pretnjama koje donose AI podržani napadi.

Važne inicijative o veštačkoj inteligenciji

Kaspersky se zalaže za jasne smernice za etički razvoj i AI upotrebu kako bi se sprečile manipulacije i zloupotrebe. Tokom 2024, kompanija je potpisala Pakt o veštačkoj inteligenciji Evropske komisije. Cilj inicijative je priprema organizacija za primenu Akta o veštačkoj inteligenciji. Prvi sveobuhvatan pravni AI okvir na globalnom nivou, koji je usvojila Evropska unija (EU). U decembru, Kaspersky je na radionici u okviru Foruma za upravljanje internetom (IGF) u Rijadu predstavio i sopstvene smernice za bezbedan razvoj i primenu AI sistema. Transparentnost, bezbednost i sigurnost, ljudska kontrola i zaštita podataka predstavljaju glavna načela i temelj ove inicijative.

Pročitajte još:

„Etička veštačka inteligencija predstavlja temelj poverenja, usklađenosti sa propisima i održivog poslovnog uspeha. Ona omogućava kompanijama da efikasno umanje rizik od curenja podataka i pretnji zasnovanih na AI tehnologiji. Istovremeno pouzdano ispunjavaju regulatorne zahteve poput Akta o veštačkoj inteligenciji EU. U sve više digitalizovanom svetu, odgovorna upotreba AI nije samo tehnološko, već i pitanje poslovnog integriteta i dugoročne održivosti. Naše smernice za bezbedan razvoj i primenu veštačke inteligencije, kao i principi etičke upotrebe AI sistema u sajber bezbednosti, omogućavaju kompanijama da koriste AI odgovorno i bezbedno. Tako se štite od pretnji povezanih sa veštačkom inteligencijom, a ne žrtvuju koristi koje pruža“, izjavio je Johen Mikels, direktor za odnose s javnošću za Evropu u kompaniji Kaspersky.

Klement Domingo podelio je svoja saznanja i iskustvo kao promoter sajber bezbednosti. „Tokom proteklih meseci svedočio sam drastičnoj upotrebi veštačke inteligencije od strane sajber kriminalaca. Oni veoma dobro razumeju kolika je to prekretnica i već je uspešno koriste za unapređenje napada. Od izuzetne je važnosti da i kompanije odmah uključe veštačku inteligenciju u odbrambene strategije, kako bi ojačale celokupne bezbednosne mere. Ključno je razumeti metode sajber kriminalaca, ponekad čak i staviti se u njihovu poziciju, kako bismo postali efikasniji u borbi protiv njih. U tom smislu, AI može biti moćan alat. Posebno, ako se koristi mudro i odgovorno, za zaštitu vrednih podataka, infrastrukture, privatnosti i celokupnog poslovanja“, izjavio je Klement.

Stubovi etičke upotrebe veštačke inteligencije

Kako bi podržala usvajanje etičke veštačke inteligencije, kompanija Kaspersky je razvila smernice i principe za njenu odgovornu upotrebu.

Pročitajte još:

Smernice za bezbedan razvoj i primenu AI sistema bave se ključnim aspektima razvoja, primenom i upravljanjem AI sistemima. Uključeni su osmišljavanje, najbolje bezbednosne prakse i integracija, bez fokusiranja na razvoj osnovnih modela.

  • Svest i obuka o sajber bezbednosti. Kaspersky naglašava lidersku podršku i specijalizovanu obuku zaposlenih. Zaposleni bi trebalo da razumeju pretnje u vezi sa veštačkom inteligencijom kroz redovno ažurirane obuke koje odražavaju nove rizike.
  • Modelovanje pretnji i procena rizika. Proaktivno modelovanje pretnji (STRIDE, OWASP) pomaže u ranom otkrivanju ranjivosti. Kaspersky ističe značaj procene rizika kao što su trovanje podataka i zloupotreba modela.
  • Bezbednost infrastrukture (oblak). Snažna Cloud bezbednost je od suštinskog značaja. Kaspersky preporučuje enkripciju, segmentaciju mreže, principe nultog poverenja i redovno instaliranje zakrpa kako bi se sprečili bezbednosni proboji.
  • Bezbednost lanca snabdevanja i podataka. AI alati trećih strana predstavljaju rizik za podatke i privatnost. Kaspersky savetuje stroge provere, korišćenje safetensor formata i snažne politike privatnosti kako bi se sprečile zloupotrebe.
  • Testiranje i validacija. Kontinuirana validacija modela otkriva probleme kao što su odstupanje podataka i napadi protivničkih modela. Kaspersky preporučuje praćenje, particionisanje skupova podataka i proveru logike donošenja odluka.
  • Odbrana od napada specifičnih za mašinsko učenje. Da bi se zaštitili od napada kakvi su ubacivanje manipulisanih upita i zlonamerni ulazi, Kaspersky predlaže treniranje na simuliranim napadima, detekciju nepravilnosti i jednostavnije modele.
  • Redovno ažuriranje bezbednosti i održavanje. Često instaliranje zakrpa AI alata i programi za prijavu bagova pomažu u otklanjanju ranjivosti i jačanju otpornosti.
  • Usklađenost sa međunarodnim standardima.Kompanija Kaspersky naglašava važnost poštovanja globalnih standarda (GDPR, Akt EU o veštačkoj inteligenciji) i redovnih provera. Tako bi se obezbedila usklađenost sa zakonskim, etičkim i standardima zaštita privatnosti.

Pročitajte još:

Principi etičke upotrebe AI sistema u sajber bezbednosti zagovaraju veću edukaciju i jasne standarde. Usredsređene su na transparentnost, bezbednost, ljudsku kontrolu i zaštitu podataka, kako bi se efikasno sprečila manipulacija i zloupotreba AI.

  • Transparentnost. Otkrivanje upotrebe veštačke inteligencije/mašinskog učenja korisnicima. Objašnjavanje kako funkcioniše. Razvijanje sistema koji su što razumljiviji i uvođenje kontrolnih mehanizama kako bi se obezbedili validni rezultati.
  • Bezbednost. Davanje prioriteta bezbednosti tokom razvoja i implementacije. Sprovođenje specifičnih bezbednosnih provera i simulacije napada. Minimiziranje oslanjanja na eksterne podatke za obuku. Primena višeslojnih strategija zaštite i davanje prednosti rešenjima zasnovanim na oblaku sa odgovarajućim merama zaštite.
  • Ljudska kontrola. Obezbeđivanje ljudskog nadzora nad svim sistemima veštačke inteligencije/mašinskog učenja. Kontinuirano praćenje od strane stručnjaka i kombinovanje algoritama sa ljudskom ekspertizom.
  • Zaštita podataka. Poštovanje privatnosti ličnih podataka. Ograničavanje i smanjenje obrade podataka. Pseudonimizacija ili anonimizacija. Obezbeđivanje integriteta podataka i primena tehničkih i organizacionih mera za zaštitu privatnosti.

Transparentna upotreba veštačke inteligencije je proces

Kao i mnogo toga pre nje, transparentna upotreba veštačke inteligencije nije moguća lako. Potrebno je zajedničko delovanje mnogobrojnih učesnika u njenom korišćenju i sprovođenju. Ipak, samo zajedničkim delovanjem i razumevanjem, transparentna upotreba veštačke inteligencije je i ostvariva. Kompanija Kaspersky će zato omogućiti svima, koji to žele, zajednički rad na dostizanju i ovog cilja.

Transparentna upotreba veštačke inteligencije bila je tema i našeg intervjua sa Lilijanom Akostom. Lilijana je CEO Thinker Soul kompanije, koja se bavi upravo etikom veštačke inteligencije u poslovanju. U razgovoru smo se dotakli više teme, a posebno o tome kako AI i mašinsko učenje na etički način moraju biti korišćeni, ne samo u svakodnevnom životu i poslovanju, nego i o tome kakav je njen uticaj u okvirima sajber bezbednosti. Čitajte intervju uskoro na TechZone i pratite nas na društvenim mrežama!

PROČITAJTE I OVO

OSTAVITE KOMENTAR

Please enter your comment!
Please enter your name here

- Advertisment -spot_img

NAJPOPULARNIJE

NAJNOVIJI KOMENTARI

Marko Čavić on Mobilni bonton: Lekcija #1
Mirjana Bosnic, née Kacanski on Viber u Srbiji tokom 2025. godine: Više od poruka
Marko Čavić on ROG Xbox Ally cene u Srbiji
Marko Čavić on ROG Xbox Ally cene u Srbiji
Marko Čavić on TechZone Viber kanal
Драган Тодоровић on Viber TRŽNICA: Da pronađete ono što vam treba
Marko Čavić on iPhone 16e umesto iPhone SE
Dragan Đurđević on Kako gledati N1 i Nova na Total TV
Danijela Milovanovic on Kako gledati N1 i Nova na Total TV
Danijela Milovanovic on Kako gledati N1 i Nova na Total TV
Danijela Milovanovic on Kako gledati N1 i Nova na Total TV
Marko Čavić on Netflix uvodi HDR10+ prikaz
Marko Čavić on iPhone 16 cene u Srbiji
Gazda milutin on iPhone 16 cene u Srbiji