Svaki put kada ubacite tabelu sa imenima klijenata u ChatGPT, napravili ste odluku o zaštiti podataka. Verovatno je niste ni primetili.
Zamislite sledeću situaciju. Zaposleni u vašoj firmi dobije listu od 500 kupaca sa imenima, email adresama i istorijom kupovina. Treba da napravi analizu trendova. Umesto da provede dva dana u Excel-u, kopira tabelu u ChatGPT i pita: “Koji su moji najbolji kupci po učestalosti kupovine u poslednjih 6 meseci?”
Odgovor stiže za 30 sekundi. Analiza je tačna. Svi su zadovoljni.
Osim što je upravo poslao lične podatke 500 ljudi na servere u SAD-u, bez njihovog pristanka, bez pravnog osnova, bez ikakve evidencije o tome. Prema GDPR-u, ovo je potencijalno kršenje koje može da košta do 20 miliona evra ili 4% godišnjeg prometa – zavisno šta je veće.
Ovo nije hipotetički scenario. Ovo se dešava svaki dan, u firmama svih veličina, širom regiona.
I problem nije AI. Problem je što većina kompanija nema definisan način na koji zaposleni smeju da koriste AI alate sa poslovnim podacima.
Šta GDPR zapravo kaže o AI-u?
GDPR nije pisan za AI – nastao je 2016. godine, pre nego što je ChatGPT postojao. Ali njegovi principi su univerzalni i primenjuju se na svaku obradu ličnih podataka, bez obzira na tehnologiju.
Evo ključnih principa koji se direktno odnose na korišćenje AI alata:
Zakonit osnov za obradu. Ne možete obrađivati lične podatke “jer je tako lakše.” Morate imati pravni osnov – pristanak, ugovornu obavezu, legitimni interes, ili neki drugi osnov iz člana 6. GDPR-a. Kada zaposleni kopira podatke u AI alat, organizacija mora da zna koji je pravni osnov za tu obradu.
Minimizacija podataka. Koristite samo podatke koji su zaista neophodni. Ako vam treba analiza trendova kupovine, da li zaista morate da pošaljete imena i email adrese? Ili su dovoljni anonimizovani podaci – starosna grupa, region, kategorija proizvoda?
Prava lica na koja se podaci odnose. Član 22 GDPR-a kaže da pojedinci imaju pravo da ne budu predmet odluke koja se zasniva isključivo na automatizovanoj obradi. Ako AI donosi odluke koje utiču na ljude – od kreditnog scoringa do filtriranja CV-ova – ta lica moraju da znaju da AI učestvuje u procesu i da imaju pravo na ljudsku intervenciju.
I tu dolazimo do anonimizacije – rešenja koje mnogi potcenjuju.
Anonimizacija: Kada podatak prestane da bude ličan
GDPR se ne primenjuje na anonimizovane podatke. To je eksplicitno navedeno. Ako podatak ne može da se poveže sa konkretnom osobom – ni direktno, ni indirektno, ni u kombinaciji sa drugim podacima – onda to više nije lični podatak i GDPR se ne primenjuje.
Ovo je izuzetno moćan koncept za kompanije koje žele da koriste AI.
Umesto da šaljete sirove podatke u AI alat, anonimizujte ih prvo. Konkretno, to znači:
Generalizacija – umesto tačnog datuma rođenja, koristite starosnu grupu. Umesto tačne adrese, koristite region ili grad.
Supresija – potpuno uklonite polja koja nisu neophodna. Ako analizirate trendove kupovine, ime kupca vam ne treba.
Perturbacija – dodajte kontrolisani “šum” u podatke. Zaokružite iznose, pomerite datume za nasumičan broj dana. Statistički trendovi ostaju isti, ali konkretna osoba se ne može identifikovati.
Važno upozorenje: pseudonimizacija nije isto što i anonimizacija. Ako zamenite ime kodom, ali negde postoji tabela koja povezuje kod sa imenom – to je pseudonimizacija i GDPR se i dalje primenjuje. Prava anonimizacija je nepovratna.
I tu stižemo do standarda koji ovo stavlja u sistem.
ISO 27701 – Sistem upravljanja privatnošću
Ako vam je ISO 27001 poznat kao standard za informacionu bezbednost, zamislite ISO 27701 kao njegovo proširenje za privatnost podataka. Objavljen 2019. godine, ISO 27701 definiše zahteve za sistem upravljanja informacijama o privatnosti (PIMS – Privacy Information Management System).
Standard pokriva obe strane – i kontrolore podataka (koji odlučuju zašto i kako se podaci obrađuju) i obrađivače podataka (koji obradu vrše u ime kontrolora). Ovo je posebno relevantno kada koristite cloud AI servise – jer u tom slučaju, provajder AI alata je obrađivač, a vi ste kontrolor.
ISO 27701 zahteva da organizacija:
Identifikuje koje lične podatke obrađuje i na kom pravnom osnovu. Definiše procese za ostvarivanje prava lica (pristup, ispravka, brisanje). Upravlja odnosima sa obrađivačima kroz ugovore koji preciziraju obaveze. Dokumentuje i redovno preispituje mere zaštite privatnosti.
U praksi, implementacija ISO 27701 znači da vaša organizacija ima odgovor na pitanje “ko, šta, zašto i kako radi sa ličnim podacima” – u svakom trenutku. A to je upravo ono što GDPR zahteva.
ISO 42001- Upravljanje veštačkom inteligencijom
I evo standarda koji zaokružuje priču.
ISO/IEC 42001, objavljen u decembru 2023, je prvi međunarodni standard za sisteme upravljanja veštačkom inteligencijom. Možete ga zamisliti kao “ISO 27001 za AI” – isti pristup (Plan-Do-Check-Act), ali fokusiran na specifične rizike koje AI donosi.
Zašto je ovo važno? Zato što AI ima rizike koje klasična informaciona bezbednost ne pokriva u potpunosti – pristrasnost algoritama, netransparentnost odlučivanja, nekontrolisana upotreba trening podataka, i etičke dileme koje nemaju tehničko rešenje.
ISO 42001 zahteva da organizacija:
Uspostavi politiku korišćenja AI-a koja je usklađena sa poslovnim ciljevima i etičkim principima. Sprovede procenu rizika specifičnih za AI – uključujući pristrasnost, bezbednost, privatnost i transparentnost. Definiše 38 kontrola koje pokrivaju sve od upravljanja podacima za trening, preko testiranja modela, do monitoringa u produkciji. Obezbedi da AI sistemi budu objašnjivi – da neko može da kaže zašto je AI doneo određenu odluku.
Ovo nije samo za velike tech kompanije. Svaka organizacija koja koristi AI alate – pa i ChatGPT za pisanje emailova – donosi odluke o upravljanju AI-em. ISO 42001 samo te odluke stavlja u sistem.
Kako ovo sve radi zajedno?
Evo kako se ovi elementi slažu u praksi:
GDPR definiše pravna pravila – šta morate, a šta ne smete sa ličnim podacima. Anonimizacija je tehničko rešenje – način da koristite podatke za AI bez da kršite GDPR. ISO 27701 daje upravljački okvir za privatnost – sistem koji obezbeđuje da pravila poštujete konzistentno. ISO 42001 dodaje upravljanje AI-em – sistem koji obezbeđuje da AI koristite odgovorno, etički i transparentno.
Sva tri standarda koriste Annex SL strukturu, što znači da se integrišu prirodno – sa ISO 27001, ISO 9001, ili bilo kojim drugim sistemom koji već imate.
Šta možete da uradite već danas?
Ne morate da implementirate tri standarda da biste zaštitili svoju organizaciju. Evo četiri koraka koja možete da preduzmete odmah:
Prvo – definišite pravila za korišćenje AI alata u firmi. Koji podaci smeju da se koriste, a koji ne? Ko odobrava? Jedan dokument od jedne stranice je dovoljan za početak.
Drugo – anonimizujte podatke pre nego što ih ubacite u AI. Uklonite imena, email adrese, brojeve telefona. Ako analizirate trendove, ne treba vam identitet pojedinca.
Treće – proverite ugovore sa AI provajderima. Gde se podaci čuvaju? Da li se koriste za trening modela? Da li možete da zahtevate brisanje? Većina ozbiljnih provajdera danas nudi opcije za privatnost – ali morate da ih aktivirate.
Četvrto – edukovajte zaposlene. Najveći rizik nije tehnologija – to su ljudi koji ne znaju šta smeju a šta ne. Petnaest minuta objašnjenja na timu može da spreči incident koji košta milione.
Regulativa se zaoštrava. EU AI Act ulazi u punu primenu u avgustu 2026.
Ovo nije nešto što može da čeka. Kompanije koje sada uspostave odgovoran pristup AI-u i zaštiti podataka – biće u znatno boljoj poziciji od onih koje budu čekale poslednji trenutak.
A prvi korak je uvek isti – razumeti o čemu se radi.


