Kako će EU nadzirati velike AI modele: od AI Ureda do pristupa policy-as-code

Kako će EU nadzirati velike AI modele: od AI Ureda do pristupa policy-as-code

AI Act ulazi u fazu stvarne primjene

Europski akt o umjetnoj inteligenciji (AI Act) ulazi u ključnu fazu: od političkog dogovora i pravnih tekstova prema stvarnoj primjeni na terenu. Od kolovoza 2025. na snazi su konkretne obveze za pružatelje modela opće namjene (General Purpose AI – GPAI), uključujući velike generativne modele poput onih koji pokreću današnje chatbotove i sustave za generiranje slike ili koda.

Istodobno se uspostavlja nova institucionalna arhitektura. U Bruxellesu nastaje Europski AI Ured (EU AI Office), a u državama članicama mreža nacionalnih nadzornih tijela. Zajedno će nadzirati kako se modeli razvijaju, treniraju, objavljuju i integriraju u proizvode i usluge na jedinstvenom tržištu. Cilj je dvostruk: omogućiti inovacije i konkurentnost europskih tvrtki, ali uz jasna pravila za najmoćnije AI sustave koji mogu imati značajan utjecaj na društvo.

Tko je zapravo „pružatelj GPAI modela“?

Kako bi se izbjegla pravna nesigurnost, Europska komisija je objavila detaljne smjernice za pružatelje modela opće namjene. One pojašnjavaju nekoliko ključnih pitanja: tko se smatra pružateljem, što je točno „opće namjenski model“ i u kojim je slučajevima open-source pristup djelomično izuzet od najstrožih zahtjeva.

Pružateljem GPAI modela smatra se subjekt koji prvi put stavlja model na tržište EU ili ga pušta na raspolaganje drugim korisnicima, neovisno o tome je li riječ o komercijalnom ili nekomercijalnom projektu. To može biti velika tehnološka kompanija, cloud platforma, ali i sveučilišni laboratorij ili istraživački konzorcij ako model stavi na raspolaganje široj zajednici.

Opće namjenski model definira se funkcionalno: riječ je o modelu koji može obavljati širok raspon zadataka, a ne samo jednu usko specijaliziranu funkciju. Primjeri su modeli za generiranje teksta, slike, zvuka ili koda koji se kasnije prilagođavaju (fine-tuning) za specifične sektore poput zdravstva, financija ili javne uprave.

Open-source: olakšice, ali i dalje uz obveze

Jedna od najosjetljivijih tema bila je pozicija open-source zajednice. EU želi izbjeći da manji istraživački timovi i neprofitni projekti snose isti administrativni teret kao globalni tehnološki giganti, ali istovremeno zadržati minimalnu razinu transparentnosti i sigurnosti.

Smjernice razrađuju pod kojim uvjetima open-source modeli dobivaju ublažene obveze. Primjerice, kod modela čiji se parametri, arhitektura i trenirani težinski koeficijenti javno objavljuju, dio zahtjeva se ublažava, posebno ako je riječ o istraživačkim ili eksperimentalnim projektima. No, čak i tada, za moćne modele koji mogu biti zloupotrijebljeni (npr. generiranje dezinformacija, bioloških prijetnji ili sofisticiranih cybernapada) očekuje se osnovna razina transparentnosti.

To uključuje objavu sažetaka o korištenim skupovima podataka, informacijama o potrošenim računalnim resursima, ključnim sigurnosnim mjerama i ograničenjima modela. Takvi „model cards“ i „data cards“ omogućuju regulatorima, istraživačima i korisnicima da bolje razumiju rizike, bez otkrivanja svih poslovnih tajni ili potpunih datasetova.

Od pravnika do inženjera: usklađenost postaje tehničko pitanje

Za europske pružatelje AI rješenja – od startupa do globalnih cloud platformi – AI Act znači da se usklađenost više ne može rješavati samo kroz pravne dokumente, uvjete korištenja i ručne provjere. Usklađenost postaje i inženjerski zadatak.

U praksi će biti nužno kombinirati tehničke i organizacijske mjere:

  • Tehničke mjere: izrada i održavanje „system cards“ za modele, detaljno logiranje upita i odgovora u svrhu audita, automatizirano testiranje modela na rizičnim scenarijima (npr. govor mržnje, diskriminacija, poticanje nasilja), detekcija i ograničavanje generiranja štetnog sadržaja.
  • Organizacijski procesi: uspostava internih AI etičkih odbora, procedure za procjenu rizika prije puštanja modela na tržište, redoviti unutarnji i vanjski auditi, jasne linije odgovornosti između pravnih, sigurnosnih i ML timova.

Posebno će pod povećalom biti modeli koji se koriste u visokorizičnim područjima: medicinska dijagnostika, zapošljavanje i selekcija kandidata, obrazovni sustavi, kreditno bodovanje i javne usluge. U tim sektorima AI odluke mogu izravno utjecati na temeljna prava, pristup uslugama i sigurnost građana, pa se očekuje stroži nadzor i detaljnije dokazivanje usklađenosti.

Policy-as-code: kada se pravila pretvaraju u kod

Paralelno s klasičnim regulatornim pristupom, u istraživačkoj zajednici raste interes za tzv. „policy-as-code“ rješenja. Ideja je da se etička pravila, sigurnosne politike i regulatorni zahtjevi ne zadržavaju samo u PDF dokumentima i internim pravilnicima, već da se pretvore u strojno čitljiv kod koji se izravno koristi u AI sustavima.

U praksi to znači pisanje formaliziranih pravila (npr. u obliku politika, ograničenja i dozvola) koja se mogu automatski primijeniti u različitim fazama AI životnog ciklusa: pri treniranju modela, tijekom fine-tuninga, pri inferenceu, pa čak i pri nadzoru nad odgovorima u realnom vremenu.

Primjeri poput ArGen okvira za autoregulaciju generativne AI pokazuju kako se skup pravila može spojiti s algoritmima pojačanog učenja (reinforcement learning). Model se tada tijekom treniranja automatski „nagrađuje“ za odgovore koji su u skladu s definiranim pravilima, a „kažnjava“ za problematične ili rizične izlaze. Rezultat je model koji je tehnički optimiziran ne samo za točnost ili kreativnost, već i za usklađenost s normama.

Prednosti policy-as-code pristupa

Za europske pružatelje AI rješenja policy-as-code može ponuditi nekoliko konkretnih prednosti:

  • Automatizirano dokazivanje usklađenosti: ako su politike formalizirane kao kod, moguće je generirati izvještaje i logove koji pokazuju kako su pravila primjenjivana tijekom treniranja i korištenja modela.
  • Brže prilagodbe regulativi: promjene u zakonodavstvu mogu se odraziti kroz ažuriranje pravila u kodu, umjesto potpunog redizajna procesa.
  • Smanjenje ljudskih pogrešaka: dio interpretacije pravila prebacuje se s pojedinačnih zaposlenika na formalizirane politike koje se konzistentno provode u svim okruženjima.

Takvi pristupi još su u ranoj fazi, ali se očekuje da će upravo EU regulativa biti snažan poticaj da policy-as-code iz istraživačkih radova prijeđe u produkcijske AI pipelineove.

„Governable AI“ kao nova konkurentska prednost

Sljedeće dvije godine, do potpune primjene AI Acta 2026., bit će presudne za oblikovanje standarda i dobre prakse nadzora velikih AI modela u Europi. Tvrtke koje rano uvedu koncepte „governable AI“ – u kojima se pravila, vrijednosti i ograničenja ugrađuju u sam model i infrastrukturu, a ne samo u korisnički ugovor – steći će jasnu prednost.

Takve organizacije moći će:

  • brže prolaziti regulatorne provjere i certifikacijske postupke,
  • lakše sudjelovati u javnim nabavama gdje će se tražiti dokaziva usklađenost,
  • graditi povjerenje korisnika, osobito u osjetljivim sektorima poput zdravstva i javne uprave.

Za developere i inženjere to otvara nove uloge na sjecištu machine learninga, MLOpsa, kibernetičke sigurnosti i prava. Pojavljuju se profili poput inženjera za usklađenost modela (model compliance engineer), stručnjaka za policy-as-code, arhitekata AI governance sustava i specijalista za evaluaciju rizika modela.

Što organizacije mogu učiniti već danas?

Iako se puni učinak AI Acta osjeti tek 2026., organizacije koje razvijaju ili integriraju velike AI modele već sada mogu početi s pripremama:

  • Mapirati AI portfelj: popisati sve modele u upotrebi, njihove dobavljače, svrhe i podatke na kojima rade.
  • Uvesti osnovne „model cards“: definirati za svaki model ključne informacije – namjenu, ograničenja, rizike i procedure za ažuriranje.
  • Postaviti logiranje i nadzor: osigurati da se odluke modela i interakcije bilježe na način koji omogućuje kasniju analizu i audit.
  • Testirati rizične scenarije: razviti set testova za detekciju diskriminatornih, nasilnih ili pravno problematičnih izlaza.
  • Početi eksperimentirati s policy-as-code pristupom: čak i u ograničenom opsegu, primjerice kroz pravila za moderiranje sadržaja ili ograničavanje određenih tipova upita.

Takvi koraci ne samo da olakšavaju buduću usklađenost s AI Actom, nego i poboljšavaju unutarnje razumijevanje rizika i mogućnosti koje donose veliki AI modeli.

Europa kao laboratorij za odgovornu AI infrastrukturu

EU je s AI Actom preuzela ulogu globalnog regulatornog pionira. Kritičari upozoravaju na rizik prevelikog opterećenja za inovacije, dok zagovornici ističu da jasna pravila mogu dugoročno povećati povjerenje i ubrzati prihvaćanje AI rješenja.

U praksi će upravo implementacija – od rada AI Ureda, preko nacionalnih tijela, do konkretnih tehničkih rješenja poput policy-as-code pristupa – pokazati može li Europa postati referentni okvir za odgovorno upravljanje velikim AI modelima. Ako uspije, europsko tržište moglo bi postati svojevrsni „laboratorij“ za kombiniranje napredne AI tehnologije i čvrstih standarda zaštite temeljnih prava.

Za pružatelje AI rješenja poruka je jasna: nadzor velikih modela u EU više nije teorijsko pitanje, nego konkretan inženjerski, organizacijski i strateški zadatak koji započinje već danas.

Natrag na vrh