EU AI Act dobiva novi tempo
Europska unija je početkom svibnja 2026. tiho, ali značajno promijenila dinamiku uvođenja najstrožih pravila za umjetnu inteligenciju. Kroz tzv. „digitalni omnibus” paket, Vijeće EU i Europski parlament dogovorili su pomicanje rokova za primjenu obveza na visokorizične AI sustave – one koji se koriste u zapošljavanju, obrazovanju, zdravstvu, financijskim uslugama ili kritičnoj infrastrukturi.
Umjesto početka pune primjene sredinom desetljeća, ključne obveze za visokorizične sustave sada se pomiču na kraj 2027. i tijekom 2028. godine. No, istovremeno je potvrđeno da se rokovi za generativne i tzv. foundation modele ne mijenjaju. Za njih regulacija ostaje na izvornoj putanji EU AI Acta, s početkom primjene već od 2026. i 2027.
Za europske tvrtke koje već koriste generativnu AI poruka je slojevita: dobivaju više vremena za formalno usklađivanje visokorizičnih primjena, ali obveze vezane uz velike jezične i multimodalne modele stižu praktički odmah.
Što se točno odgađa, a što ne?
Visokorizični AI sustavi dobivaju dodatni prostor
Visokorizični AI sustavi, prema EU AI Actu, obuhvaćaju alate koji mogu značajno utjecati na prava građana ili funkcioniranje društva. Primjeri uključuju:
- automatizirano rangiranje kandidata u selekcijskim postupcima
- AI sustave za procjenu kreditne sposobnosti i odobravanje kredita
- algoritamsko odlučivanje u socijalnim naknadama ili osiguranju
- AI u upravljanju kritičnom infrastrukturom (energetika, promet, zdravstvo)
Za takve sustave EU AI Act propisuje stroge zahtjeve: upravljanje rizicima, kvalitetu datasetova, ljudski nadzor, robusnost modela, vođenje tehničke dokumentacije i detaljne zapise o radu sustava. Upravo je primjena tih obveza pomaknuta na kasnije rokove, kako bi se javni sektor i industrija mogli pripremiti.
Generativni i foundation modeli ostaju pod ranijim rokovima
Sasvim je drugačija situacija za tzv. general-purpose AI (GPAI) i foundation modele – velike jezične i multimodalne modele koji se treniraju na općim datasetovima i zatim prilagođavaju za različite zadatke. Za njih EU nije napravila odgodu.
Pružatelji takvih modela, bilo da se radi o komercijalnim laboratorijima ili otvorenim projektima, morat će već od 2026./2027. ispunjavati niz obveza, među kojima se ističu:
- transparentnost o korištenim trenirajućim podacima u mjeri u kojoj je to tehnički i pravno moguće
- dokumentiranje arhitekture, glavnih parametara i namijenjenih područja primjene
- procjena i ublažavanje sistemskih rizika (dezinformacije, masovna manipulacija, sigurnosni rizici)
- tehničke mjere za poštovanje autorskih prava, uključujući označavanje generiranog sadržaja
To znači da će i korisnici LLM-ova u EU – čak i kada sami ne razvijaju visokorizične aplikacije – morati razumjeti na kojim se modelima njihov softver temelji i pod kojim uvjetima ih smiju koristiti.
Model-lanac: odgovornost više nije samo na „velikim laboratorijima”
Europska komisija paralelno pokušava pojednostaviti i uskladiti različite regulatorne režime. Cilj je izbjeći situaciju u kojoj se isti AI sustav mora istovremeno prilagođavati AI Actu, GDPR-u, sektorskim pravilima (npr. u financijama ili zdravstvu) i pravilima tržišnog natjecanja.
Poseban fokus stavlja se na AI usluge u oblaku i na ulogu velikih tehnoloških platformi koje kontroliraju pristup modelima. U praksi, većina europskih tvrtki generativnu AI koristi preko API-ja ili cloud platformi, a ne putem vlastitih modela treniranih od nule.
Regulatori zato sve više promatraju cijeli „model-lanac” (model chain):
- tko je izvorni pružatelj foundation modela
- tko ga hosta i izlaže kroz cloud ili gateway
- tko ga integrira u poslovne procese (system integratori, SaaS dobavljači)
- na koji način ga krajnji korisnici konfiguriraju, nadograđuju i koriste
Odgovornost se neće zaustaviti na razini laboratorija koji je trenirao model. Integratori i krajnji korisnici morat će pokazati da su razumjeli ograničenja modela, proveli osnovne procjene rizika i ugradili zaštitne mehanizme u svoje aplikacije.
Manje tvrtke: olakšanje, ali ne i „prazan prostor”
Za mala i srednja poduzeća odgoda rokova za visokorizične sustave svakako je olakšanje. Ona dobivaju dodatno vrijeme za razvoj internih politika, uspostavu AI governance struktura i ulaganja u stručnjake za usklađenost.
No to ne znači da su sljedeće dvije-tri godine „prazan prostor” bez nadzora. Nadzorna tijela već danas koriste postojeće okvire, prije svega GDPR, kako bi intervenirala u AI rješenja koja ugrožavaju privatnost ili transparentnost.
Primjeri iz prakse već uključuju:
- kazne za korištenje AI alata za praćenje zaposlenika bez valjane pravne osnove
- zabrane chatbotova koji masovno prikupljaju osobne podatke bez jasne obavijesti korisnicima
- intervencije protiv automatskog profiliranja potrošača bez mogućnosti prigovora ili ljudskog pregleda
Tvrtke koje danas eksperimentiraju s generativnim chatbotovima, AI asistentima za korisničku podršku ili internim agentima za automatizaciju procesa moraju već sada ugraditi osnovne zaštite: evidenciju tokova podataka, kontrolu pristupa, jasne politike zadržavanja podataka i mogućnost objašnjavanja ključnih odluka.
Što konkretno znači „urediti generativnu AI”?
Inventura modela i dobavljača
Prvi korak za većinu organizacija je inventura: popis svih AI alata i modela koji se koriste, službeno i neslužbeno. To uključuje:
- LLM-ove korištene kroz API-je (npr. za generiranje teksta, koda, analiza)
- generativne modele za slike, video ili audio
- interno trenirane modele temeljene na foundation modelima (fine-tuning, RAG sustavi)
Za svaki alat treba znati tko je pružatelj, gdje se podaci obrađuju, pod kojim se uvjetima model smije koristiti i koje se kategorije podataka unose (osobni, osjetljivi, poslovno povjerljivi).
Politike podataka i autorskih prava
EU AI Act i postojeća pravila o autorskim pravima stavljaju naglasak na to kako se generativni modeli treniraju i kako se koristi njihov izlaz. Tvrtke bi trebale:
- ograničiti slanje osjetljivih osobnih podataka u vanjske modele, osim ako postoji jasna pravna osnova i adekvatni ugovorni aranžmani
- definirati pravila za korištenje generiranog sadržaja (npr. u marketingu, kodiranju, dizajnu)
- provjeriti kako dobavljač modela pristupa autorskim pravima – postoji li mehanizam za isključenje datasetova, označavanje sadržaja, poštovanje licenci
Za veće organizacije sve češće postaje standard uspostava internog „AI playbooka” – dokumenta koji definira koje su primjene dopuštene, koje zabranjene, a koje zahtijevaju dodatnu procjenu.
Transparentnost prema korisnicima i zaposlenicima
GDPR i AI Act naglašavaju pravo korisnika da znaju kada komuniciraju s AI sustavom, kao i pravo zaposlenika da budu informirani o automatiziranim obradama koje utječu na njihove radne uvjete.
Tvrtke koje uvode AI chatbotove, glasovne asistente ili automatsko odlučivanje trebale bi osigurati:
- jasne oznake da se radi o AI sustavu, a ne ljudskoj osobi
- informacije o svrsi obrade i osnovnim logikama odlučivanja
- mogućnost kontakta s ljudskim operaterom ili prigovora na automatsku odluku
Dvije faze planiranja: od modela do visokorizičnih sustava
Nova dinamika EU AI Acta mijenja način planiranja AI projekata u Europi. Više se ne radi o jednostavnom „čekanju 2028.”, nego o faznom pristupu.
Faza 1 (2026.–2027.): fokus na generativne i foundation modele
U prvoj fazi, tijekom 2026. i 2027., ključni zadatak bit će razumjeti i urediti korištenje velikih jezičnih i multimodalnih modela. To uključuje:
- mapiranje svih foundation modela i AI servisa koje organizacija koristi
- procjenu rizika po privatnost, sigurnost i reputaciju
- uspostavu minimalnih tehničkih i organizacijskih mjera (kontrola pristupa, logiranje, testiranje)
- uređenje odnosa s dobavljačima u ugovorima (DPA, SLA, odgovornosti u slučaju incidenata)
Tvrtke koje se oslanjaju na vanjske API-je i cloud AI platforme morat će posebno obratiti pozornost na to kako se modeli ažuriraju, gdje se pohranjuju podaci i na koji način se rješavaju incidenti poput curenja podataka ili neželjenog ponašanja modela.
Faza 2 (kraj 2027.–2028.): formalizacija visokorizičnih sustava
Kako se približavaju rokovi za visokorizične AI sustave, drugi zadatak bit će formalizirati AI upravljanje na razini organizacije. To uključuje:
- uspostavu registra svih AI sustava, s oznakom rizika i područja primjene
- provođenje procjena učinka na temeljna prava (npr. u zapošljavanju, kreditiranju, obrazovanju)
- definiranje jasnih uloga i odgovornosti (AI odgovorna osoba, odbor za etiku, linijski menadžeri)
- uvođenje redovitih revizija modela, datasetova i performansi
Organizacije koje već sada krenu s inventurom svojih AI alata i mapiranjem rizika imat će prednost kada stroža pravila stupe na snagu. Ne samo regulatornu, nego i tržišnu: povjerenje korisnika i partnera postat će važan diferencijator.
Zaključak: manje panike, više sustavnosti
Odgoda rokova za visokorizične AI sustave smanjuje pritisak na europske tvrtke, ali ne uklanja potrebu za djelovanjem. Generativna i foundation AI ostaju u fokusu regulacije već od 2026./2027., a postojeći okviri poput GDPR-a već danas oblikuju granice prihvatljivog korištenja.
Ključ za sljedeće godine bit će sustavan pristup: prvo razumjeti na kojim se modelima poslovanje oslanja, zatim urediti podatke, ugovore i transparentnost, a potom izgraditi formalne strukture upravljanja za visokorizične primjene. Tvrtke koje taj put započnu sada, umjesto da čekaju zadnje rokove, lakše će se prilagoditi i iskoristiti potencijal generativne AI bez nepotrebnih pravnih i reputacijskih rizika.



