Europski Akt o umjetnoj inteligenciji (AI Act) od kolovoza 2024. službeno je na snazi, a tijekom 2025. i 2026. ulazi u fazu pune primjene. Riječ je o prvom sveobuhvatnom zakonu o umjetnoj inteligenciji na svijetu koji standardizira način na koji se AI sustavi razvijaju, testiraju i stavljaju na tržište. Za startupe i developere koji ciljaju korisnike u Europskoj uniji, ovo više nije tema za budućnost, već regulatorni okvir koji već danas treba ugraditi u tehničke i poslovne odluke.
Kako AI Act dijeli AI sustave po razinama rizika
Za razliku od apstraktnih rasprava o „dobroj“ ili „lošoj“ umjetnoj inteligenciji, AI Act uvodi vrlo konkretan model razina rizika. Na jednoj strani su zabranjene prakse, poput sustava za socijalno bodovanje građana ili manipulativnih tehnika koje iskorištavaju ranjivost pojedinaca. Na drugoj strani su sustavi minimalnog rizika, primjerice AI alati za filtriranje neželjene pošte ili preporuke sadržaja s ograničenim utjecajem na prava korisnika.
Između ta dva ekstrema nalaze se visokorizični sustavi, posebno oni koji se koriste u zdravstvu, zapošljavanju, obrazovanju, kritičnoj infrastrukturi ili javnim uslugama. Za njih vrijede stroga pravila: od upravljanja podacima za treniranje, preko zahtjeva za robusnost i kibernetičku sigurnost, do obvezne ljudske kontrole i objašnjivosti odluka. Posebnu kategoriju čine modeli opće namjene (GPAI), uključujući generativnu umjetnu inteligenciju, koji se mogu primijeniti u velikom broju scenarija i stoga nose specifične obveze transparentnosti.
Ključni rokovi: što se mijenja 2025. i 2026.
AI Act je zamišljen kao zakon koji se uvodi postepeno, kako bi se industrija mogla prilagoditi. Već od veljače 2025. počinju vrijediti zabrane najrizičnijih AI praksi. To znači da rješenja koja ulaze u zonu zabranjenih scenarija neće imati prijelazno razdoblje – morat će se prilagoditi ili povući s tržišta EU-a.
Od kolovoza 2025. na snagu stupaju obveze za dobavljače modela opće namjene, uključujući velike generativne modele. Oni će morati osigurati detaljnu tehničku dokumentaciju, provoditi procjene rizika i ugraditi mehanizme za označavanje AI-generiranog sadržaja. Do 2026. postupno će se aktivirati i puni režim za visokorizične sustave, uključujući zahtjeve za procjenu sukladnosti i nadzor nad radom sustava tijekom cijelog životnog ciklusa.
Za startupe to praktično znači da planiranje produkcijskog lansiranja AI rješenja više ne može biti odvojeno od praćenja ovih rokova. Proizvodni roadmap trebat će uskladiti s kalendarom primjene zakona: kada ulaze u igru koje obveze, koji su moduli ili značajke potencijalno visokorizični i gdje će biti potrebne dodatne kontrole ili certifikacije.
Što AI Act konkretno znači za startupe i developere
Najveći izazov za manje timove bit će kako ostati agilni, a istovremeno zadovoljiti nove regulatorne zahtjeve. AI Act traži da se usklađenost gradi „by design“, već u fazi dizajna i razvoja proizvoda. To uključuje jasne politike upravljanja podacima za treniranje, dokumentiranje izvora podataka, provjeru pristranosti i definiranje mehanizama za ispravljanje pogrešaka u radu modela.
Developeri će morati blisko surađivati s pravnicima i stručnjacima za usklađenost, umjesto da regulatorna pitanja ostave za kraj projekta. Kod visokorizičnih rješenja, bit će nužno planirati funkcionalnosti za ljudski nadzor, logiranje odluka modela i mogućnost objašnjenja ključnih izlaza sustava. Čak i kod generativnih alata koji se na prvi pogled čine „općim“, poput chatbotova ili alata za generiranje slika, trebat će procijeniti može li njihova primjena u određenim sektorima dovesti do visokog rizika.
Za timove koji razvijaju vlastite GPAI modele, dodatni fokus bit će na transparentnosti. To znači da će korisnici morati imati jasnu informaciju da komuniciraju s AI sustavom, da je sadržaj generiran modelom te da postoje tehničke zaštite od očitih zlouporaba, primjerice generiranja nezakonitog ili izrazito manipulativnog sadržaja.
AI sandboxes i nove EU inicijative: prilika, a ne samo obveza
Istodobno, EU pokušava spriječiti da stroga regulacija uguši inovacije. Jedan od ključnih alata su tzv. AI sandboxes – kontrolirana eksperimentalna okruženja u kojima startupi i istraživački timovi mogu testirati nova rješenja pod nadzorom regulatora, uz fleksibilniji režim i jasne smjernice. To omogućuje da se potencijalno rizične inovacije razvijaju i prilagođavaju prije šireg izlaska na tržište.
Uz to, inicijative poput GenAI4EU i nove strategije za primjenu umjetne inteligencije u javnom sektoru, zdravstvu i znanosti usmjerene su na poticanje generativne AI „proizvedene u Europi“. Financijske potpore, javni natječaji i pilot-projekti otvaraju prostor za startupe koji svoje proizvode od početka grade s obzirom na zahtjeve AI Acta. U praksi, konkurentska prednost mogla bi postati upravo sposobnost da se brzo i uvjerljivo dokaže usklađenost, transparentnost i upravljanje rizicima.
Kako pripremiti AI strategiju za razdoblje nakon 2026.
U sljedeće dvije godine granica između tehničke i regulatorne strategije u AI svijetu gotovo će nestati. Timovi koji danas razvijaju generativne modele, AI agente ili analitičke sustave morat će u svoje planove ugraditi pitanja sukladnosti: koje će certifikacije trebati, kako će dokazivati sigurnost i pouzdanost sustava pred investitorima, partnerima i regulatorima te kako će korisnicima komunicirati da je proizvod usklađen s europskim pravilima.
Startupi koji na vrijeme izgrade interne procese za upravljanje AI rizicima, uvedu osnovne politike upravljanja podacima i uključe stručnjake za usklađenost u ranoj fazi razvoja, bit će u boljoj poziciji kada se AI Act u potpunosti počne primjenjivati 2026. i kasnije. Ne samo zato što će izbjeći kazne, već zato što će njihovi proizvodi od početka biti dizajnirani za povjerenje, sigurnost i dugoročno skaliranje na europskom tržištu.



