AI agenti ulaze u stvarni posao: kako se europske tvrtke nose s novom generacijom autonomnih sustava

AI agenti ulaze u stvarni posao: kako se europske tvrtke nose s novom generacijom autonomnih sustava

Od laboratorijskih demonstracija do stvarnih tokova rada

U manje od godinu dana AI agenti prešli su put od laboratorijskih demonstracija do stvarnih poslovnih procesa. Riječ je o sustavima koji mogu samostalno planirati korake, donositi odluke, pozivati druge alate i trajno održavati kontekst zadatka. Za razliku od klasičnih chatbotova, agent ne odgovara samo na pitanje – on pokreće cijeli niz radnji.

Veliki dobavljači, poput OpenAI‑a, Googlea i Anthropica, u posljednjim su mjesecima lansirali nove okvire i API‑je posebno dizajnirane za agente. Paralelno, open‑source projekti poput OpenClawa i sličnih frameworka spustili su tehnički prag za manje timove. Danas je moguće u nekoliko dana izgraditi prototip agenta koji kombinira više modela, povezuje se na interne API‑je i radi na stvarnim podacima tvrtke.

Rezultat je eksplozija eksperimentiranja. Tvrtke testiraju agente u korisničkoj podršci, gdje autonomno odgovaraju na upite i otvaraju naloge u CRM sustavima. U razvoju softvera pojavljuju se agenti koji pišu, refaktoriraju i testiraju kod, integrirani u sustave za kontrolu verzija. Marketinški timovi isprobavaju agente za upravljanje oglasnim kampanjama, analizu performansi i optimizaciju budžeta u stvarnom vremenu. U logistici agenti prate zalihe, predviđaju potražnju i predlažu korekcije ruta ili narudžbi.

Europski kontekst: AI agenti i dolazak EU AI Acta

Za europske tvrtke ova „agentska revolucija” događa se u specifičnom regulatornom trenutku. EU AI Act ulazi u punu provedbu 2026., a organizacije moraju paralelno inovirati i graditi sustave usklađenosti. To stvara dvostruki pritisak: s jedne strane postoji jasan poslovni poticaj za uvođenje agenata, s druge rastu zahtjevi nadzornih tijela i internih odjela za usklađenost.

Prednosti su očite. Agenti mogu ubrzati isporuku funkcionalnosti, smanjiti rutinski rad i bolje iskoristiti postojeće podatke. Primjerice, agent koji kombinira podatke iz ERP‑a, CRM‑a i sustava za podršku može automatski pripremiti izvještaje za upravu ili predložiti korektivne mjere u prodaji. No svaki takav sustav otvara pitanja: tko je odgovoran za odluke koje agent donosi, koliko dubok pristup podacima smije imati i kako se njegovo ponašanje može pregledati unatrag?

Nedavne studije konzultantskih kuća i industrijski izvještaji pokazuju da je usvajanje agenata u europskim poduzećima snažno poraslo u prvoj polovici 2026. Istovremeno, većina timova priznaje da još nema jasne interne politike za AI agente. Posebno su nejasne granice između „alata za podršku” i „autonomnog sustava” koji potencijalno spada u više rizične kategorije prema EU AI Actu.

Zašto su agenti teži za upravljanje od klasičnih AI alata

Glavni izazov je upravljivost. Klasični modeli, poput generativnih chatbotova, obično rade u kratkim interakcijama: korisnik postavi pitanje, model odgovori i time se tok rada završava. Agenti, naprotiv, mogu pokretati dugotrajne procese, zvati više vanjskih servisa, pa čak i komunicirati s drugim agentima.

Primjerice, agent za financije može primiti zadatak da „pripremi mjesečni izvještaj i predloži optimizaciju troškova”. On će samostalno dohvatiti podatke iz računovodstvenog sustava, otvoriti tablice, generirati grafove, usporediti trendove i pripremiti sažetak za menadžment. Ako ima potrebne ovlasti, može čak predložiti izmjene budžeta u ERP‑u. U takvom scenariju granica između preporuke i automatizirane akcije postaje vrlo tanka.

To otvara nova pitanja sigurnosti i odgovornosti:

  • Kako precizno ograničiti što agent smije raditi u svakom sustavu?
  • Kako spriječiti zlouporabu vjerodajnica i pristupa osjetljivim podacima?
  • Kako osigurati da se svaka akcija može pratiti, pripisati konkretnom agentu i, po potrebi, poništiti?

Europski stručnjaci za sigurnost i usklađenost upozoravaju da bez kvalitetne evidencije radnji agenta i jasnog modela ovlasti revizori i nadzorna tijela neće moći vjerovati izvještajima o usklađenosti. U praksi to znači da tvrtke koje rano ne uvedu mehanizme praćenja i kontrole mogu kasnije imati visoke troškove prilagodbe.

Nastaje novi sloj: alati i okviri za upravljanje agentima

Kako bi odgovorila na ove izazove, industrija ubrzano razvija novi sloj tehnologije – alate za upravljanje agentima. Oni se nadograđuju na postojeće modele i infrastrukturu, ali dodaju mehanizme kontrole, praćenja i orkestra.

Višestruki specijalizirani agenti

Jedan pristup je razdvajanje uloga. Umjesto jednog „super‑agenta” koji radi sve, uvodi se više specijaliziranih agenata: jedan planira, drugi generira sadržaj, treći provjerava rezultate, a četvrti nadzire usklađenost s pravilima. Takva arhitektura olakšava dodjelu ovlasti i audit, jer je jasnije tko je što učinio.

Na primjer, u bankarskom okruženju agent‑planer može odrediti korake za obradu zahtjeva za kredit, ali samo agent‑validator s ograničenim ovlastima smije poslati konačnu odluku u core sustav. Svi koraci prolaze kroz agent‑nadzornika koji provjerava jesu li ispoštovani poslovni i regulatorni kriteriji.

Kriptografski zaštićeni audit tragovi

Drugi važan trend su sustavi koji bilježe nepromjenjive, kriptografski potpisane zapise svake akcije agenta. Svaki poziv API‑ja, svaka promjena u bazi podataka i svaka odluka modela dobiva jedinstveni zapis. Time se stvara audit trag koji je teško naknadno mijenjati bez traga, što je ključno za regulatorne provjere.

Takva rješenja već se testiraju u financijskoj industriji, zdravstvu i javnom sektoru, gdje je dokazivost odluka posebno osjetljiva. U slučaju incidenta ili nadzora, tvrtka može pokazati točan slijed radnji, modele koji su korišteni i ulazne podatke na temelju kojih je agent djelovao.

Praktične metodologije za poslovne korisnike

Uz tehničke alate pojavljuju se i jednostavne metodologije koje pomažu poslovnim korisnicima razlikovati „obične” AI alate od agenata kojima treba formalno upravljanje. Jedno od praktičnih pravila koje se sve češće spominje glasi: „Ako agenta ne možete sigurno zaustaviti i poništiti što je napravio u zadnjih 60 sekundi, treba mu formalno upravljanje.”

Ovakvi kriteriji služe kao brzi filter. Chatbot koji generira nacrt e‑maila ne treba isti režim kontrole kao agent koji samostalno ažurira zapise u CRM‑u ili mijenja parametre oglasnih kampanja. No čim agent dobije mogućnost trajnog utjecaja na sustave, treba ga tretirati kao autonomni informacijski sustav, s jasnim vlasnikom, pravilima i procesima nadzora.

Tri ključna koraka za europske tvrtke

Za domaće i europske timove poruka je dvostruka: ignorirati agente više nije opcija, ali isto vrijedi i za upravljanje rizikom. Tvrtke koje žele iskoristiti potencijal agenata, a istovremeno se pripremiti za EU AI Act, najčešće započinju s tri paralelna koraka.

1. Inventar svih AI agenata i tokova rada

Prvi korak je izraditi detaljan inventar. Mnoge organizacije otkriju da već imaju više agenata nego što su mislile: prototipovi u inovacijskim timovima, skripte u IT odjelu, pilot‑projekti u marketingu ili operativi. Bez centralnog popisa nije moguće procijeniti rizik, definirati prioritete ni pripremiti se za regulatorne zahtjeve.

Inventar bi trebao obuhvatiti: svrhu agenta, korištene modele i frameworke, povezane sustave (ERP, CRM, data lake), tipove podataka kojima pristupa, razinu ovlasti i postojeće mehanizme nadzora. To je temelj za svaku ozbiljniju strategiju upravljanja AI agentima.

2. Jasna ograničenja ovlasti i pristupa podacima

Drugi korak je definiranje granularnih ovlasti. Preporuka sigurnosnih stručnjaka je da svaki agent ima zaseban račun ili servisni identitet, s minimalnim potrebnim dozvolama (princip „least privilege”). Agenti ne bi smjeli dijeliti vjerodajnice s korisnicima ili drugim sustavima.

U praksi to znači da agent za korisničku podršku može čitati podatke o korisniku i otvarati nove zahtjeve, ali ne i mijenjati financijske uvjete ugovora. Agent za oglašavanje može prilagođavati budžete unutar unaprijed definiranih granica, ali ne i kreirati nove kanale potrošnje bez ljudskog odobrenja. Takva segmentacija smanjuje rizik od štete čak i u slučaju pogreške modela ili kompromitacije agenta.

3. Kontinuirano praćenje, dokumentiranje i testiranje

Treći korak je uspostava alata i procesa za kontinuirani nadzor agenata. To uključuje tehničke nadzorne ploče, logiranje svih ključnih akcija, ali i redovite revizije i testove ponašanja. Cilj je rano uočiti odstupanja – primjerice, nagli porast broja akcija u određenom sustavu, neuobičajene obrasce pristupa podacima ili promjene u kvaliteti rezultata.

Tvrtke koje su već uvele ovakve procese često kombiniraju automatizirane alate za nadzor s internim „AI boardovima” ili radnim skupinama za AI upravljanje. Oni donose odluke o tome kada agent može prijeći iz pilot‑faze u proizvodnju, koje dodatne kontrole su potrebne i kako se incidenti prijavljuju i rješavaju.

Priprema za 2026.: od eksperimenta do odgovornog uvođenja

AI agenti su iz eksperimentalne faze prešli u fazu ranog, ali stvarnog usvajanja. U sljedeće dvije do tri godine očekuje se da će većina većih europskih tvrtki imati barem nekoliko kritičnih procesa u kojima agenti igraju ključnu ulogu. Pitanje više nije hoće li se agenti koristiti, već kako osigurati da rade u korist, a ne na štetu poslovanja.

EU AI Act nameće okvir, ali ne daje sve odgovore. Odgovornost je na tvrtkama da izgrade vlastite standarde, alate i kompetencije. Oni koji na vrijeme uspostave inventar agenata, jasna pravila ovlasti i sustave nadzora imat će dvostruku prednost: lakše će se uskladiti s regulativom i brže, sigurnije uvoditi nove generacije autonomnih sustava.

Za one koji još nisu započeli, 2026. više nije daleka budućnost, već vrlo konkretan rok. AI agenti već rade u pozadini mnogih poslovnih procesa – sada je vrijeme da ih se iz sjene prebaci u formalne okvire upravljanja.

Natrag na vrh