Finansijski rizici upotrebe AI
Greške veštačke inteligencije skuplje nego ljudske: Od inovacije do bankrota

AI nije tehnologija po principu „instaliraj i zaboravi“. Za razliku od klasičnih tehničkih kvarova, greške u AI sistemima mogu istovremeno pogoditi više delova iste organizacije, pa čak i više povezanih organizacija, i u izuzetno kratkom roku generisati direktne i skrivene troškove koji višestruko premašuju sve prethodne procene, piše magazin Biznis i finansije.
Piše: Milena Šović*
Prednosti uvođenja veštačke inteligencije u poslovanje dobro su poznate – od ubrzanja procesa i smanjenja operativnih troškova, preko bolje analize tržišta i preciznijeg donošenja odluka, do personalizacije usluga i povećanja prihoda. Troškovi implementacije takođe se mogu relativno precizno izračunati: potrebno je obezbediti kvalitetne podatke, razviti ili kupiti algoritme, izgraditi odgovarajuću infrastrukturu, angažovati stručne timove i obezbediti stalno održavanje sistema, piše magazin Biznis i finansije.
Međutim, mnogo je teže odgovoriti na pitanje – koliki je stvarni trošak ako AI sistem napravi grešku? Još važnije, mogu li ti gubici nadmašiti profit koji je tehnologija donela?
Za razliku od klasičnih tehničkih kvarova, greške u AI sistemima ne ostaju lokalizovane. One mogu istovremeno pogoditi više delova iste organizacije, pa čak i više povezanih organizacija, i u izuzetno kratkom roku generisati troškove koji višestruko premašuju sve prethodne procene.
Od profita do gubitka: kako se formira ekonomski udar
Ekonomske posledice grešaka u AI sistemima najčešće imaju više slojeva. Prvi i najočigledniji su direktni finansijski gubici, nastali kao posledica netačnih odluka algoritma. To mogu biti pogrešne investicione preporuke, neispravne procene vrednosti imovine ili loša optimizacija proizvodnje.
Ilustrativan primer je kompanija Zillow, koja je 2021. godine pretrpela značajne posledice kada je njen AI algoritam za procenu vrednosti nekretnina precenjivao kuće. To je dovelo do kupovine imovine po naduvanim cenama u okviru programa iBuying. Rezultat je bio gubitak od 304 miliona dolara, otpuštanje 2.000 zaposlenih i zatvaranje čitavog odeljenja, pokazujući kako jedna greška u predviđanju može direktno pogoditi bilans stanja.
Drugi nivo čine pravni i regulatorni troškovi, koji u eri sve složenijih propisa mogu premašiti samu početnu štetu. Jedna automatizovana odluka koja krši zakon, poput diskriminacije u kreditiranju, može rezultirati milionskim kaznama i višegodišnjim pravnim sporovima. Takav slučaj dogodio se kompaniji iTutorGroup 2023. godine, kada je njihov AI softver za regrutaciju automatski odbijao kandidate na osnovu starosti – žene starije od 55 i muškarce starije od 60 godina. To je predstavljalo direktnu diskriminaciju, a kompanija je platila 365.000 dolara u nagodbi sa američkom Komisijom za ravnopravne mogućnosti zapošljavanja (EEOC), uz obavezu promene politika i obuke zaposlenih, pokazujući kako pravne sankcije često donose i dugoročne troškove reformi.
Treći sloj čini reputaciona erozija – dugoročno smanjenje poverenja klijenata, partnera i investitora, koje često ima najveći kumulativni uticaj na buduće prihode. Ovi efekti su međusobno povezani: jedan pogrešan izlaz iz modela može pokrenuti pravnu reakciju, izazvati javni skandal i dovesti do povlačenja klijenata, što zajedno prerasta u višestruko veći ekonomski teret. Dobar primer je McDonald’s, koji je 2024. godine prekinuo partnerstvo sa IBM-om zbog AI sistema za drive-thru naručivanje, koji je pogrešno tumačio porudžbine (dodajući stotine artikala). To je rezultiralo viralnim video-snimcima na društvenim mrežama, frustracijom klijenata i padom poverenja, uprkos višemilionskim ulaganjima u pilot-projekat na više od 100 lokacija.
Zašto AI greške koštaju više od ljudskih
Ključna razlika je u razmeri automatizacije: ljudska greška obično pogađa pojedinačni slučaj ili mali tim, dok se greška algoritma može multiplikovati na hiljade slučajeva, često bez mogućnosti samokorekcije bez ljudske intervencije, što može izazvati velike posledice kao što je brzi pad na berzi.
Sličan princip vidljiv je i u slučaju Tesla-inih AI sistema Autopilot, gde su pojedine greške dovele do fatalnih nesreća. U jednom od najpoznatijih primera, incident iz 2019. godine rezultirao je time da je porota na Floridi 2025. godine presudila da kompanija mora da plati više od 243 miliona dolara odštete. Ovaj slučaj jasno ilustruje kako AI greške mogu imati ne samo direktne finansijske posledice, već i tragične ishode po ljudske živote, što dodatno pojačava ekonomski udar.
Infrastruktura rizika
Rizici u radu veštačke inteligencije često nastaju još u fazi njenog oblikovanja, kada se postavljaju temelji modela. Ukoliko se greške, pristrasnosti ili tehnička ograničenja „ugrade” u ovu osnovu, ona se kasnije prenose na sve odluke i procese koje sistem podržava. To znači da problemi ne ostaju izolovani, već mogu imati dugotrajne i sistemske posledice. Jedan od ključnih uzroka grešaka jeste pristrasnost i nepotpunost podataka. Kada su podaci na kojima se model trenira ograničeni ili nereprezentativni, veštačka inteligencija ih usvaja i reprodukuje, često pojačavajući već postojeće nejednakosti.
Drugi čest problem je nedovoljno testiranje u realnim uslovima. Mnogi AI sistemi se razvijaju i proveravaju u kontrolisanim okruženjima, ali kada se puste u rad, suočavaju se sa neočekivanim scenarijima. Bez dovoljno praktičnog testiranja, sistem može reagovati nepredvidivo, donositi pogrešne odluke ili praviti propuste koje u laboratoriji niko nije mogao da predvidi.
Ozbiljan rizik predstavlja oslanjanje na „crne kutije“ – algoritme bez transparentnog rada, što otežava brzo otkrivanje i ispravljanje grešaka. U finansijama, AI često odbija kreditne zahteve bez obrazloženja, narušavajući poverenje klijenata i izazivajući regulatorne sankcije. Takođe, ako se okruženje menja brže od ažuriranja AI sistema, preciznost pada, a greške postaju sistemske i zahtevaju sveobuhvatne korekcije.
Skriveni troškovi
Direktni gubici vidljivi su u bilansu stanja, ali postoji i „nevidljiva strana“ računa – troškovi internih istraga, revizije algoritama, ponovnog testiranja, angažovanja kriznih komunikatora i pravnih timova. Ne treba zanemariti ni gubitak poslovnih prilika: partneri ili klijenti koji se okreću konkurenciji zbog narušenog poverenja, čak i nakon što je tehnički problem formalno rešen.
Primer je IBM-ov Watson for Oncology, čiji je AI davao pogrešne preporuke zbog treninga na hipotetičkim podacima; projekat sa M.D. Anderson Cancer Center-om prekinut je sa gubitkom od 62 miliona dolara, a dodatni troškovi istraga, revizija i reputacione štete nastavili su da rastu i nakon završetka saradnje.
Lanci odgovornosti
Odgovornost za greške AI sistema je složena i raspodeljuje se na više nivoa.
Menadžment je na vrhu hijerarhije, jer postavlja strateške smernice i nivo rizika, što direktno utiče na ulaganja u sigurnost, testiranje i nadzor AI sistema.
Razvojni timovi odgovorni su za kvalitet podataka i tačnost algoritama, jer greške nastale u razvoju mogu uticati na ceo životni ciklus sistema.
Dobavljači AI tehnologije takođe imaju ulogu, ali pravna praksa često tereti krajnjeg korisnika za posledice. Na primer, kompanija Air Canada je pravno odgovarala za pogrešne informacije koje je njihov AI četbot pružio putnicima, iako je alat deo šire tehnološke infrastrukture.
Pravni i compliance timovi obezbeđuju usklađenost sistema sa propisima, procenjuju rizike i prate regulatorne promene. Sudovi sve češće odbacuju opravdanje „mašina je pogrešila“, tražeći dokaze o adekvatnom nadzoru, čime poručuju da tehnološki napredak ne oslobađa ljudsku stranu odgovornosti.
Pouka za korporativnu strategiju
AI nije tehnologija po principu „instaliraj i zaboravi“. Njena ekonomija rizika zahteva stalni nadzor, kontinuirano testiranje i jasno definisane procedure intervencije. Kompanije koje to shvate na vreme tretiraće AI kao živi sistem, onaj čiji rad treba stalno revidirati i optimizovati, a ne apsolutizovati ideju „pametne“ automatizacije.
Primeri neuspeha iz prakse pokazuju da finansijska šteta retko nastaje isključivo zbog same greške algoritma – mnogo češće uzrok leži u odsustvu mehanizama koji bi tu grešku blagovremeno prepoznali, zaustavili i ispravili.
* Autorka je AI Implementation Specialist & AI Content Trainer
Koje je vaše mišljenje o ovoj temi?
Pridružite se diskusiji ili pročitajte komentare