Eksperimentiranje z umetno inteligenco
V ameriški zvezni državi Nevadi so se nedavno odločili, da bodo ob pomoči umetne inteligence urejali vloge za nadomestilo ob brezposelnosti, saj se od pandemije dalje spopadajo z zaostanki. Tako bodo poskušali pohitriti sistem odločanja o pritožbah za izplačila nadomestil ob brezposelnosti, Googlu pa bodo za uporabo njihovega sistema, ki bo prvi tovrstni generativni sistem umetne inteligence, za zdaj plačali nekaj manj kot milijon evrov davkoplačevalskega denarja.
V času pandemije je urade v Nevadi, ki se ukvarjajo z nadomestili za primer brezposelnosti, tako kot drugje, zaradi zaprtja številnih podjetij zasulo nepredstavljivo število zahtevkov, kar je prineslo številne napake in pritožbe. Leta 2023 so imeli nerazrešenih že 40.000 pritožbenih primerov, zdaj jih je po poročanju Gizmoda le še 5.000. A ta zvezna država se je odločila, da bo ob pomoči umetne inteligence poskušala še dodatno pospešiti postopke in zmanjšati zaostanke, saj naj bi ta v manj kot petih minutah pripravila odločitev, za katero bi uslužbenec porabil več ur.
Seveda ne bo odločala le umetna inteligenca, njeno odločitev bo pregledal še uslužbenec pristojnega oddelka. Vladne službe bodo zagotovile ustrezne vhodne podatke, ki jih bo umetna inteligenca analizirala ter podala priporočilo, ali naj upravičenec prejme nadomestilo ali ne. Na tej točki bo odločitev umetne inteligence pregledal uslužbenec, ki bo preverjal, ali so v priporočilu morebitne napake, pristranskosti ali celo halucinacije. Če bo priporočilo potrdil, bo odločba izdana. V nasprotnem primeru bo odločbo ponovno preveril in podal povratne informacije, da bodo lahko raziskali, kaj je šlo narobe.
In narobe seveda lahko gre. Če si Gemini ali ChatGPT izmisli, da je nekdo dobil Prešernovo nagrado, je to lahko zabavna anekdota, a kadar umetna inteligenca s svojo napačno odločitvijo drastično vpliva na življenja upravičencev socialnih prejemkov, lahko ima njen »kiks« katastrofalne posledice.
Eksperiment v resničnem življenju
Različni strokovnjaki svarijo, da je sistem v Nevadi tvegan, sisteme umetne inteligence se namreč ponovno preizkuša na ranljivejšem delu prebivalstva, ki na to ni pristalo in je v ta eksperiment zaradi življenjskih okoliščin prisiljeno. Amy Perez, ki je nadzorovala posodobitev podobnih sistemov v Koloradu in na ameriškem ministrstvu za delo, je v Gizmodu opozorila, da je sistem lahko koristen le, če bodo uslužbencem zagotovili dovolj časa za temeljit pregled, saj bodo le tako lahko učinkovito iskali morebitne napake umetne inteligence. A strokovnjaki različnih področij izpostavljajo, da bi zaposleni lahko bili pod pritiskom, da čim hitreje obdelajo odločitve umetne inteligence, saj je cilj projekta pohitritev procesov. Hitrost pri nadzoru oziroma preverjanju lahko seveda slabo vpliva na spremljanje in zaznavanje morebitnih halucinacij in napak. V primeru slabšega nadzora nad napakami bi se število pritožb zaradi morebitnih napačnih odločitev umetne inteligence lahko celo povečalo, stanje pa poslabšalo. A v organizaciji Nevada Legal Services, ki zagotavlja brezplačno pravno asistenco Nevadcem z majhnimi prihodki, opozarjajo na še večji problem, ki vodi v nerešljivo in nezavidljivo situacijo – napačnih odločitev, ki bi jih povzročila umetna inteligenca in spregledal uslužbenec, morda ne bo mogoče izpodbijati. Že samo ta domneva bi morala biti alarm za začasno zaustavitev projekta, a kot je pojasnil Matthew Dahl, doktorski študent na univerzi Yale in soavtor študije o natančnosti sistemov umetne inteligence za pravne raziskave, to še ni vse, saj bo zaradi zapletenosti sistemov težko ugotoviti, kje in zakaj je prišlo do napake.
Nizozemska davčna uprava je s pomočjo algoritma tisoče staršev in skrbnikov pomotoma označila za goljufe.
Vsi ti pomisleki projekta v Nevadi, ki sloni na Googlovi oblačni storitev Vertex AI, ki razvijalcem omogoča, da ustvarijo velik jezikovni model z razširjenim priklicem (RAG), niso upočasnili. Čeprav še vedno ni povsem jasno, kateri Googlov model bodo uporabili, raziskave o modelih RAG, ki so jih opravili raziskovalci Yala in Stanforda kažejo, da Google ne more zagotoviti popolne natančnosti nobenega od svojih modelov umetne inteligence. Modeli RAG, ki pomagajo pri pravnih zadevah, v 17–33 odstotkih primerov podajo nepravilne ali zavajajoče odgovore na vprašanja, v 18–63 odstotkih primerov pa vrnejo nepopolne odgovore. A tudi to pomanjkanje dokazov o smiselnosti in delovanju oblasti v Nevadi ni ustavilo, pa čeprav je pred leti na Nizozemskem prav pomanjkanje nadzora in dodelave načrta imelo katastrofalne posledice na življenja ljudi – in celo prineslo padec vlade.
Algoritem, ob pomoči katerega je nizozemska davčna služba poskušala odkriti potencialne prevare pri otroških dodatkih, je bil diskriminatoren že v zasnovi. Nizozemska davčna uprava je namreč tisoče staršev in skrbnikov pomotoma označila za goljufe – to oznako je prilepila na več kot 20.000 ljudi, torej za cel Ptuj, ti pa več let niso dobili odgovorov na vprašanja o tem, kaj so storili narobe. Sistemi, ki so bili namenjeni odkrivanju zlorab socialnih pomoči, so označili nesorazmerno veliko takih, ki so imeli priseljensko ozadje. Posamezniki, ki jih je izbral sistem, so morali dodatke celo vračati, kar je vodilo v finančne težave družin, dolgove ali celo izgubo stanovanja in pa v nenehen stres ter mentalne težave, kar je povzročalo družinske težave, ločitve in pripeljalo celo do samomorov. Zasnova algoritma je okrepila obstoječe predsodke o povezavi med etnično pripadnostjo ter kriminalom. Uslužbenci so sicer dobili navodilo, da posameznika, ki je bil označen kot potencialni prevarant, preverijo, a niso imeli podatkov, zakaj je bil izbran. Takšni netransparentni sistemi so pripeljali do odsotnosti nadzora in odgovornosti brez zanimanja za dobrobit uporabnika in njegovo pravico. Davčni organi so zaupali algoritmu, da jim bo pomagal pri hitrem odločanju v procesu iskanja čim več prevar, pri tem pa so obenem morali dokazati tudi učinkovitost algoritmičnega sistema odločanja, da bi upravičili strošek nabave.
Reševanje problemov na plečih najranljivejših
Podobno usodo je doživelo tudi na tisoče prebivalcev ameriške zvezne države Tennessee, ki so bili zaradi napak v algoritmičnem sistemu nezakonito zavrnjeni in so ostali brez državnega zdravstvenega zavarovanja Medicaid in drugih ugodnosti. K sreči so dosegli ugoden sodni razplet. Sistem, ki ga država uporablja za določanje upravičenosti do pomoči za prebivalce z majhnimi dohodki in ljudi z invalidnostjo, naj bi analiziral podatke o dohodkih in zdravju ter samodejno določil upravičenost prosilcev do programov pomoči, a ker pogosto ni imel vseh ustreznih podatkov, je sprejemal tudi napačne odločitve o upravičenosti, zaradi česar so upravičenci ostali brez zavarovanja. Sodnik je v razsodbi dobro zadel srčiko težave, ko je v razlagi zapisal, da posameznik, ki je upravičen do zdravstvenega zavarovanja Medicaid, za prejetje ne bi smel potrebovati sreče, vztrajnosti in zagnanih odvetnikov.
Modeli, ki pomagajo pri pravnih zadevah, v 17–33 odstotkih primerov podajo nepravilne ali zavajajoče odgovore na vprašanja, v 18–63 odstotkih primerov pa vrnejo nepopolne odgovore.
Vlade po vsem svetu avtomatizirajo zagotavljanje javnih storitev, včasih z nepreverjenimi storitvami, najvišjo ceno teh eksperimentov pa plačujejo najbolj marginalizirani v družbi. Prav zato moramo biti izredno pozorni na tveganja, tudi diskriminatorna, ki jih prinaša umetna inteligenca, in paziti, da odločitve ne bi uničile življenj ljudi. Avtomatizirani sistemi upravičenosti, kot ga imajo v Tennesseeju, so na voljo že v več kot 20 ameriških zveznih državah, kjer prav tako obstaja verjetnost, da bodo zaradi pomanjkljivosti prebivalci neupravičeno ostali brez ugodnosti.
V Nevadi med implementacijo načrtujejo tedenske sestanke za morebitne popravke, ko bo sistem deloval, pa naj bi morebitne odklone, predsodke in halucinacije pregledali le enkrat na četrtletje.
Če bi se na Nizozemskem vprašali o vplivu na človekove pravice in vzpostavili mehanizme spremljanja ter nadzora, posledice morda ne bi bile tako uničujoče. Predvsem bi bilo dobro preseči fazo zaljubljenosti v umetno inteligenco, saj samo zato, ker je tehnologija na voljo, še ne pomeni, da je najboljša rešitev za vse. Vsaka uporaba umetne inteligence mora biti prilagojena specifičnim potrebam ljudi, ki jo bodo uporabljali, in tistim, ki jim bo služila.