Googlova umetna inteligenca ni vsemogočna: neuspeh v medicini
Pogosto pišemo o umetni inteligenci, pri čemer navadno poročamo o uspehih različnih oblik umetne inteligence. Na področju medicine se trudijo Google (in podružnica DeepMind), IBM in številni drugi igralci, ki med drugim razvijajo orodja za lažjo, hitrejšo in bolj avtomatično diagnostiko. A vedno ne gre po načrtih. Google je razkril, kako je njegovi umetni inteligenci spodletelo.
Že ko se je IBM Watson začel učiti medicine, je bil cilj jasen. S tem ko bi umetna inteligenca prebrala vso znanstveno literaturo s področja medicine, vse knjige in članke, ter čim več kartonov, bi bila iz naučenih korelacij sposobna hitreje in zanesljiveje od človeka postavljati diagnoze (ki bi jih zdravnik še vedno preveril). A cilj ni tako enostavno dosegljiv, kot so optimistično pričakovali. IBM-ov Watson do danes še ni uresničil vseh pričakovanj.
S težavami pa se bori tudi Google, ki jih je razkril na primeru Tajske. Njihov sistem, ki je uporabljal globoko učenje, je bil namenjen diagnozi diabetične retinopatije. To je eden glavnih vzrokov za izgubo vida na svetu. Google je v sodelovanju s tajskim ministrstvom za zdravje v enajstih ruralnih klinikah testiral sistem za zaznavo te bolezni. Čeprav je v teoriji sistem deloval odlično, se v praksi ni proslavil.
Kot pojasnjuje Google, je bil cilj hvalevreden. Po klasični metodi medicinske sestre napravijo posnetke očesa, jih pošljejo oftalmologom, ki jih preverijo in sporočijo diagnozo. To traja 4-5 tednov, kar je preveč. Googlov sistem bi moral glede na interne teste z 90-odstotno natančnostjo prepoznati bolezen v minuti. Oftalmolog bi jih potem preveril v tednu dni. V praksi pa ni bilo tako enostavno.
Variacije so prevelike, tako med ljudi kakor posnetki. Čeprav so bili postopki zajema in ocenjevanja posnetkov enaki med klinikami, pa so imele klinike različne postopke in vire (internetne povezave so take slabe, da je pošiljanje enega posnetka včasih trajalo več kot minuto). Prav tako so posnetke snemali v zelo različnih prostorih, ki večinoma niso bili primerno zatemnjeni (da se zenica razširi). Zaradi tega so bili posnetki preveč različni, da bi algoritem, ki so ga natrenirali na kakovostnih posnetkih, mogel delovati. In na koncu še človeški faktor – kdor je dobil diagnozo v nekaj minutah, ni bil pripravljen, da se takoj naroči na ponoven pregled pri oftalmologu.
Vse skupaj ni katastrofa, je pa dobrodošla streznitev. Umetna inteligenca je koristna, ni pa vsemogočna. V resničnem življenju so primeri bolj različni, kot trenutni modeli predvidevajo. Zato so tudi takšni negativni rezultati primerni, saj omogočajo pripravo boljših sistemov v prihodnosti.