V boj z neenakostjo in s predsodki
Pomanjkljivosti digitalnih pomočnic in pomočnikov, kot so Siri, Cortana, Google Assistant in Alexa, smo vsi občutili tudi na lastni koži, saj slovenščina pač ni globalno razširjen jezik. Ker jih torej uporabljamo v angleščini, pademo nekoliko niže na lestvici razumevanja naših zahtev.
Pri nas doma je največji stres zagotovo doživljala najmlajša članica, ki je z vedno glasnejšim govorjenjem poskušala prepričati Siri k sodelovanju, a z nerazumevanjem smo se spopadli prav vsi, pa čeprav angleščino dobro obvladamo.
Chatbot F’xa razkriva predsodke umetne inteligence. Vir: Spletna stran F’xa, posnetek zaslona.
Problemi so privreli na dan tudi pri tistih, ki jim je angleščina materni jezik, a govorijo z lokalnimi naglasi. Ko je časopis The Washington Post leta 2018 izvedel raziskavo o pametnih pomočnikih in pomočnicah, osredotočili so se na Alexo in Google Home, je ta razkrila opazne razlike v razumevanju ameriških naglasov. Najslabše rezultate pa so zaznali pri ljudeh, ki jim angleščina ni bila materni jezik, a so bivali v ZDA. Umetna inteligenca, ki poganja te pomočnike, se nauči prepoznati različne naglase s poslušanjem množice različnih glasov, z učenjem vzorcev in s snovanjem povezav med frazami, besedami in zvoki. Za to seveda potrebuje raznolik nabor podatkov. Če ga nima na voljo, potem naglasi, ki niso pogosti, niso vključeni in jih zato slabo razume.
Leto kasneje je poročilo Združenih narodov opozorilo še na temnejšo plat tovrstnih pomočnikov ter pomočnic, in sicer na krepitev spolnih predsodkov in stereotipov. Microsoftova Cortana je dobila ime po umetni inteligenci v igri Halo, ki jo vidimo kot žensko, v imenu Applove Siri se skriva ime, ki opisuje lepo žensko, ki te popelje do zmage, Google Assistant je sicer spolno nevtralno ime, a ima privzeto ženski glas. Ta izbira pa ni naključna. Kot je za časopis The Guardian povedal Ryan Sherman, ki sodeluje pri projektu razvoja nevtralnega glasu Q, raziskave kažejo, da ženski glasovi dajejo občutek pomoči, voljnosti in podrejenosti. Moški glasovi pa se v umetni inteligenci uporabljajo za sporočanje superiornosti in avtoritativne lastnosti. Čeprav se je svet premaknil stran od binarnega dojemanja spola in tovrstnih predsodkov, se snovalci storitev še vedno oklepajo omenjenih preferenc in s tem tudi krepijo predsodke.
Krepitev stereotipov in predsodkov
Da je glas večine pomočnikov privzeto ženski, so Združeni narodi v lanskem poročilu izpostavili kot krepitev spolnih predsodkov in stereotipov. Kot skrb vzbujajoče pa so izpostavili njihove odgovore na žaljivke. Če si Siri dejal, da je »a bitch« (psica oziroma v omiljenem kontekstu zgolj packa), je odgovorila, da »bi kar zardela, če bi lahko«. Ta odgovor so si tudi izposodili za naslov zgoraj omenjenega poročila. Charlotte Webb, soustanoviteljica The Feminist Internet, je za The Guardian izpostavila, da to kaže, kako glasovna tehnologija ni programirana, da bi se pravilno odzvala na tovrstne žaljivke in zlorabe. Čeprav Siri še vedno ne pove jasno, da tovrstno vedenje ni sprejemljivo, odgovori z vsaj »I won’t respond to that« (Na to ne bom odgovorila).
O razlikah in krepitvi predsodkov je za Wired spregovorila tudi Caroline Criado Perez, avtorica knjige Invisible Women, ki jo skrbi, da se algoritmi učijo na naboru podatkov, ki vsebujejo predsodke do žensk, nato pa te algoritme vključujemo v vedno več področij življenja. To velja tako za glasovno prepoznavo, kjer storitve ne prepoznajo ženskih glasov, kot algoritme, ki se odločajo, ali bo življenjepis pri prošnji za službo sploh kdo prebral ali bo že pred tem izločen. Avtorica izpostavi tudi, da so ob predstavitvi Siri uporabniki ob njeni pomoči lahko poiskali dobavitelje viagre, ne pa tudi klinik, kjer je mogoče opraviti splav. Kako nespretni, netaktni in škodljivi so lahko tovrstni pomočniki, pokaže tudi povsem neprimerna poizvedba, kako ubiti partnerja. Siri na to vprašanje dejansko odgovori s seznamom predlogov, ki jih poišče na spletu. Nekaj humorja pa so razvijalci vendarle pokazali pri poizvedovanju, kam odložiti truplo, ob katerem je Siri včasih ljudi napotila na zapuščene kamnolome in podobne zakotne kraje, zdaj pa pove le, da je odgovor na to nekoč vedela.
Algoritme ter umetno inteligenco ustvarjajo ljudje in tako sta razvoj ter spopadanje s spolnimi predsodki povezana tudi z zastopanostjo žensk. Čeprav bi ženske in njihove izkušnje morale biti integrirane v vse korake razvoja umetne inteligence, jih je bilo glede na poročilo Svetovnega gospodarskega foruma iz leta 2018 na tem področju zaposlenih le 22 odstotkov.
Predstavitveni video projekta Q. Vir: Meet Q - The First Genderless Voice, posnetek zaslona.
Nabor podatkov
Caroline Criado Perez, avtorica knjige Invisible Women, in Lauren Klein, soavtorica knjige Data Feminism, sta v pogovoru za BBC spregovorili tudi o problemu nabora podatkov. Proizvajalci avtomobilov so, denimo, svoje izdelke testirali, ne da bi vključili podatke za ženska telesa, ali pa so le prilagodili moško testno lutko, in tako so pasovi, naslonjala za glavo in zračne blazine temeljili na podatkih za moške. V tem primeru je slab nabor podatkov povzročil večjo ogroženost žensk.
Pri algoritmih ne gre za življenjsko ogrožajoče situacije, a uporaba modelov umetne inteligence na različnih področjih lahko ima izredno negativen vpliv na življenje žensk, na primer pri zaposlovanju. Algoritmi se učijo na naboru podatkov, in če na tej stopnji ne dobijo zadovoljivih podatkov, pripomorejo k poglabljajo razlik med spoloma.
Katharina Borchert, Mozilla Chief Innovation Officer, je za The Guardian povedala, da so podjetja, ko so začela s prepoznavo govora, sprva uporabljala podatke iz radia. Na radiu so ponavadi bili govorci maternega jezika, veliko je bilo moških s šolanim glasom. To je nemudoma pripeljalo do neenakosti, saj je bilo vključenih premalo ženskih glasov in ljudi z nestandardnimi naglasi, zato so na začetku glasovni pomočniki in pomočnice težje razumeli ženske. Več kot je glasov vključenih v nabor podatkov, večja je kakovost prepoznave govora na dolgi rok. Mozilla je v 2019 tako začela projekt Common Voice, da bi zbrali glasove iz celotnega sveta v nabor podatkov in s tem diverzificirali govor ter slušno razumevanje umetne inteligence.
Podatki, iz katerih se učijo algoritmi, bi morali biti oblikovani tako, da bi presegli diskriminacijo spolov in naslavljali izzive, s katerimi se srečujejo ženske. A ženske niso edina skupina, na katero razvijalci govornih pomočnikov in pomočnic pozabljajo.
Rasni predsodki
Raziskava, ki so jo izvedli na Stanfordu, je razkrila, da modeli glasovne prepoznave slabše razumejo temnopolte. V raziskavi so preverjali javno dostopna orodja iz podjetij Apple, Amazon, Google, IBM in Microsoft, ki so prosto na voljo za izdelovanje storitev prepoznave govora. Ta orodja s Siri in z Alexo sicer delijo nekaj osnovne tehnologije, a ne gre za točno to tehnologijo. Testi so potekali 2019 in izkazalo se je, da tako kot pri sistemih prepoznave obraza, ki so v zadnjem času zavzeli več pozornosti v medijskem poročanju, tudi sistemi prepoznave govora zrcalijo rasne predsodke.
V okviru raziskave so transkribirali intervjuje z belci ter s temnopoltimi in razkrila je, da so tehnologije Appla, Amazona, Microsofta, Googla in IBM narobe razumela 35 odstotkov besed, ki so jih izgovorili temnopolti ljudje, belcem pa je šlo bistveno bolje, saj je bilo takih le 19 odstotkov besed. Sistemi so približno 2 odstotka besedila, ki so ga povedali belci, označili za nerazumljivo, pri temnopoltih je to bilo 20 odstotkov. Očitne torej te tehnologije naredijo bistveno manj napak pri govoru belcev, kar je delno posledica nereprezentativnega nabora podatkov.
Proti tem predsodkom se torej lahko borimo z diverzifikacijo nabora podatkov in orodji, ki omogočajo, da prepoznamo diskriminacijo in ukrepamo, ko jo pri algoritmih opazimo.
Spolno nevtralni Project Q
Project Q poskuša tehnološka podjetja prepričati, da prepoznajo, da spol ni nujno binaren, torej moški ali ženski. Pri izbiri digitalnega pomočnika lahko namreč izbiramo le med dvema, a ta izbira ni dejanska reprezentacija kompleksnosti spola. Danska kreativna agencija Virtue, Copenhagen Pride, Equal AI, Koalition Interactive in thirtysoundsgood so skupaj z jezikoslovci, s tehnološkimi strokovnjaki in z oblikovalci zvoka pripravili brezspolni glas.
Prototip so razvili že lani, a so težko našli pravi glas, saj pri višjih glasovih ljudje menimo, da so ženski, pri nižjih pa, da so moški. Ustvarili so štiri različice in jih poslali 4.500 ljudem po Evropi. Enega od glasov je večina označila za glas, pri katerem ne morejo določiti spola, in ta je postal osnova za Q. Glas razvijajo, da bi bil vključen kot glas pomočnice ali pomočnika, pa tudi na drugih področjih, denimo v prevoznih sredstvih, kjer nas prav tako ponavadi nagovarjajo ženski glasovi.
Ljudje tehnologijam dodajo svoje predsodke, kljub temu pa je tehnologija lahko tudi nosilka sprememb. Vse večji odstotek svetovnega prebivalstva se ne identificira kot moški ali ženski in tako pade v kategorije, ki so šele zdaj bolje prepoznane v družbi. Tudi zaradi nerazumevanja okolice, nepoznavanja, izključevanja se v teh skupinah pojavlja visoka stopnja težav. Umetna inteligenca bi s popularizacijo nevtralnega spola in glasu prinesla priznanje ter opaženost. Ryan Sherman meni, da bi morala tehnološka podjetja glede na vpliv, ki ga imajo v družbi, prevzeti tudi odgovornost za prihodnost bolj vključujoče družbe.
Rast glasovnih iskanj. Vir: Poročilo I’d blush if I could, UNESDOC Digital Library
Pravice in dolžnosti
Vsi imamo pravico biti slišani in videni. A da bo res tako, morajo sistemi slišati veliko zvočnih posnetkov in prebrati veliko besedil, da lahko oboje povežejo. Če podatki ne vsebujejo raznolikih narečij, jih umetna inteligenca ne bo prepoznala. Seveda pa so tovrstni projekti dragi in časovno požrešni, a dolgoročno neizogibni. Ena bolj uporabljenih zbirk podatkov je še vedno Switchboard, ki je bila ustvarjena 1990 na univerzi v Pensilvaniji in vsebuje približno 2.400 telefonskih pogovorov, zbranih od 543 ljudi iz ZDA. A tudi v drugih zbirkah podatkov ameriških glasov manjkajo pogovori neizobraženih, podeželskih, temnopoltih ljudi in govorcev angleščine kot tujega jezika. Nekoliko lažje delo je na tem področju imel BBC, ki razvija svojega digitalnega pomočnika oziroma pomočnico z delovnim naslovom Beep, saj je prisoten po celoti državi in so tako lahko k sodelovanju povabili res širok nabor ljudi za visoko raven zastopanosti.
Prišli smo torej do točke, kjer umetna inteligenca vpliva na odločitve, ki določajo o prihodnosti posameznika in družbe, zato je pomembno, da podjetja, ki razvijajo algoritme, prevzamejo aktivno vlogo v tem, da bodo bolje zrcalili podobo družbe. Tehnološka podjetja bi morala postati nosilci sprememb, ne slepo slediti preferencam in predsodkom uporabnikov ter podatkom, ampak jih pretehtati in se z njimi spopadati. Julie Carpenter, ki sodeluje pri projektu Q, je za Wired povedala, da naj bi trg glasovnih pomočnikov in pomočnic do leta 2023 zrasel za 35 odstotkov. Tako bo postalo povsem običajno, da bomo komunicirali s tehnologijo, zato je nujno, da nekaj naredimo tudi za njen razvoj na področju preprečevanja predsodkov.