Velika Britanija pripravlja standard za umetno inteligenco
Velika Britanija, ki je v zgodovini računalništva pogosto igrala eno glavnih vlog pri vzpostavitvah standardov, je nedavno najavila nov standard, ki bo postavljal temelje za uporabo algoritmov umetne inteligence v javnem in zasebnem sektorju. Cilj standarda je predvsem zagotavljanje transparentnosti pri uporabi algoritmov, s čemer obenem ščitijo pravice posameznikov, postavljajo pa tudi obveznosti za vse člane družbe.
Novi standard dovoljuje uporabo algoritmov umetne inteligence v javnem sektorju s ciljem, da s temi povečajo učinkovitost in zmanjšajo ceno javnih storitev. Toda v procesih odločanja mora delovanje algoritmov ostati transparentno ter omogočiti sledljivost ter odgovornost uporabe. Za algoritme bo treba imeti javno urejeno strategijo upravljanja s tveganji, kot tudi analizo posledic uporabe algoritmov.
Standard za posamezen algoritem zahteva dve skupini podatkov in določb. V prvi je kratek opis orodja z algoritmov in razlaga namena rabe. V drugi skupini pa so bolj podrobneje opisani tehnični parametri algoritma, vključno z opisom načina delovanja, uporabljenim podatkovnim modelom za učenje algoritma in stopnjo človeškega nadzora nad delovanjem algoritma.
Standard, ki sta skupaj sestavili agenciji CDDO (Central Digital and Data Office) in CDEI (Centre for Data Ethics and Innovation), skupaj s pomočjo nekaterih zunanjih organizacij, kot so britanske univerze, bo v kratkem zaživel v nekaterih pilotskih projektih javne uprave. Sledila bo revizija delovanja, predvsem z analizo vpliva na javno življenje, pričakujejo pa, da bo standard uradno sprejet že v teku leta 2022.
V Evropski Uniji so spomladi leta 2021 sprejeli smernice za regulacijo algoritmov umetne inteligence, vendar je bil prvotni predlog deležen številnih kritik, češ da premalo ščiti pravice posameznikov. V območju EU je cilj sprejetja uredbe za področje umetne inteligence po podobnem vzoru, kot je bila sprejeta odredba GDPR. Toda vse kaže, da EU tu že nekoliko zaostaja za Veliko Britanijo.