Zespół bada­czy z Uni­ver­si­ty of Toron­to bada wystę­po­wa­nie ste­reo­ty­pów i uprze­dzeń w sys­te­mach opar­tych na sztucz­nej inte­li­gen­cji (Arti­fi­cial Intel­li­gen­ce, AI). Naukow­cy ofe­ru­ją bez­płat­ną usłu­gę spraw­dze­nia, czy dany sys­tem “jest uprze­dzo­ny” i w jakim stopniu.

Pro­fe­sor Par­ham Aara­bi pro­wa­dzą­cy pro­jekt HALT mówi, że uprze­dze­nia i jakaś for­ma dys­kry­mi­na­cji wystę­pu­ją w nie­mal każ­dym testo­wa­nym sys­te­mie. Pod­kre­śla, że takie sys­te­my mogą być nie­spra­wie­dli­we i nawet mogą wpły­wać na czy­jeś życie. Jego gru­pa zwra­ca szcze­gól­ną uwa­gę na uwzględ­nie­nie i roz­po­zna­wa­nie róż­no­rod­no­ści społecznej.

Sys­te­my opar­te na sztucz­nej inte­li­gen­cji uży­wa­ne są w wie­lu miej­scach, i to coraz powszech­niej. Dzia­ła­ją np. na lot­ni­skach, w insty­tu­cjach rzą­do­wych, w agen­cjach zdro­wia, w poli­cji, w tele­fo­nach komór­ko­wych, mediach spo­łecz­no­ścio­wych, a cza­sem nawet w cza­sie pro­ce­sów rekru­ta­cyj­nych. Wia­do­mo jed­nak, że pro­jek­tu­ją je ludzie – i to jest źró­dłem uprze­dzeń systemów.

reklama

Jed­nym z eta­pów two­rze­nia sys­te­mu opar­te­go na sztucz­nej inte­li­gen­cji jest pro­ces “ucze­nia się”. Wte­dy wyko­rzy­sty­wa­ne są np. zdję­cia lub prób­ki dźwię­ku, by w sys­te­mie powsta­ły odpo­wied­nie powią­za­nia i sko­ja­rze­nia. Jeśli sys­tem ma roz­po­zna­wać twa­rze, a w cza­sie nauki będzie ana­li­zo­wał wize­run­ki osób np. tyl­ko z jed­nej gru­py etnicz­nej, to wobec innych będzie “uprze­dzo­ny” – czy­li będzie poka­zy­wał błę­dy. Gru­pa pro­fe­so­ra Aara­bie­go zaj­mo­wa­ła się też sys­te­ma­mi roz­po­zna­wa­nia mowy. Tu było widać, że nie­któ­re akcen­ty czy dia­lek­ty są roz­po­zna­wa­ne dużo gorzej niż mowa oso­by, dla któ­rej angiel­ski jest języ­kiem ojczy­stym. Dla osób mówią­cych z akcen­tem sys­tem sta­wał się mało użyteczny.

Peł­ny pro­ces oce­ny wyko­na­ny przez zespół HALT może trwać nawet dwa tygo­dnie. Po takiej ewa­lu­acji wła­ści­ciel sys­te­mu wie, ile uprze­dzeń sie­dzi w jego tech­no­lo­gii. Naukow­cy potra­fią dokład­nie wska­zać, jaka gru­pa spo­łecz­na zosta­ła pomi­nię­ta albo w inny spo­sób jest poszko­do­wa­na. Na tej pod­sta­wie moż­na następ­nie dobrać dane do “nauki” sys­te­mu, by uczy­nić go sprawiedliwszym.