Mangfold, rettferdighet og inkludering i kunstig intelligens
Kunstig intelligens (KI) har blitt en integrert del av hverdagen vår, fra algoritmene som anbefaler produkter og tjenester til de maskinbaserte systemene som tar beslutninger som påvirker virkelige eller virtuelle miljøer. Fremveksten av KI har imidlertid også ført til bekymringer om diskriminering og ulikhet, ettersom det allerede er rapportert om mange tilfeller av partiskhet og diskriminering fra KI-systemer. Forskere har advart om at KI-systemer kan reprodusere og forsterke eksisterende ulikheter, noe som kan føre til urettferdige og diskriminerende resultater for marginaliserte grupper. For å håndtere disse risikoene har det dukket opp mange etiske retningslinjer for KI, inkludert prinsipper og praksis som tar sikte på å fremme mangfold, rettferdighet og inkludering (DEI - forkortelse av Diversity, Equity, & Inclusion) i KI. Men hvor effektive er disse retningslinjene, og gjenspeiler de den mest relevante akkumulerte kunnskapen fra DEI-litteraturen?
I en fersk studie utførte forskere en semi-systematisk litteraturgjennomgang av 46 AI-retningslinjer publisert fra 2015 til i dag, med mål om å evaluere DEI-innholdet i disse retningslinjene og vurdere i hvilken grad de oppfyller den mest relevante akkumulerte kunnskapen fra DEI-litteraturen. Forskerne identifiserte 14 DEI-prinsipper og 18 anbefalte DEI-praksiser som ligger til grunn for disse retningslinjene. De fant at retningslinjene for det meste oppmuntrer til ett av DEI-forvaltningsparadigmene, nemlig rettferdighet, rettferdighet og ikke-diskriminering, i en begrenset samsvarstilnærming. Smale tekniske praksiser foretrekkes fremfor helhetlige praksiser, og anbefalte praksiser for implementering av DEI-prinsipper i AI forsømmer tiltak som tar sikte på å direkte påvirke AI-aktørers atferd og individuelle bevissthet om DEI-risikoer og beste praksis.
Denne studien fremhever noen av de viktigste utfordringene i arbeidet med å fremme DEI i kunstig intelligens. Selv om retningslinjene som er gjennomgått i studien, anerkjenner betydningen av rettferdighet, rettferdighet og rettferdighet, fokuserer de ofte på snevre tekniske løsninger i stedet for å ta en mer helhetlig tilnærming. Videre tar ikke retningslinjene opp de underliggende årsakene til skjevhet og diskriminering i AI-systemer, for eksempel skjeve treningsdata eller ubevisste skjevheter hos AI-designere, utviklere og trenere. For å fremme DEI i KI er det viktig å ta i bruk en mer omfattende tilnærming som tar for seg de strukturelle ulikhetene og skjevhetene som ligger til grunn for KI-systemer.
Et område der retningslinjene kommer til kort, er mangelen på oppmerksomhet mot atferden og holdningene til KI-aktører. Studien fant at retningslinjene ikke inneholder anbefalt praksis som tar sikte på å påvirke KI-aktørenes atferd og individuelle bevissthet om risikoer og beste praksis i forbindelse med kunstig intelligens. Selv om etiske retningslinjer og etiske retningslinjer kan øke bevisstheten om etiske spørsmål, er de ikke tilstrekkelige for å sikre rettferdighet og likebehandling. For å fremme DEI i KI er det viktig å fremme en kultur for bevissthet og ansvarlighet blant KI-aktører, og å gi dem kunnskapen og verktøyene de trenger for å utforme og ta i bruk KI-systemer som er rettferdige og likeverdige.
Et annet område der retningslinjene kommer til kort, er det begrensede fokuset på de sosiale og relasjonelle dimensjonene ved DEI. Selv om retningslinjene tar opp spørsmål om rettferdighet, rettferdighet og ikke-diskriminering, fokuserer de ofte på snevre tekniske løsninger som ikke tar hensyn til den bredere sosiale og kulturelle konteksten der KI opererer. For å fremme DEI i KI er det viktig å ta i bruk en mer helhetlig tilnærming som tar hensyn til de sosiale og kulturelle faktorene som bidrar til skjevhet og diskriminering i KI-systemer.
Samlet sett fremhever denne studien behovet for en mer omfattende tilnærming for å fremme DEI i kunstig intelligens. Selv om retningslinjene som er gjennomgått i studien, gir et utgangspunkt for å håndtere risikoen for partiskhet og diskriminering i KI, kommer de til kort med sitt snevre fokus på tekniske løsninger og manglende oppmerksomhet på atferden og holdningene til KI-aktører. For å sikre at KI-systemer er rettferdige og likeverdige, er det viktig å ta i bruk en mer helhetlig tilnærming som tar for seg de underliggende årsakene til fordommer og diskriminering og fremmer en kultur for bevissthet og ansvarlighet blant KI-aktører. Bare da kan vi sikre at AI-systemer virkelig tjener samfunnets behov.
Lars O. Horpestad er en ledende ekspert på språkmodeller og kunstig intelligens. Med sin omfattende erfaring og kunnskap skapte han AI Operator™ formelen for å gi en omfattende tilnærming til effektiv bruk av språkmodeller for det norske næringslivet.
Ikke alle nyhetsbrev har sin egen bok, men det har denne! Lars ga nylig ut boken "Å ta smartere beslutninger med AI" som du kan lese mer om her. Gå også til vår nettside www.aithinklab.com for å finne flere ressurser og melde deg på kurs!