Nyheter | AI ThinkLab

Overblikk: Kildekritikk i AI Alderen

Skrevet av Lars O. Horpestad | Apr 24, 2023 10:00:00 PM

Denne artikkelen er laget i sammarbeid med Arne Johan Espeland fra markedsbyrået Vecora.

I en verden der kunstig intelligens (AI) og digitale teknologier spiller en stadig viktigere rolle, er kildekritikk og digital kompetanse mer relevant enn noen gang. Dette gjelder spesielt når det kommer til fenomener som dypforfalskninger og desinformasjon. I denne artikkelen utforsker vi de største utfordringene og mulighetene for kildekritikk i AI-alderen, og ser nærmere på hvordan vi kan samarbeide for å sikre et mer informert og ansvarlig samfunn.

Et samarbeid mellom meg og renommerte Vecora ved min gjest Arne Johan Espeland har resultert i denne artikkelen og en fem minutters video som gir innsikt i temaet. Videoen tar for seg fem spørsmål knyttet til kildekritikk og AI og gir svar på hvordan vi kan navigere i en verden preget av desinformasjon og falske nyheter.

 


AI og dypforfalskninger: En utfordring for kildekritikk

Dypforfalskninger, eller "deepfakes", representerer en av de største utfordringene for kildekritikk i AI-alderen. Disse forfalskningene, som benytter AI-teknologi for å manipulere og endre digitale medier som bilder, videoer og lydopptak, gjør det stadig vanskeligere å skille ekte fra falske medier. Dette kan føre til at folk tror på feilinformasjon og tar beslutninger basert på falske premisser.

 

Med økningen av deepfakes vil spørsmålet om hva som er ekte og hva som ikke er det, i økende grad være på den politiske og sosiale agendaen.  Tilburg University , "Deepfakes may in time disrupt society" (PR, 2022)

 

En annen utfordring er at AI-algoritmer kan forsterke og spre desinformasjon ved å gi den større synlighet og spredning i sosiale medier og søkemotorer. Dette gjør det enda viktigere å utvikle effektive strategier for å bekjempe spredningen av falske nyheter og desinformasjon.

"Man kan forestille seg slik teknologi som overgår finansmarkedene, overgår menneskelige forskere, manipulerer menneskelige ledere og utvikler våpen vi ikke engang kan forstå. Mens den kortsiktige virkningen av AI avhenger av hvem som kontrollerer den, avhenger den langsiktige virkningen av om den i det hele tatt kan kontrolleres."  - Stephen Hawking, teoretisk fysiker og kosmolog.

 

Strategier for å bekjempe spredning av falske nyheter og desinformasjon

Det finnes ingen enkle løsninger på problemet med spredning av falske nyheter og desinformasjon, men noen strategier kan bidra til å redusere omfanget:

  1. Øk bevisstheten om problemet og oppfordre folk til å være mer kildekritiske og skeptiske til informasjonen de mottar.
  2. Faktasjekking og verifikasjon av kilder kan bidra til å begrense spredningen av falske nyheter.
  3. Sosiale medieplattformer kan implementere algoritmer og andre teknologier som kan oppdage og hindre spredning av falske nyheter og desinformasjon.
  4. Samarbeid mellom akademiske institusjoner, regjeringer, næringsliv og teknologiutviklere for å utvikle etiske AI-rammer og standarder.

 

Akademiske institusjoner og kildekritikk i en AI-drevet verden

Akademiske institusjoner kan spille en viktig rolle i å fremme kildekritikk og digital kompetanse i en AI-drevet verden. Dette kan gjøres ved å tilby kurs og opplæring i digitale ferdigheter og kildekritikk, samt å utføre forskning og utvikling av teknologier som kan bidra til å bekjempe spredning av falske nyheter og desinformasjon.

Videre kan institusjoner samarbeide med regjeringer, næringsliv og teknologiutviklere for å utvikle etiske AI-rammer og standarder. Dette samarbeidet kan sikre at AI-teknologien er utviklet og brukt på en måte som er i tråd med menneskerettigheter, personvern og andre etiske standarder. Transparente og ansvarlige praksiser i utviklingen og bruken av AI-teknologi kan også fremmes gjennom et slikt samarbeid.

Samarbeid mellom ulike aktører er nøkkelen til å skape et trygt og bærekraftig digitalt miljø. Regjeringer kan bidra til å skape lover og reguleringer som beskytter individets rettigheter og personvern i møte med nye teknologier. Selskaper kan utvikle innovative løsninger og produkter som ivaretar etiske prinsipper og respekt for personvern. Teknologiutviklere kan fokusere på å skape AI-systemer som er transparente, ansvarlige og rettferdige.

 

Utdanning og opplæring i kildekritikk og digital kompetanse

For å styrke kildekritiske ferdigheter i møte med nye AI-utfordringer, er det viktig at enkeltpersoner tar ansvar og blir aktive forbrukere av informasjon. Dette innebærer å sjekke flere kilder, være kritisk til kilder, være oppmerksom på sensasjonalistisk innhold, og lære seg å identifisere "deepfakes". Ved å bli mer bevisst på automatisert innhold og egen forståelse, kan man også bidra til å redusere spredningen av desinformasjon og falske nyheter.

AI ThinkLab og Vecora samarbeider for å skape bevissthet rundt kildekritikk og digital kompetanse i AI-alderen. Gjennom deres arbeid ønsker de å bidra til et tryggere og mer bærekraftig digitalt miljø, der enkeltpersoner, organisasjoner og samfunnet som helhet kan dra nytte av AI-teknologi på en ansvarlig og etisk måte.

For å holde deg oppdatert på AI-relaterte temaer og få innsikt i hvordan du kan ta smartere beslutninger med AI, abonner på nyhetsbrevet Smartere Beslutninger med AI her på LinkedIn (hvor du sikkert leser dette). Det daglige nyhetsbrevet vil hjelpe deg med å oppdage nye muligheter og få et fortrinn i dagens digitale økonomi.

I en verden der AI-teknologi stadig blir mer sofistikert og tilgjengelig, er det viktigere enn noen gang å være kildekritisk og digitalt kompetent. Med samarbeid og utdanning kan vi sikre en fremtid der AI brukes på en ansvarlig og etisk måte, og der vi som etglobalt samfunn er i stand til å identifisere, forstå og bekjempe desinformasjon og falske nyheter.

For å oppnå dette må skoler, universiteter og andre utdanningsinstitusjoner integrere digitale ferdigheter og kildekritikk i pensum. Dette vil sikre at kommende generasjoner er godt rustet til å navigere i den digitale verden og ta informerte beslutninger basert på pålitelige kilder og data.

Medieorganisasjoner og innholdsprodusenter må også ta ansvar for å fremme kildekritikk og digital kompetanse. De kan gjøre dette ved å være transparente om sine kilder og metoder, samt ved å tilby opplæringsmateriell og verktøy som hjelper publikum å forstå og vurdere kvaliteten på informasjonen de mottar.

 

"Nøkkelen til kunstig intelligens har alltid vært representasjonen."  - Jeff Hawkins, som er en nevroforsker og medgrunnlegger av Numenta, argumenterer for at hjernen vår bruker spesielle mønstre for å representere informasjon, og at en tilsvarende tilnærming til kunstig intelligens kan gi bedre resultater enn tidligere tilnærminger som har fokusert mer på beregning og algoritmer.

 

Ansvarlig og etisk bruk av AI: Roller og ansvar for ulike aktører

Det offentlige, næringslivet og frivillige organisasjoner kan også bidra ved å støtte initiativer og prosjekter som fremmer digital kompetanse og kildekritikk, samt ved å oppfordre til ansvarlig og etisk bruk av AI og andre teknologier.

Internasjonale organisasjoner og myndigheter bør samarbeide for å utvikle globale standarder og retningslinjer for bruk av AI. Dette kan inkludere tiltak for å forhindre spredning av desinformasjon og falske nyheter, samt beskytte personvern, menneskerettigheter og demokratiske verdier i møte med teknologisk utvikling.

Til slutt er det viktig at enkeltpersoner er proaktive i å utvikle sin egen digitale kompetanse og kildekritikk. Dette innebærer å ta ansvar for å oppsøke informasjon, være kritisk til kilder, og diskutere og dele kunnskap med andre. Ved å utvikle disse ferdighetene vil vi kunne forstå og håndtere de mulighetene og utfordringene som AI og andre teknologier representerer.

Gjennom samarbeid og utdanning kan vi sikre en fremtid der AI brukes på en ansvarlig og etisk måte, og der vi som et globalt samfunn kan dra nytte av teknologiens potensial samtidig som vi bekjemper desinformasjon og falske nyheter. Dette vil bidra til å skape en mer rettferdig, åpen og bærekraftig verden for alle.

 

Vecora: Din partner for digital suksess

Vecora er et ledende digitalt markedsføringsbyrå i Norge som fokuserer på å hjelpe bedrifter og organisasjoner med å oppnå suksess i den digitale verden. Med en kombinasjon av erfaring, ekspertise og innovative løsninger, er Vecora dedikert til å skape effektive markedsføringsstrategier som gir resultater.

For å lære mer om Vecora og deres tjenester, besøk nettsiden deres på www.vecora.no. La Vecora hjelpe deg med å navigere i den digitale verden og ta smartere beslutninger basert på pålitelige kilder og data.

 

Lars O. Horpestad er en ledende ekspert på språkmodeller og kunstig intelligens. Med sin omfattende erfaring og kunnskap skapte han AI Operator™ formelen for å gi en omfattende tilnærming til effektiv bruk av språkmodeller for det norske næringslivet.

Ikke alle nyhetsbrev har sin egen bok, men det har denne! Lars ga nylig ut boken "Å ta smartere beslutninger med AI" som du kan lese mer om her. Gå også til vår nettside www.aithinklab.com for å finne flere ressurser og melde deg på kurs!