Jonatan Granner

Hvorfor ansvarlig AI er vigtigt at få på dagsordenen (del 1)

Videoen opsummerer eventet fra Responsible AI-arbejdsgruppen afholdt d 16. februar 2019.

Indenfor bevægelsen effektiv altruisme kigger man ofte på tre aspekter for at kunne vurdere i hvor høj grad det er vigtigt at bruge ressourcer på at løse et problem: Problemets omfang, problemets løsbarhed og hvor negligeret problemet er.
Hvis et problem er stort i omfang, men ikke løsbart (fx universets endelige skæbne), er det svært at argumentere for, at man skal poste ressourcer i at løse det. Hvis et problem er både stort i omfang og løsbart, men allerede er på toppen af dagsordenen i store dele af verdenen (fx forskning i kræft), vil nye ressourcer brugt på en løsning have en relativt mindre indvirkning, end hvis samme ressourcer var blevet brugt på et lignende, men mere overset problem (fx bekæmpelse af schistosomiasis).
Tilstedeværelsen af alle tre faktorer biddrager således til en samlet slutning om at problemet fortjener flere ressourcer for at blive løst. En nærmere beskrivelse af frameworket kan findes på effectivealtruism.org.

Frameworket er forklaringen på, hvorfor mange mennesker indenfor effektiv altruisme vælger at fokusere på sikkerhed indenfor AI (kunstig intelligens): Problemet er stort (potentielt en eksistentiel trussel), problemet er løsbart idet vi selv skaber den kunstige intelligens som vil udforme truslen og endelig er problemet ganske overset sammenlignet med andre store trusler (fx global opvarmning). Ben Garfinkel, der er researcher fra
Future of Humanity Institute ved Oxford Universitet, estimerer, at der på verdensplan er mindre end 100 mennesker, der i øjeblikket arbejder med sikkerhed og etisk brug af kunstig intelligens.

I starten af 2019 lancerede Effective Altruism Denmark en arbejdsgruppe med fokus på netop ansvarlig udvikling og brug af kunstig intelligens. Det skete bl.a. med et event d 16. februar 2019, hvor arbejdsgruppens initiativtagere, Erik David Johnson og Søren Elverlin hver holdte et oplæg om etik indenfor AI. Erik, der til dagligt arbejder med AI, fortalte om status quo AI udvikling med fokus på etik samt fremtidsudsigter på kort sigt. Søren, der har stiftet organisationen AI Safety Denmark, fortalte om AI på den længere bane, og særligt Nick Bostroms argumenter for, hvorfor det er vigtigt at betragte superintelligente AIs som en potentiel trussel. Videoen i starten af dette indlæg viser et udpluk af de emner og argumenter, der blev taget op.

Igennem de næste to indlæg vil jeg gå mere i dybden med vigtigheden i at løse etiske udfordringer for AI på kort sigt og på lang sigt.

Leave a Comment

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *

*
*