Maskiner der tænker
Vigtigt at få indblik i kunstig intelligens i fremtiden
Af fremtidsforsker Anne-Marie Dahl, Futuria
”Kunstig intelligens kan bruges til at løse problemer, men vi mennesker må sørge for, at det er de rigtige problemer, maskinerne løser. Afvejningen og dermed ansvaret ligger hos mennesker”. Sådan lyder det i Inga Strümke aktuelle bog ”Maskiner der tænker - algoritmernes hemmeligheder og vejen til kunstig intelligens”.
Emnet er højaktuelt, ikke mindste efter at hele verden fik adgang til ChatGPT i november 2022. Maskiner bliver måske klogere end mennesker og kan løse problemer, vi ikke selv kan, men ligesom der er mange nye muligheder, er der masser af faldgruber og udfordringer. Derfor er det vigtigt at få indblik i kunstig intelligens, så vi kan forstå og navigere i en verden med flere og flere algoritmer.
Data og metoder
Inga Strümke betegnes som Norges førende AI-forsker. Hun har en ph.d. i partikelfysik og forsker i intelligens på Norges tekniske-naturfaglige universitet – NTNU. I ”Maskiner der tænker” giver hun en historisk redegørelse for kunstig intelligens, forklarer om de metoder, man kan bruge til at indsamle og håndtere data/oplysninger og om hvilke udfordringer, vi står overfor i fremtiden.
Helt basalt, fastslår Strümke, at algoritmer blot er en samling af instruktioner ligesom en madopskrift. Ingen computer fungerer uden en opskrift. Maskiner er reelt mekaniske papegøjer, der gentager hvad vi fodrer dem med. Udfordringen er, at det er svært at lave gode algoritmer. Hvordan skal en maskine håndtere hvilke data? Er det muligt at fortælle den, hvad den nøjagtigt skal gøre i enhver situation?
I øjeblikket står vi ifølge Strümke overfor ny guldalder, hvor maskinerne selv lærer at udføre opgaver eller løse problemer, såkaldt maskinlæring. I stedet for at programmere dem, slippes de selv løs på data, prøver sig frem for at få ny viden og finder måske sammenhænge, som vi ikke kender til. Det er dog heller ikke uden udfordringer.
Strümke forklarer indgående de forskellige teknikker omkring træningsdata, algoritmer og maskinlæring, og er man interesseret i en mere indgående metodetilgang, er det absolut værd at dykke ned i. I en fremtidsforskning/samfundskontekst er det mere interessant at se på de muligheder og udfordringer, vi står overfor i en fremtid med maskiner, der tænker.
Dræbt pga. en plasticpose
En kvinde går over gaden med en plasticpose i hånden og bliver kørt ned og dræbt af en Tesla. Tesla var ude på testkørsel som selvkørende bil med en driver, der åbenbart ikke var opmærksom. Tesla registrerede ”plasticpose”, som man ikke skal holde for i stedet for ”kvinde” og bremsede ikke.
Så galt kan det gå, når maskiner slippes løs uden at være trænet i de rigtige data og de rigtige sammenhænge. Der er alt for mange ting i verden til, at en model kan trænes i dem alle, eller i alt, hvad der kan ske, forklarer Strümke. Og maskiner har svært ved forstå nye situationer.
Derfor prøver man som nævnt andre træningsmodeller, hvor maskinerne får mere frie hænder og selv sorterer i data og finder mønstre, men også det kan gå galt.
Min ven er ikke en gorilla
Slipper man maskiner løs på data, kan man klart finde nye spændende sammenhænge blandt andet indenfor lægevidenskaben, men man kan også komme til at forstærke skævheder i samfundet som f.eks. racisme og sexisme, hævder Strümke .
I 2015 offentliggjorde Google en maskinlæringsmodel, der var trænet på billeder på nettet og hævdede, at den kunne klassificere alt. Problemet var bare, at et par selfies af to unge afroamerikanere blev kategoriseret som ”gorilla”. Træningsdata havde tilsyneladende ikke indeholdt nok foto af ikke vestlig etnicitet. Den ene af de unge gutter skrev derfor på nettet: ”Min ven er ikke en gorilla!”
Amazone oplevede samme slags udfordring med et nyt rekrutteringsværktøj med brug af kunstig intelligens. Målet var at finde de bedste ansøgere uden at skelne til bl.a. køn, men programmet viste sig stort set at skille kvindelige ansøgere fra. I de sidste 10 år før, havde Amazone primært ansat mænd og maskinen var vaks til at gå efter typiske mande- og kvindeord i ansøgninger og valgte stort set kun mænd ud til jobsamtaler.
Strümke nævner også, at hendes asiatiske veninde altid bliver stoppet i paskontrollen i Oslo, for ansigtsgenkendelsesprogrammet forstår kun ”nordmænd.”
På den måde kan algoritmer komme til at optræde sexistisk, racistisk og diskriminerende i forhold til LGBTQ+ og forstærke eksisterende opfattelser. For data på nettet er historiske eller nutids-repræsentationer af vores virkelighed og passer således ikke nødvendig vis med den verden, vi ønsker.
Depression, manipulation og demokrati
Data og indsamlingsmetoder er ikke uskyldige og nogle gange kan vi blive defineret og manipuleret, uden at vi ved det.
På et tidspunkt fik Facebook tilladelse til at analysere sprogbrug i opdateringer fra brugere, der var diagnosticeret med depression. Dermed kunne de hurtigt identificere andre brugere på Facebook, der ville blive diagnosticeret med depression, 3 måneder før de selv var klar over det. Deres sprogbrug i opdateringer afslørende dem.
Strümke mener, at det er vigtigt, at der indføres reguleringer, så store Tech-virksomheder ikke udnytter deres indsigt til at påvirke os. Hun nævner også overvågningsreklamer, hvor et kamera registrerer, hvordan du reagerer på en reklame, når du går forbi og Google maps, der altid ved, hvor du er. Og bare du går forbi en Tesla, bliver du filmet af dens overvågningskamera.
Det samme gælder i forhold til data, vi selv giver fra os på de sociale medier. Via vores profil og de ting, vi ”liker” eller kigger på, kan algoritmer programmeres til, at vi får mere af det, vi godt kan lide. Dermed præsenteres vi ikke for andre muligheder og synspunkter. En kæmpe udfordring for demokratiet, der kan føre til polarisering og radikalisering.
Menneskepapegøjer og døde der taler
Med maskinernes nye evne til at genkende ansigter, følelser og analysere sprogbrug bliver det sværere at afsløre fake og vurdere, hvad der er ægte information.
Det bliver næsten umuligt at afgøre, om det er en rigtig eller en kunstig stemme, der taler og om en video er ægte. Har du en stump film med en afdød, vil vedkommende kunne manipuleres ind i andre sammenhænge, og du kan tale med de døde. Afdøde skuespillere vil kunne optræde i film.
ChatGPT gør det muligt at ”tale” med noget, der kunne minde om et menneske, for de nye systemer er trænet til at tale med dig ved at lede efter ord i dine udsagn. Siger du ”min mor var god til at lave pizza”, kan maskinen sige” fortæl lidt mere om din mor.” Man kan let blive snydt af en god Ai samtalepartner.
Men der er forskel på at simulere en evne og have en evne, og vi skal vide, at talemodeller aldrig har bevæget sig rundt i den virkelige verden og er programmeret til at holde flest mulige samtaler i gang. Og hvad holder en samtale i gang? Det vi taler om på de sociale medier, og det som brugere reagerer særligt på, hvilket oftest er kontroversielle emner. Dermed kan en Ai-samtalepartner hurtigt dreje snakken hen i retning af racisme, sexisme og imod LGBTQ+. Derfor må vi holde maskinerne i ørene og give dem i et formål, der ikke forstærker eksisterende uligheder, mener Strümke .
Kunsttyv
Med Ai´s billede-genkendelses modeller har den udviklet sig til den ideelle kunsttyv. Der ligger masser billeder af kunst frit tilgængelig på nettet, som let kan læses, kombineres på nye måder og omdannet til ny kunst. Så hvad er kunst og kreativitet i fremtiden?
Hvad med kunstnere, der i den virkelige verden kan opretholde deres ophavsret? Hvis en smart maskine bruger kunstværker på nettet som træningsdata og udnytter den kunst, som kunsterne aldrig har givet samtykke til, må bruges.? Ai skaber den kunst, du ser ved at udnytte kunstnere, siger Strümke. Vil der overhovedet blive skabt traditionel kunst, hvis det flyder med digitale kombinerede produkter på nettet?
Tillidsforvalter
Alt kan i fremtiden potentielt være falsk, siger Strümke. Derfor kan tillid blive en ny gangbar valuta og en ny rolle for fremtidens journalister. Sensationer og underholdninger kan nemt genereres med ChatGPT, mens relevant information og verificeret sandhed er mere kostbart.
Strümke mener, at journalister bør ændre deres rolle til at være ”forvaltere af sandhed og tillid”. De skal stoppe clickbait og sensationsræset og i stedet undersøge, skrive og fortælle det, som maskinerne ikke evner. De skal efterprøve og undersøge information og bruge deres kritiske tænkning. Det vil være det bedst værn mod manipulation og en ny rolle for fremtidens journalister, som i øvrigt udfordres af, at ChatGPT hurtigt kan skrive en artikel og er noget billigere i drift.
En beskidt affære
Der er dog også her et forbehold over for ChatGPT, mener Strümke. ChatGPT er nemlig dygtig til at formulere sig, men har ingen evne til at undersøge, om det er sandt. Det kan blive et problem i forhold til troværdig information i fremtiden, hvilket igen kalder på en ny rolle for journalister.
Ligeledes er det et problem, hvis skoleelever får ChatGPT til at lave deres opgaver. Elevers formål er at lære, at øve sig i at behandle information og udtrykke sig. De læringsprocesser går tabt, hvis elever blot bedt ChatGPT om at skrive sin opgave. Strümke slår på tromme for, at vi udvikler en ChatGPT detektor, der kan blandt kan tjekke, om en opgave er skrevet af ChatGPT eller et rigtigt menneske.
Man kan ikke stole på ChatGPT, fastslår Strümke, og er det ikke uetisk for at have en Chatbot at pludre med for sjov? Strümke kalder nemlig ChatGPT for en utrolig beskidt affære, fordi er forbundet med et meget stort CO2 aftryk.
Ai jura og Ai etik
Det bliver i fremtiden vigtigt at have forståelse for Ai jura og Ai etik og drøfte nye dilemmaer, siger Strümke.
Hvad hvis vi ønsker, at en computer behandler folk ens, men den reelt diskriminerer via indirekte oplysninger i datagrundlaget som i tilfældet Amazone? Ai skal være retfærdig, kan vi sige, men hvilken retfærdighed? Kan det være et problem, hvis algoritmerne slippes løs på historiske data? Hvilke juridiske regler skal Ai fordres med, man kan ikke lægge et juridisk skøn, men må give eksakte regler og lov? Hvordan tackler vi de sager, hvor kunstværker er blevet brugt som træningsdata, uden at kunsten har givet tilsagn?
I fremtiden bør udvikles en professionsetik, mener Strümke. Vi bør stille krav om en autorisation, som man kan miste ved uetisk arbejde, ligesom med andre professioner. Ellers kan programmører for let blive presset til uetisk programmering, fordi de er bange for at miste deres job.
Hun hylder GDPR beskyttelse af data i EU. Nok kan GDPR oplevelse som en gigantisk snublesten men alternativet er, at vi som enkeltpersoner står svagt overfor store virksomheder.
Vi skal forstå maskinerne
Den helt store udfordring er, at vi ikke nødvendigvis forstår maskinerne i fremtiden. De vil kunne finde sammenhænge, som mennesket ikke kender, men vi må forstå, hvad de gør, hvis vi skal bevare mulighed for at træffe frie valg. Det er akut, siger Strümke. Vi skal sikre, at maskinerne ikke strider mod vores overordnede mål.
Strümke kommer med et tænkt eksempel: Hvis vi skaber en algoritme med det mål at producere papirklips, vil den gå i gang og blive dygtigere og dygtigere. Til sidst vil den dog have brugt alle samfundets ressourcer, fordi den er kommet til den moralske konklusion, at papirklips er vigtigst. Ikke fordi er ond, hader eller vil fortrænge mennesket. Den blot følger sit mål.
Er nye teknologier en gevinst?
Teknologisk udvikling har altid givet anledning til begejstring og bekymring, siger Strümke. Vil ny teknologi stjæle vores arbejde eller det giver nye muligheder?
Under den første industrielle revolution med indførelse af dampmaskine og mekanisering mistede mange deres arbejde, mens den 2. og 3. industrielle revolution gjorde medarbejdere mere produktive. Samtidig med de fik forbedrede arbejdsforhold og nye muligheder. Det drejede sig hhv. om fremkomsten af elektricitet og benzinmotoren og telekommunikation, elektronik og computere. Den teknologiske udvikling var en gevinst for alle.
Spørgsmålet er, hvad den 4. industrielle revolution, som buldrer ind med digitale løsninger, Ai og ChatGPT, vil betyde?
Strümke mener, at vi står overfor en stor omstilling og det derfor er helt centralt, at man som medarbejder evner at omstille sig til nye jobfunktioner. I følge World Economic forum vil 65 % af de nuværende grundskolelever komme til at arbejde med job, der slet ikke findes i dag.
Derudover mener Strümke, at omstillingen kræver, at vi drøfter og finder løsninger på de udfordringer, der skal løses i forbindelse med Ai, også på et samfundsplan.
Mennesket over maskiner
Strümke mener, at vi står på tærsklen til et gennembrud, hvor maskiner bliver klogere end mennesker, og at vi kan løse problemer, vi i dag ikke aner, hvordan vi skal løse. Superintelligens bliver hele tiden bedre.
Det giver fantastiske nye muligheder, ikke mindst indenfor sundhedsvæsenet, og Ai bliver vores nye ven på jobbet, hvis vi formår at følge med og at omstille vores kompetencer. Men Ai skal ikke slippes løs på egen hånd.
Der er mange udfordringer og dilemmaer at sætte sig ind i og diskutere. Vi har ansvaret for at bestemme, hvordan og til hvad vi vil bruge kunstig intelligens i fremtiden, fastslår Strümke.
Inga Strümke: ”Maskiner der tænker - algoritmernes hemmeligheder og vejen til kunstig intelligens, Politikens forlag, 2023
Artikel: I fremtiden taler vi med de døde
Find omtale af andre spændende bøger på Fremtidsbiblioteket
Følg mig her: