Skal vi frygte kunstig intelligens?
Vil udviklingen inden for kunstig intelligens føre til, at robotterne en dag overtager verden? Thore Husfeldt, algoritmeforsker på IT-Universitetet, frygter nærmere den overvågning, som kunstig intelligens og andre digitale teknologier muliggør allerede nu. Mød ham til Forskningens Døgn på ITU torsdag d. 25. april.
Institut for DatalogiEventsForskningkunstig intelligensrobotterThore Husfeldt
Skrevet 25. april 2019 05:51 af Vibeke Arildsen
”Udviklingen af sand kunstig intelligens kan betyde enden for menneskeheden,” udtalte den legendariske fysiker Stephen Hawking tilbage i 2014.
Også prominente folk som Elon Musk og Bill Gates har udtrykt bekymring for, at utøjlet kunstig intelligens kan løbe løbsk og ende med at være ødelæggende for menneskeheden. Samme fortælling kender vi fra populærkulturen, for eksempel Terminator-filmene, hvor dræberrobotter overtager verdensherredømmet.
Men vi er stadig langt fra katastrofescenarierne om løbske robotter, mener Thore Husfeldt, som forsker i algoritmer og teoretisk datalogi på ITU.
Rent teknisk er de kunstige intelligenser, vi har i dag, faktisk ikke særlig intelligente i menneskelig forstand.
”I dag er vi vant til at omgås meget specifikke kunstige intelligenser – det kan for eksempel være en skakcomputer, som løser et meget konkret, afgrænset område af en beslutningsproces meget godt,” forklarer Thore Husfeldt.
De specifikke kunstige intelligenser har dog ingen selvstændige tanker eller vilje, de kan ikke løse opgaver, der ikke er klart definerede, og de kan ikke selv definere nye arbejdsopgaver, som mennesket kan.
Skak er nemt, at genkende ansigter er svært
Hvorvidt det en dag bliver teknisk muligt for robotterne at tænke selvstændigt og efterfølgende vende sig mod os, afhænger af, om det lykkes forskerne at udvikle generel kunstig intelligens – altså kunstig intelligens, der kan løse andet end afgrænsede opgaver.
Nok den mest berømte dræberrobot: Terminator i skikkelse af Arnold Schwarzenegger.
Og det har vist sig sværere, end forskerne oprindeligt regnede med. Ikke mindst fordi, det i starten ikke stod fuldstændig klart, hvad intelligens egentlig er for en størrelse.
”I 1950, hvor Alan Turing skrev den første forskningsartikel om kunstig intelligens, var vores fælles intuition om, hvad der er intelligent og ikke intelligent stadig af den type, at man troede, at skakspil var en god målestok for intelligens. Helt enkelt fordi mennesker, der spiller skak, ofte er lynende intelligente. Derimod troede vi, at evnen til at kende forskel på ansigter, som de fleste etårige børn er i stand til, var triviel,” forklarer Thore Husfeldt.
”Det viste sig, at de ting, vi troede var nemme, er svære, og omvendt. Det var meget nemmere at udvikle en skakcomputer end at lave en maskine, der kan genkende ansigter på niveau med et etårigt barn.”
I dag har computeren for længst fejet selv de bedste menneskelige skakspillere af banen, og mange former for specifik kunstig intelligens er allerede i spil i vores hverdag – telefonen kan kategorisere billeder, selvkørende biler kan navigere i tæt trafik, og algoritmer kan træffe beslutninger om at købe og sælge aktier.
Papirclips-apokalypsen
Vi har dog stadig ikke opfundet en generel kunstig intelligens, der potentielt en dag vil finde på at sætte gang i en masseudryddelse af mennesket. Ifølge Thore Husfeldt er det heller ikke nødvendigt at maskinerne bliver decideret ondsindede. Han mener, at selv en generel kunstig intelligens med neutrale arbejdsopgaver in extremis kan føre til udslettelse af menneskeheden.
Et berømt eksempel, der illustrerer hans pointe, handler om noget så banalt som papirclips. Det starter med, at et menneske beder en computer om at fremstille én million papirclips så billigt, som overhovedet muligt.
Den største trussel mod computerens overlevelse er mennesket. Så hvis ikke vi fortæller den, at den ikke skal slå alle mennesker ihjel, vil den starte med at gøre det [...]
”Der findes mange underholdende eksempler på, hvordan computeren kan misforstå denne opgave og i sidste ende med at udrydde mennesket. Fra computerens perspektiv er det i første omgang en god idé at sørge for, at ingen mennesker kommer i vejen. Den har fået en opgave, som den ikke kan løse, hvis ikke den eksisterer. Den største trussel mod computerens overlevelse er mennesket. Så hvis ikke vi fortæller den, at den ikke skal slå alle mennesker ihjel, vil den starte med at gøre det, inden den overhovedet laver den første papirclips,” fortæller Thore Husfeldt.
De ser så uskyldige ud... Men kan papirclips være begyndelsen til enden for mennesket?
”Her taler vi ikke engang om en særlig klog eller ondartet kunstig intelligens. Men selvfølgelig findes der også katastrofescenarier, hvor den kunstige intelligens er lige så ondartet mod homo sapiens, som vi er mod andre arter,” siger han og tilføjer, at selvom eksemplet med papirclips er fiktivt og absurd, er potentialet for, at noget lignende kan ske, dog til stede – for første gang i historien.
Bør vi fortsætte med at forske?
Og dette potentiale – hvor end hypotetisk – er årsagen til, at mange filosoffer i øjeblikket stiller spørgsmålet: Bør vi fortsætte bestræbelserne på at opnå generel kunstig intelligens?
Det er et dilemma, som også de, der uddeler forskningsmidler må forholde sig til.
”Forskningsansøgninger om kunstig intelligens har det i dag typisk som langsigtet mål at skabe generel kunstig intelligens. Hvis der i en ansøgning om midler til et projekt om kunstig intelligens står, ’hvis det her virker, er det muligvis et første skridt i retningen mod generel kunstig intelligens’ – bør man så smide ansøgning i skraldespanden eller give den penge?,” spørger han.
Han forestiller sig, at det øgede fokus på de negative konsekvenser af kunstig intelligens kan føre til, at forskere i kunstig intelligens skal redegøre for sikkerhedsovervejelser i deres projektbeskrivelser, ligesom eksempelvis forskere i smitsomme sygdomme gør det i dag.
Frygt for totalovervågning
For Thore Husfeldt handler den primære bekymring om kunstig intelligens dog ikke om udviklingen af en generel kunstig intelligens. Han frygter ikke, at teknologien udvikler værdier, som adskiller sig fra menneskets. Derimod ser han en fare for, at kunstig intelligens kan anvendes som et våben af mennesker, hvis værdier, han ikke deler.
Han mener, at kunstig intelligens og andre digitale teknologier i dag muliggør en totalovervågning, som DDR-styret kun kunne drømme om. Samtidig kan det være svært at argumentere imod overvågningen, for den kan også have mange positive effekter.
Han giver et hypotetisk eksempel:
En mand går ind på en bar og bestiller tre store fadøl på en time, hvorefter han sætter sig ind i sin bil for at køre hjem. Ved hjælp af de digitale spor, han efterlader via sit kreditkort, bilens låsesystem og mobiltelefonen, kan man i princippet forhindre ham i at køre spirituskørsel, inden det sker. Og det er svært at argumentere for, at hans privatliv er vigtigere end at forhindre, at en flok skolebørn bliver kørt ned.
Vi har ikke brug for Terminator
Faktisk er en sådan massiv overvågning mulig allerede med den teknologi, vi har i dag. I Kina bruger man i stor stil kameraer og ansigtsgenkendelse til at sørge for, at befolkningen opfører sig ordentligt.
Allerede i dag muliggør teknologien massiv overvågning af os alle.
Hvis vi bor i et samfund, hvor alle vores handlinger bliver overvåget konstant, er vi på en eller anden måde selv blevet til robotter
Ifølge Thore Husfeldt har vi altså slet ikke brug for et katastrofescenarie, hvor computerne bliver klogere end os. Teknologien er allerede tilstrækkeligt avanceret til at gennemføre alle totalitære scenarier. Han frygter derfor ikke en robotapokalypse, men nærmere at teknologien skaber grobund for et totalovervåget samfund.
”Hvis vi bor i et samfund, hvor alle vores handlinger bliver overvåget konstant, er vi på en eller anden måde selv blevet til robotter,” siger han.
Thore Husfeldt, professor, telefon +45 7218 5075, email thore@itu.dk
Vibeke Arildsen, presserådgiver, telefon 2555 0447, email viar@itu.dk