Forskere: Robotter er menneskets ansvar

Isaac Asimovs 67 år gamle robotlove skal til grundig reparation for at kunne passe til virkeligheden, mener amerikanske robotforskere.

Læs artiklen med kommentarer på ing.dk
Læs hele artiklen som pdf

Da robotten SPD-13, også kaldt Speedy, i 2015 bliver sendt ud på Merkurs overflade for at hente noget selenium, opstår der en konflikt i hans kunstige intelligens: at hente grundstoffet er vigtigt for at reparere rumstationen, men missionen kan også koste ham livet. På den ene side skal Speedy adlyde ordre, og gøre hvad der bliver sagt (robottens anden lov), men på den anden side skal han også beskytte sit eget liv (robottens tredje lov). Konflikten får Speedy til, bogstavelig talt, at gå i ring. Han går rundt og rundt om den farefulde selenium-kilde, indtil astronauterne henter ham hjem med uforrettet sag.

Historien er fra novellen Runaround fra 1942. Det var her 'De tre ansvarlige robotlove' for første gang blev formuleret af forfatteren og biokemiprofessoren Isaac Asimov. Robotlovene er siden blevet så kendte, blandt andet via science-fiction filmen I, Robot fra 2004, og har fået så stor kultstatus, at de nærmest har defineret forventningerne til fremtidens robotsamfund - ikke kun for almindelige mennesker, men også for flere generationer af robotingeniører.

Virkeligheden er dog en anden. Nutidens robotter er langt fra at besidde en autonom bevidsthed, endsige moral, og Asimovs tre love er ikke særlig nyttige til sikring af de kunstige intelligenser, der eksisterer i dag.

Robotprofessor Robin Murphy fra Texas A&M University har derfor sat sig sammen med David Woods fra Ohio State University og formuleret tre alternative love, der passer til, hvad man i virkeligheden kan forvente. De nye love, som nu er offentliggjort i en artikel i fagbladet IEEE Intelligent Systems, skal sikre, at robotter kan beskytte sig selv, og problemfrit overføre kontrollen til mennesker, når det er nødvendigt. Men vigtigst af alt, skal de give ansvaret tilbage til menneskene.

»Ligegyldigt hvor meget autonome robotter vil udvikle sig i fremtiden, vil mennesker skulle hæfte for deres design og stå til ansvar for deres handlinger,« siger artiklens medforfatter David Woods til Ingeniøren. »Hvor Asimovs love er baseret på en funktionel moral,« der fokuserer på interaktionen mellem en robot og et menneske, »er vores love baseret på en operationel moral, dvs. på de menneskelige antagelser og beslutninger, der bestemmer robotters design og handlinger.«

Tre nye robotlove
Asimovs tre oprindelige robotlove er som følger:
  1. En robot må ikke gøre et menneske fortræd, eller, ved ikke at gøre noget, lade et menneske komme til skade.
  2. En robot skal adlyde ordrer givet af mennesker, så længe disse ikke er i konflikt med første lov.
  3. En robot skal beskytte sin egen eksistens, så længe dette ikke er i konflikt med første eller anden lov.
Det er tydeligt, at den først lov lægger al moralsk ansvar på robotten. Det er den, der skal sikre, at mennesker ikke kommer til skade. I novellen Runaround kommer denne første lov i spil, da hovedpersonen Powell beslutter at risikere livet, og selv hente det livsnødvendige selenium. Beslutningen kortslutter robotten Speedys kognitive selvsving, fordi den ikke kan tillade at skade mennesker med sin handlingslammelse. Den første lov trumfer de andre.

Ud over de praktiske problemer med at virkelige robotter slet ikke fejlfrit kan genkende mennesker som værende mennesker, eller for den sags skyld forstå deres hensigt, er det ifølge artiklens forfattere helt hen i vejret, at give dem ansvar for deres handlinger. Ud fra et retsligt perspektiv er en robot jo et produkt, en gadget, og derfor ligger al ansvaret hos produktets ejer.

Man kan for eksempel ikke sige, at en robot, der er programmeret til at skyde, selv har ansvaret. Da Sydkoreas forsvarsministerium i 2005 foreslog at indsætte skarptskydende robotter som grænsevagter langs grænsen til Nordkorea, og Israel senere foreslog det samme langs Gaza, blev mange oprørte og mente, at man havde forbrudt sig mod Asimovs Første Lov.

Og da amerikanerne i 2007 prøvede at indsætte SWORDS-robotten i Irak, et fuldt armeret bæltekøretøj, som skulle overtage soldaternes arbejde med at skyde folk, blev de selv lidt forskrækkede af dens 'handlinger': »Den begyndte at bevæge sig, hvor det ikke var meningen, at den skulle bevæge sig,« indrømmede officer Kevin Fahey ifølge websiden technovelgy.com. Kort efter blev SWORDS skrinlagt.

I stedet skal de nye robotlove ifølge Murphy og Woods være følgende:
  1. Et menneske må ikke anvende en robot uden at hele menneske-robot-systemet tilfredsstiller de højeste professionelle, retslige, sikkerhedsmæssige og etiske standarder.
  2. En robot skal reagere på mennesker, på en måde der svarer til dens tiltænkte rolle.
  3. En robot skal være udstyret med tilpas megen autonomi, så den kan beskytte sin egen eksistens, så længe beskyttelsen tillader en gnidningsfri overførsel af kontrol, og ikke er i konflikt med den Første og Anden Lov.
Den Første Lov siger det åbenlyse, at mennesker benytter robotter, og at dette skal foregå på en ansvarlig måde. Den Anden Lov indeholder en antagelse om, at man ikke kan forvente, at robotter forstår, hvad der er rigtigt og forkert i en given kontekst, og at de derfor fra start skal designes til at gøre det rigtige. Den Tredje Lov tillader, at robotter har en "drift" til selvopretholdelse, så længe den, der har den reelle kontrol, nemlig mennesker, ikke ønsker noget andet.

Et opgør med fantasterne
De futuristiske forestillinger om en ubestemt fremtid, hvor robotter vil være autonome agenter med krav på selvbestemmelse er ifølge David Woods blot fantasteri, som dækker over en barnagtig ansvarsforflygtigelse.

»Mennesker holder mennesker ansvarlige for konsekvenserne af de apparater og maskiner, som de bruger,« forklarer Woods til Ingeniøren. »Computere kan være nok så autonome. De kan aldrig være partshavere eller ansvarshavere. De er 'stand ins' for fjerne personer, deres modeller og deres holdninger, og de er altid utilstrækkelige i situationer, hvor virkeligheden viser sin kompleksitet.«

»Når ting går galt vil de berørte personer se robotterne som deterministiske maskiner, og i stedet kigge efter personer, som kunne have forhindret ulykken.« siger Woods. Det er et paradoks: »Inden en fejl opstår, vil robottens adfærd kunne betragtes som tilpas kompleks til at være 'levende'. Men efter at fejlen er opstået, bliver den blot betragtet som en dims, der følger nogle regler.«

I sidste ende er spørgsmålet ikke om robotter kan have autonomi, men om, hvorfor mennesker har sådan en dyb fascination ved at projicere deres moralske ansvar over på maskinerne. Dette har ifølge Woods mere at gøre med menneskers drømme og følelser: »Der findes en mørk side ved vores fascination af selvbevidste robotter - nemlig et ønske om at bortlede ansvaret for vores handlinger i stedet for at anerkende, at vi selv må tage alle beslutninger og sætte dem i værk på trods af, at verden er et irreducibelt og usikkert sted.«

0 comments:

There was an error in this gadget