Asimovs robot och vagnsproblemet

53

Det klassiska tankeförsöket Trolleyproblemet går något så här:

En lös tågvagn rullar nedförsbacke mot fem personer bundna och hjälplösa på spåret framåt. Du kan inte nå och frigöra någon av dem i tid, men i närheten finns en handspakspårväxel. Om du drar spaken kommer vagnen att dirigeras på ett annat spår, vilket sparar de fem personerna, men en sjätte person är knuten på det andra spåret. Är det mer etiskt att dra hävarmen, offra den ena personen för att rädda fem, eller att göra ingenting, så att de fem människorna blir dödade?

Föreställ dig nu en typisk positronrobot från en av Isaac Asimovs verk, med Tre lagar en viktig del av hjärnan , befinner sig i samma situation. Skulle roboten:

  • dra hävarmen, eftersom mandatet att inte skada fem personer genom passivitet är större än mandatet att inte skada den?
  • gör ingenting, eftersom dragning av spaken skulle vara ett tydligare brott mot den första lagen än passivitet?
  • blir snabbt oförmögen, att inte kunna undvika en överträdelse av den första lagen på något sätt?
  • lyckas dra i spaken och smälta sedan ner?
  • något annat?

I några av Asimovs arbeten som satts senare i den galaktiska tidslinjen har vissa robotar troddat att de tre lagarna innebär en Zeroth-lag, att inte skada mänskligheten eller genom att göra handlingar tillåta mänskligheten att komma till skada. Gör det någon skillnad om roboten i fråga känner till och / eller tror på denna Zeroth-lagen?

Det som någonting rimligen hänförts till Asimov, inklusive publicerade verk, intervjuer, privat korrespondens etc. skulle kunna ge bra källor till denna fråga. Jag är mindre intresserad av andra källor, som filmer, andra författare som använde de tre lagarna eller variationerna på dem, etc.

    
uppsättning aschepler 17.07.2017 02:26

7 svar

34

Kort historia "Liar!" har refererats som källa för påståendet att roboten inte skulle kunna agera eller bränna ut efter att ha gjort det. Men den här historien nämns, och på ett sätt, motbevisas i ett senare arbete - Robots of Dawn .

De relevanta citaten är som följer:

As the theory of positronic brains has grown more subtle and as the practice of positronic brain design has grown more intricate, increasingly successful systems have been devised to have all situations that might arise revolve into non-equality, so that some action can always be taken that will be interpreted as obeying the First Law.
Chapter 4 - "Fastolfe"

Robotarna har förbättrats avsevärt sedan Susan Calvins dagar - man bör komma ihåg att berättelserna om henne är berättelserna om pionjärerna i robotiken, när man bara föddes och perfekterades av mänskliga robotar.

I Robots of Dawn behandlar vi humaniform robotar, så sofistikerade att de till och med har alla externa mänskliga attribut (inklusive könsorganen, vilket är en viktig detalj i det ny). Vi presenteras också för begreppet "mental frysning", vilket är vad som hände med Herbie i "Liar!". Doktor Fastolfe, den ledande experten på robotar vid den tid roman ligger i, säger att sådana frysningar är nästan omöjliga med dagens robotar, eftersom dom inte bara bedömer kvantitativt (som roboten från filmen gjorde) , de kan, i själva verket mycket sällsynta fall av exakt lika resultat, involvera randomisering.

“Let’s suppose that the story about Susan Calvin and the mind-reading robot is not merely a totally fictitious legend. Let’s take it seriously. There would still be no parallel between that story and the Jander situation. In the case of Susan Calvin, we would be dealing with an incredibly primitive robot, one that today would not even achieve the status of a toy. It could deal only qualitatively with such matters: A creates misery; not-A creates misery; therefore mental freeze-out.”

Baley said, “And Jander?”

“Any modern robot—any robot of the last century—would weigh such matters quantitatively. Which of the two situations, A or not-A, would create the most misery? The robot would come to a rapid decision and opt for minimum misery. The chance that he would judge the two mutually exclusive alternatives to produce precisely equal quantities of misery is small and, even if that should turn out to be the case, the modern robot is supplied with a randomization factor. If A and not-A are precisely equal misery-producers according to his judgment, he chooses one or the other in a completely unpredictable way and then follows that unquestioningly. He does not go into mental freeze-out.”
Chapter 7 - "Fastolfe"; emphasis mine.

Observera att det inte är helt omöjligt att få en modern robot att gå in i mental frysning, eftersom det är vad hela tomten i romanen bygger på. Det är emellertid bevisat att det kräver högsta behärskning av den positroniska hjärnans och robots psykologi, något som bara två personer någonsin kan klara av.

Samma roman handlar också, utan att namnge den, med Zeroth-lagen.

Självklart, spoilers!

R. Giskard kills R. Jander, his robot friend, in order to save humanity (the inhabitants of the Earth) from a sinister spacer plot, and also to save Spacers from interbreeding and dying out in seclusion.

Zeroeth-lagen är dock mer ett undantag än en regel. Från vad jag har läst hittills har det bara inträffat två gånger. Anledningen - inte varje robot är medveten om problemen som mänskligheten står inför. Man kan noga spekulera att mänskligheten bara är en samling människor för dem, medan det i verkligheten är lite mer komplicerat än det. Min poäng är, det är inte en situation som skulle göra en robot att åberopa Zeroth Law - för att den inte var inbyggd i dem. Maskinerna i "The Evitable Conflict" uttrycktes uttryckligen som tillgång och kontroll över hela mänsklighetens resurser och kunskaper. De kunde formulera Zeroeth Law - det betyder inte varje robotburk. Tecknen på Robots of Dawn var också ganska exceptionella. Jag skulle inte involvera den lagen i vagnen problemet, men om du vill, det jag sa ovan håller.

    
svaret ges 17.07.2017 14:27
35

Beträffande en klassisk "Three Laws" -robot är svaret väldigt enkelt. Som vi ser på Liar! , en robot som antingen genom åtgärd eller passivitet skulle skada en mänsklig helt enkelt mentalt implodes .

Det faktiska numret av skadade människor är fullständigt irrelevant för diskussionen.

The psychologist paid no attention. “You must tell them, but if you do, you hurt, so you mustn’t; but if you don’t, you hurt, so you must; but--”
And Herbie screamed!
It was like the whistling of a piccolo many times magnified -- shrill and shriller till it keened with the terror of a lost soul and filled the room with the piercingness of itself.
And when it died into nothingness, Herbie collapsed into a huddled heap of motionless metal.

Som jämförelse skulle en Zeroeth Law-kompatibel robot inte ha något problem med dilemmaet alls. Avstår från någon annan information om det relativa värdet hos de människor som kör ned i vagnen, det skulle helt enkelt välja det större bra (t ex det mindre antalet människor som dödas) och gå med det.

    
svaret ges 17.07.2017 02:45
4

I slutet av jag har robotmaskiner utvecklat en Zeroeth-lag.

Think about the Machines for a while, Stephen. They are robots, and they follow the First Law. But the Machines work not for any single human being, but for all humanity, so that the First Law becomes: ‘No Machine may harm humanity; or, through inaction, allow humanity to come to harm.’

(...)

“But you are telling me, Susan, that the ‘Society for Humanity’ is right; and that Mankind has lost its own say in its future.”

“It never had any, really. It was always at the mercy of economic and sociological forces it did not understand -- at the whims of climate, and the fortunes of war. Now the Machines understand them; and no one can stop them, since the Machines will deal with them as they are dealing with the Society, -- having, as they do, the greatest of weapons at their disposal, the absolute control of our economy.”

“How horrible!”

“Perhaps how wonderful! Think, that for all time, all conflicts are finally evitable. Only the Machines, from now on, are inevitable!”

Asimov - I Robot "The Evitable Conflict"

I den andan bryter Maskinen "den andra lagen till fördel för mänskligheten, så medan jag inte kan hitta ett särskilt Asimov-exempel för vagnproblemet för en maskin med Zeroeth-lagen, verkar det som en sådan robot kunde" bryta " Den första lagen gynnar mänskligheten.

    
svaret ges 17.07.2017 03:05
3

Om du tar 3 lagar i strikt mening, är det inte något acceptabelt resultat - antingen resultatet kommer att bryta mot antingen "får inte skadas" eller "inaktivt tillåta att komma till skade" -klausulen.

Detta belyser faktiskt problemet med någon form av etiskt system som förklarar en handling eller resulterar att vara helt oacceptabelt - det kan inte ge en meningsfull vägledning i en situation där alla övervägda alternativ kan leda till detta oacceptabla resultat, varvid skillnaden är endast i omfattning, säkerhet och andra detaljer. Samma "uppdelning med noll" kan lätt observeras hos människor som i vardagen kan fortsätta med det absoluta "mänskliga livet trumma allting" och sedan befinner sig i en situation där alla deras handlingar är förknippade med olika grad av fara för andra lever. Förutom för människor är resultatet inte en avstängning utan snarare utlösande av olika försvarsmekanismer (vilket oftare betyder att den valda åtgärden inte var optimal för att minimera total skada).

Om Asimovs robotar följer de 3 lagarna är svaret så klart. Men några av de senare robotarna hade begränsad förmåga att kringgå begränsningarna i de tre lagarna och kunde teoretiskt välja rätt handlingsåtgärd här. Men det är något bredvid den ursprungliga frågan, eftersom det inte är relaterat till de tre lagarna i sig, utan snarare enskild robots förmåga att arbeta runt dem.

    
svaret ges 18.07.2017 13:09
1
  • En robot får inte skada en människa eller, genom passivitet, låta en människa komma till skada.
  • Inaktivitet, ingen åtgärd.

    Kan en robot genom handling, låta en människa komma till skada? Ja, när det gäller flera människor, av vilka vissa är annorlunda än andra (det är du som är medveten om honom), men då måste han göra det för att stoppa den skada för den ena människan, även om det leder till att man inte följer en människa eller döda sig själv. (Runaround)

    Så, 1. han drar hävarmen, reducerar antalet dödsfall, då 2. Han kastar sig in i tåget på det mest matematiskt trovärdiga sättet för att stoppa eller spåra tåget för att minska skadan för den mänskliga (eller andra)

        
    svaret ges 17.07.2017 07:44
    0

    Jag minns en annan historia, Lost Little Robot (tack @CMS) där ... (små spoilers)

    An experienced robot tries to escape, hiding within another team of unexperienced robots, so the humans try to find out which is the renegade robot.

    Plot är inte viktigt för diskussionen, men en del visar att det ges en hypotetisk situation där en människa kommer att dö (oavsett vad roboten gör), och roboten dör också om den försöker rädda människan , roboten stannar fortfarande och accepterar människans död, med argumentet att om roboten överlever, har den chansen att rädda fler människor i framtiden och hålla balansen hos de rädda människorna positiva.

        
    svaret ges 17.07.2017 17:42
    0

    Detta är ett tydligt exempel på hur "Asimovs tre lagar" är otillräckliga, utsatta för paradoxala kollisioner och bör ändras till "Asimovs fyra lagar". Den viktigaste lagen måste alltid vara "en robot får inte skada en människa". Detta beror på att generella robotar (dvs. icke-kirurgiska robotar, där verktyget kräver beräknad grad av "skada") aldrig borde tillåtas rationalisera skada en människa, eftersom de kommer att kunna gripa sig i logik så bortom oss människor som kan låta dem upptäcka och / eller beräkna att de hjälper oss genom att döda oss. Kanske [hypotetiskt] upptäcker de att den mänskliga döden ökar den övergripande energin från övergångar till alternativa dimensioner (eller något sanna blåsande skit) så att vi mäter vår hälsa och gör en bedömning att det är bättre för oss att dö snarare än att vara äldre, eftersom det skulle anses vara ett tillstånd av skada [återigen bara en hypotetisk, vem vet vad robotarna kunde komma med, poängen är att vi inte!]. För att säkerställa att detta förhindras, ändra regler till: (1) En robot får inte skada en människa. (2) En robot, genom handling eller passivitet, får inte låta en människa komma till skada, förutom när sådana order skulle strida mot första lagen. (3) En robot måste lyda de order som den ges av människor, utom när sådana order skulle strida mot första eller andra lagen. (4) En robot måste skydda sin egen existens så länge som sådant skydd inte strider mot första, andra eller tredje lagen.

        
    svaret ges 18.07.2017 12:30