Blev roboten som räddade Spooners liv i jag, Robot bryta roboträttens andra lag?

75

Det finns en särskild scen i Jag, Robot som ger upphov till ett intressant problem. Detektiv Spooner berättar historien om hur han förlorade armen. Han befann sig i en bilolycka och fann sig själv och en ung tjej under vattnet, omkring att drunkna. Will sparades av en robot som passerade. Anledningen till att roboten räddade Will och inte flickan var det, statistiskt sett var Spooners chanser att överleva högre än flickans. Det är vettigt, eftersom en robot skulle fatta beslut utifrån statistisk sannolikhet. Men det finns ett problem: I flashbacken hör vi tydligt Wills karaktärsskrik, "Spara tjejen!" till roboten. Det var en direkt order från en människa till en robot.

Först trodde jag att detta inte var ett brott mot den andra lagen, för om roboten hade lydt sin order, då skulle han ha dött. Den andra lagen om robotik kan inte åsidosätta den första lagen. Men problemet med detta är att om en Sophies valstypsituation räknas som att bryta robotens 1: a lagen, skulle en nödrobot aldrig kunna utföra triage (som roboten som sparade Spooner klart gjorde). Om man väljer att rädda en mänsklig räkning som skadar en annan människa, skulle en robot inte kunna fungera effektivt i en nödsituation som detta.

Allt detta leder till min fråga:
Gjorde den här roboten den 2: a lagen i roboten, eller finns det någon nyanserad tolkning av de lagar som kan förklara sitt beteende?

    
uppsättning Magikarp Master 12.07.2017 14:05

10 svar

45

Filmen verkar fungera på anakronistisk Asimov-mekanik

Vad vi skulle ha här är troligen en första lag mot första-lagskonflikten. Eftersom roboten inte kan rädda båda människorna, skulle man behöva dö.

Jag, Robot era:

Det finns definitivt prejudikat för en I, Robot era robot som medvetet tillåter människor att komma till skada, i kortfattad historia " Little Lost Robot ", men det var under den omständigheten att människan skulle komma att skada oavsett robotens handling, så robotarna anser att det inte är genom deras inaktivitet att människorna kommer att skada.

Jag skulle dock misstänka att en Asimov-robot skulle tolka situationen i filmen som en första lag mot förstainstansrättskonflikt, eftersom antingen människan skulle kunna räddas beroende på robotens beslut. Med andra ord kan roboten ha räddat barnet, men det gjorde inte, vilket skulle vara en första lagöverträdelse. Om man ser på båda offerena på samma sätt, skulle roboten då finna detta för att vara en första lag mot första-lagskonflikt.

Kort historia "Liar" utforskar vad som händer när en robot står inför en första- lag mot första våldscenariot:

Through a fault in manufacturing, a robot, RB-34 (also known as Herbie), is created that possesses telepathic abilities. While the roboticists at U.S. Robots and Mechanical Men investigate how this occurred, the robot tells them what other people are thinking. But the First Law still applies to this robot, and so it deliberately lies when necessary to avoid hurting their feelings and to make people happy, especially in terms of romance.

However, by lying, it is hurting them anyway. When it is confronted with this fact by Susan Calvin (to whom it falsely claimed her coworker was infatuated with her - a particularly painful lie), the robot experiences an insoluble logical conflict and becomes catatonic.

Kort sagt, en I, Robot erarobot i Asimovs skrivande skulle inte ha kunnat fortsätta fungera efter detta scenario och skulle behöva kasseras helt. Det är troligt att det inte ens skulle kunna fungera efter att man ursprungligen mött scenariot och därigenom förstöra sig innan man kan rädda endera människan.

Den andra lagen är irrelevant, eftersom förstainstansrätten mot förstainstansrätten resulterar i ett oöverstigligt dödläge. Första lagen är "trumfkort" så att säga, och inte prioriterat, för att inte den andra eller tredje tävlingen, som vi ser på Infällning :

In 2015, Powell, Donovan and Robot SPD-13 (also known as "Speedy") are sent to Mercury to restart operations at a mining station which was abandoned ten years before.

They discover that the photo-cell banks that provide life support to the base are short on selenium and will soon fail. The nearest selenium pool is seventeen miles away, and since Speedy can withstand Mercury’s high temperatures, Donovan sends him to get it. Powell and Donovan become worried when they realize that Speedy has not returned after five hours. They use a more primitive robot to find Speedy and try to analyze what happened to it.

When they eventually find Speedy, they discover he is running in a huge circle around a selenium pool. Further, they notice that "Speedy’s gait [includes] a peculiar rolling stagger, a noticeable side-to-side lurch". When Speedy is asked to return with the selenium, he begins talking oddly ("Hot dog, let’s play games. You catch me and I catch you; no love can cut our knife in two" and quoting Gilbert and Sullivan). Speedy continues to show symptoms that, if he were human, would be interpreted as drunkenness.

Powell eventually realizes that the selenium source contains unforeseen danger to the robot. Under normal circumstances, Speedy would observe the Second Law ("a robot must obey orders"), but, because Speedy was so expensive to manufacture and "not a thing to be lightly destroyed", the Third Law ("a robot must protect its own existence") had been strengthened "so that his allergy to danger is unusually high". As the order to retrieve the selenium was casually worded with no particular emphasis, Speedy cannot decide whether to obey it (Second Law) or protect himself from danger (the strengthened Third Law). He then oscillates between positions: farther from the selenium, in which the order "outweighs" the need for self-preservation, and nearer the selenium, in which the compulsion of the third law is bigger and pushes him back. The conflicting Laws cause what is basically a feedback loop which confuses him to the point that he starts acting inebriated.

Attempts to order Speedy to return (Second Law) fail, as the conflicted positronic brain cannot accept new orders. Attempts to force Speedy to the base with oxalic acid, that can destroy it (third law) fails, it merely causes Speedy to change routes until he finds a new avoid-danger/follow-order equilibrium.

Of course, the only thing that trumps both the Second and Third Laws is the First Law of Robotics ("a robot may not...allow a human being to come to harm"). Therefore, Powell decides to risk his life by going out in the heat, hoping that the First Law will force Speedy to overcome his cognitive dissonance and save his life. The plan eventually works, and the team is able to repair the photo-cell banks.

Robot romaner eran:

Ett par tusen år efter I, Robot -alan, har första lagen mot förstainstans dilemma väsentligen lösts.

I en Dawn Robots upplever en humaniformrobot ett dödläge och förstörs, och Elijah Bailey har till uppgift att upptäcka Varför. Han föreslår att Dr. Fastolfe, en av de största robotisterna i åldern såväl som robotens ägare och skapare, att en första lag mot första lag dilemma kan vara ansvarig, med hänvisning till Susan Calvins historia och den psykiska roboten. Dr Fastolfe förklarar dock att detta i grunden är omöjligt i modern tid eftersom även första lagens invokationer prioriteras och lika prioriteringar väljs mellan slumpmässigt; att han själv är förmodligen den enda personen som lever som kan orkestrera den, och det skulle bli en bra dag.

Vi ser direkta förekomster av robotar som hanterar prioritet vid första lagkonflikter genom romanen, till exempel i Den nakna solen , när en annan humaniformrobot tvingar Bailey att sitta så att den kan stänga toppen på en transportör för att skydda honom från sin agorafobi.

Nackdelen är att det är möjligt, men kräver extrema omständigheter, för flera andra eller tredje lagens överklaganden uppväger en överklagande till den första lagen, som vi återigen ser i Robots of Dawn att Bailey märker en grupp robotar är villiga att se bort från sina skador när han insisterar på att de inte är svåra och uppmanar dem att gå om sina affärer. Han vet att det här kommandot inte kan överväga överklagandet till den första lagen, och därför motiverar han att robotarna också har fått mycket strikta instruktioner. De två kommandon och hans egna nedslag av svårighetsgraden av hans situation, han anför, höjer prioriteringen i den andra lagen för att överträffa den första lagen.

Den aktuella roboten i filmen sägs ha beslutat att en människa hade större chans att överleva än den andra och använde den informationen för att bestämma vilken människa som skulle rädda. Detta skulle inte vara en faktor i I, Robot -tiden, men är ett faktum av grundläggande robotik i roboten romanernas tid. Det verkar dock som Spooners kommando att rädda flickan istället inte har tillräcklig prioritet för att uppväga skillnaden i prioriteringar mellan sin egen första lagens överklagande och barnets.

    
svaret ges 12.07.2017 21:16
75

Den andra lagen anger

A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.

Så säger du genom att vägra att rädda flickan som beställts av Detective Spooner, har roboten brutit den lagen? Det enda sättet att det inte kan ha brutit mot den andra lagen är om överensstämmelsen kommer till spel och det skulle strida mot den första lagen.

Den första lagen säger

A robot may not injure a human being or, through inaction, allow a human being to come to harm.

Självklart har roboten inte skadat någon direkt så det är inte av bilden. Roboten har inte tillåtit tjejen att skada genom passivitet som roboten verkar genom att hjälpa Spooner (det vill säga att den inte bara står där och tittar). Men om du, som du sa, var statistiskt mer sannolikt att Spooner skulle överleva med lite hjälp, så lydde du Spooner och hjälpte flickan att tolkas så att Spooner kommer att skadas av passivitet.

Så den andra lagen är inte trasig eftersom den är över-styrd av den första lagen. Den första lagen är inte trasig eftersom roboten gjorde sitt bästa för att rädda en människa.

    
svaret ges 12.07.2017 14:15
15

Jag kommer att titta på denna fråga från en logisk verklig synvinkel.

Roboten bryter inte mot den andra lagen; men tekniskt sett gör det andra. Med detta sagt skulle reglerna bara vara en sammanfattande förklaring till mycket mer invecklad logik och datorkod.

Att citera Issac Asimovs lagar om robotik, betona min:

Rule 1:
A robot may not injure a human being or, through inaction, allow a human being to come to harm.
Rule 2:
A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
Rule 3:
A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.Irrelevant, but provided for completions sake.

I den givna situationen måste roboten agera för att spara antingen Will eller barnet. Roboten, som kan beräkna odds till en nästan perfekt prediktionsfrekvens, kan konstatera att den inte kan fungera tillräckligt med tid för att spara både Will och barnet ; och oddsen säger att kommer har en bättre chans att överleva. I så fall är det bara logiskt att välja Will. Detta är en nyckelplottpunkt; robotar slutar ren logik - ett faktum som gör dem olika kraftigt från människor.

När roboten inte också räddar barnet, orsakar det skada genom inaktivitet . Men igen vet roboten att det är omöjligt att spara både Will och barnet. Det väljer det bästa alternativet, för att bäst följa sina regler. Här kommer en större förståelse för datorer och reglerna själva.

Vad skulle egentligen hända, med tanke på den uttryckliga regeln

Reglerna är inte ett absolut faktum. De är inte där för att säga "robotar kommer aldrig att skada en människa, och kommer alltid att spara dagen när den är närvarande". Vi vet detta av hur filmen spelar ut. Reglerna är helt enkelt de regler som används för att styra åtgärderna för robotarna, i versen. Som programmerare är det något som är tydligt uppenbart för mig; men jag är övertygad om att det inte är så för andra som inte känner till hur strikt vidhäftande något datorsystem är.

Poängen är att regeln inte anger någonting om det "räknar inte" eftersom roboten "redan sparar någon". Som enbart med tanke på denna uttryckliga regel (som någon dator eller robot skulle tolka, åtminstone) finns det ingen ersättning för en situation där roboten bara kan rädda en av två personer i fara. I själva datavetenskapen, med tanke på explicit -regeln, skulle en sådan händelse sannolikt leda till en oändlig loop. Roboten skulle sluta var den var och fortsätter att bearbeta fångsten 22 för alltid; eller åtminstone tills dess logik sparkade ut det från tankeprocessen. Vid denna tidpunkt skulle roboten dumpa sitt minne om den aktuella händelsen och fortsätta. I teorin.

Vad skulle förmodligen hända, i vers

I vers är reglerna mycket mer komplicerade. åtminstone internt till roboten. Det skulle sannolikt finnas en hel del speciella fall vid bearbetning av kärnreglerna för att bestämma hur man ska agera i sådana situationer. Som ett resultat kan roboten fortfarande handla och tar det mest logiska resultatet. Det sparar bara Will, men det gör spara någon .

Det är mycket förståeligt att reglerna skulle förenklas till tre generiska fall i allvarliga fall. det skulle vara betydligt mindre trovärdigt att människor skulle vara så lätta att lita på robotar om regeln läste "En robot får inte skada en människa eller genom passivitet tillåta en människa att komma till skada, om inte det finns större chans att förhindra att en annan människa kommer att skada ". Det finns bara sätt på många sätt att tolka detta.

Så långt som de uttryckliga reglerna går, bryter roboten inte den andra regeln. Att motverka Wills handling gör inte inte mot att "hindra en människa från att komma till skada genom inaktivitet", för att genom att inte följa Will, så sparar Will. Men bryter regeln om "genom passivitet, gör det möjligt för en människa att skada".

När det gäller hur roboten faktiskt skulle bearbeta dessa regler skulle det inte bryta mot reglerna alls. Det skulle vara en mycket mer komplex serie av "if .." och "else .." logik där robotens logik skulle tillåta att gå emot dessa basregler i situationer där logik dikterar att oavsett vilket alternativ som helst , kommer en människa fortfarande att skada.

Det här är vidare etablerat, mot slutet av filmen;

The robots are able to effectively establish martial law, and in doing so, harm several humans; they have developed enough to establish that by harming a few humans in effectively imprisoning the rest of the population, they prevent far more harm through all of the various actions we like to get up to that both risk, and in some cases take, our lives.

    
svaret ges 12.07.2017 14:49
9

Så, den första lagen som en svartvitt regel verkar inte riktigt utan någon finagling, för (som nämnts av andra svar) av triage.

Min tolkning av hur filmen implementerar lagarna är att för kontexten att "rädda liv", gör robotarna en EV (Expected Value) beräkning; det vill säga för varje val de beräknar sannolikheten för framgång och multiplicerar det med antalet liv de sparar.

I Will Smith vs Barnfallet kommer att spara Will Smith vara en 75% chans att lyckas, medan barnet bara är en 50% chans att lyckas, vilket innebär att EV-smittet kommer att spara Will Smith är 0,75 liv och barnets EV är 0,5. Om du vill maximera de räddade liven (enligt definitionen i vår sannolikhetsbaserade första lag) kommer roboten alltid att välja Will, oavsett vilka givna direktiv som helst. Genom att lyda Wills order skulle roboten "döda" 0,25 människor.

Det kan förlängas till sannolikheter som tillämpas på flera människor i fara (t.ex. att spara 5 människor med 20% chans är bättre än att spara 1 människa med 90% chans) och i sig kan leda till några intressanta slutsatser, men jag tror att det är en rimlig förklaring till händelserna i filmen.

    
svaret ges 12.07.2017 15:32
4

Kärnan i nästan var och en av Asimovs robothistorier handlar om samspelet mellan robotarnas lagar och varandra och genom berättelserna kan du få mycket av hur Asimov ansåg att hans robotar skulle fungera.

I berättelserna är lagarna i robotiken inte enkla hårddrabbade saker. Det finns inte ett enkelt "If then else" uttalande pågår. I robotarna finns det en vikt som tillämpas på varje händelse. Ett exempel är att en robot kommer att överväga att ägarens order är viktigare än någon annans. Så om jag skickar min robot till affärerna för att köpa några saker och någon beställer det att göra sina ärenden medan det är ute kan roboten betrakta min order som viktigare än andra.

På samma sätt ser vi roboten välja mellan två möjliga första lagöverträdelser. Vem sparar det? Det gör en beräkning och beslutar att Will Smith är det bästa att spara.

När vi tänker på det när det gäller dessa viktningar kan vi då faktorera hur man ger roboten en order kan förändra saker.

Om robotens bedömning var mycket nära att spara (t.ex. sådan att det kom ner till att bara välja närmaste snarare än baserat på överlevnadschanser) skulle eventuellt den ökade vikten av ordern kunna driva den för att ändra vilken handlingsplan har mest vikt. Den första lagen är dock den viktigaste och så är en orders vikt oftast obetydlig jämfört med de faktorer som användes vid bedömningen av situationen före ordern.

Så vad som händer är att roboten är det bästa sättet att nå sina mål. Det kommer att försöka rädda dem båda. Om det inte kan det kommer bara göra det bästa det kan och det här är vad vi ser. Det faktum att Will Smith berättade för att göra något annorlunda hade ingen effekt eftersom den första lagen fortfarande tvingade den att göra vad den ansåg vara bäst.

Så har vi sagt allt det som är den faktiska frågan: "Har roboten brytt sig om robotlovens andra lag, eller finns det någon nyanserad tolkning av de lagar som kan förklara sitt beteende?"

Lagarna är nyanserade. Roboternas liv ses helt igenom linsen i de tre lagarna. Varje enskild sak är viktad mot de tre lagarna. Som ett exempel anser vi att det i en trångt gata alltid finns en chans att en person går in i en robot och skadar sig själva. För det mesta kommer detta sannolikt att resultera i ingenting som skulle komma nära en skada för personen men det kan skada lite, personen kan vara irriterad och sålunda kommer det att bli en potentiell kränkning av den första lagen - roboten kunde bäst undvika detta genom att inte gå in i den trånga gatan men jag har beställt det att gå och handla. Robots handlingsplan kommer sannolikt att vara att göra den shopping jag har beställt den till och därmed vara i den upptagna gatan. Det kommer sannolikt att vara säker på att det är lika medveten om att alla kan komma runt om det så att det inte oavsiktligt orsakar någon skada. Det är att det måste ta positiva åtgärder för att undvika stötar eller det skulle falla fel på "genom passivitet ...".

Så ja, allt är verkligen komplicerat och det här är skönheten i filmen och alla asmiovs berättelser. Filmen centrerar kring en robot (VIKI) och dess tolkning av de tre lagarna. Det gör vad vissa skulle betrakta skador eftersom det faktiskt anser att det är mindre skada.

    
svaret ges 12.07.2017 18:34
2

Jag tror att jag har läst alla Asimovs robotberättelser och romaner och min uppfattning var att de tre lagarna bara är verbala sammanfattningar (som de tre lagarna i termodynamiken) som generaliserar ett stort antal observerade beteenden. I det avseendet bestäms robotarnas faktiska beteende av otroligt invecklad och komplicerad kod och utnyttjar också mer avancerad subatomisk och solid state fysik som vi för närvarande inte förstår. De tre lagarna är bara mycket uppenbara sätt att sammanfatta hur de verkar verka i allmänhet i mycket enkla situationer på samma sätt som att analysera Solens och Jordens övergripande beteende är ganska enkelt med hjälp av Newtons lag, men analyserar gravitationseffekterna och störningarna på asteroiderna på asteroidbältet på grund av Jupiter är mycket svårare eller omöjliga.

Det är situationer där lagarna verkar brutna men det här är bara resultatet av koden som driver roboten för att analysera en extremt komplicerad situation snabbt och sedan komma fram till ett beslut om vad den ska göra och de tre lagarna anses endast vara oföränderliga i huvudsak som en dramatisk eller litterär enhet.

    
svaret ges 14.07.2017 16:54
1

Jag tror att roboten inte bryter mot den andra lagen. Så här föreställer jag mig Robotens arbete: Roboten kontrollerar kontinuerligt de 3 lagarna.

Lag 1: Roboten måste spara antingen smeden eller barnet. Eftersom barnet har en lägre chans att överleva väljer han Will.

Lag 2: Roboten måste lyda människor: Kommer berätta för honom att rädda tjejen. Ordern ignoreras eftersom lag 1 har högre prioritet.

Lag 3: Han skadar sig inte så vem bryr sig

Det verkar som att den första lagen låter honom ignorera lag 2 och 3 och den andra låter honom ignorera lag 3. Ignoreringen är inte densamma som att bryta regeln i det här fallet eftersom Lag 2 specifikt säger att det kan ignoreras . Således är den inte trasig.

    
svaret ges 14.07.2017 08:42
-1

Eftersom roboten inte kan rädda både flickan och Spooner, "triage" tolkningen av första lagen - "minimera nätskada" - sparkar in. Om roboten hade följt Spooner's "Spara tjejen! ', skulle roboten inte minimera nätskador längre - och det är ett brott mot första lagen. Så första lagen strider mot andra lagen här.

[sidoanteckning: vi ser inte mycket av den här händelsen, men jag skulle satsa på att roboten skulle ha blivit hårdskadad genom att behöva välja, men den skulle inte visas förrän den sparade Spooner (annars Det skulle bryta mot första lagen)]

    
svaret ges 12.07.2017 19:26
-1

Oavsett hur sannolikheten för överlevnad av båda beräknades ...

Roboten skulle inte sluta att överväga saker om den andra lagen, tills blocket av handlingar i förhållande till den första lagen slutsatsen, som hade varit att rädda livet för att överleva odds.

Det skulle vara en mer intressant vridning om Will skrek: Jag har terminal cancer!

Och på det sättet skulle det ändra informationen och oddsen för båda.

    
svaret ges 13.07.2017 16:26
-3

Är den andra lagen bruten?

Kanske är det bara där beräkningslogiken och det engelska språket inte blandar sig?

Nedanför logiken kan vara lite buggy och / eller ineffektiv men är en tolkning av hur den första "lagen" kan fungera när man förklarar beteendet hos roboten i fråga.

När funktionen Law1 kallas analyserar roboten villkoren för alla människor i en viss lista (alla människor som det är medveten om). Det bedömer allvarligheten av faran som de befinner sig i och jämför dem. då, om det finns flera människor i liknande (högst funna) svårighetsgrader av fara, jämför den var och en av dessa människor och bestämmer vilken som sannolikt kommer att bli framgångsrikt hjälpt; Och så länge som minst en människa behöver skyddas mot skada, utförs lag 2 inte.

391.133

Så raser roboten den andra lagen? Vissa människor kan säga "roboten fungerade i strid med den enkla engelska definitionen av lagen och var därför bruten." medan andra andra skulle kunna säga att "lagarna är bara funktioner." Law1 "utfördes". Law2 var inte. "Roboten följde programmeringen och den andra lagen var helt enkelt inte tillämplig eftersom den första hade företräde."

    
svaret ges 13.07.2017 14:59