Jag kommer att titta på denna fråga från en logisk verklig synvinkel.
Roboten bryter inte mot den andra lagen; men tekniskt sett gör det andra. Med detta sagt skulle reglerna bara vara en sammanfattande förklaring till mycket mer invecklad logik och datorkod.
Att citera Issac Asimovs lagar om robotik, betona min:
Rule 1:
A robot may not injure a human being or, through inaction, allow a human being to come to harm.
Rule 2:
A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
Rule 3:
A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.Irrelevant, but provided for completions sake.
I den givna situationen måste roboten agera för att spara antingen Will eller barnet. Roboten, som kan beräkna odds till en nästan perfekt prediktionsfrekvens, kan konstatera att den inte kan fungera tillräckligt med tid för att spara både Will och barnet ; och oddsen säger att kommer har en bättre chans att överleva. I så fall är det bara logiskt att välja Will. Detta är en nyckelplottpunkt; robotar slutar ren logik - ett faktum som gör dem olika kraftigt från människor.
När roboten inte också räddar barnet, orsakar det skada genom inaktivitet . Men igen vet roboten att det är omöjligt att spara både Will och barnet. Det väljer det bästa alternativet, för att bäst följa sina regler. Här kommer en större förståelse för datorer och reglerna själva.
Vad skulle egentligen hända, med tanke på den uttryckliga regeln
Reglerna är inte ett absolut faktum. De är inte där för att säga "robotar kommer aldrig att skada en människa, och kommer alltid att spara dagen när den är närvarande". Vi vet detta av hur filmen spelar ut. Reglerna är helt enkelt de regler som används för att styra åtgärderna för robotarna, i versen. Som programmerare är det något som är tydligt uppenbart för mig; men jag är övertygad om att det inte är så för andra som inte känner till hur strikt vidhäftande något datorsystem är.Poängen är att regeln inte anger någonting om det "räknar inte" eftersom roboten "redan sparar någon". Som enbart med tanke på denna uttryckliga regel (som någon dator eller robot skulle tolka, åtminstone) finns det ingen ersättning för en situation där roboten bara kan rädda en av två personer i fara. I själva datavetenskapen, med tanke på explicit -regeln, skulle en sådan händelse sannolikt leda till en oändlig loop. Roboten skulle sluta var den var och fortsätter att bearbeta fångsten 22 för alltid; eller åtminstone tills dess logik sparkade ut det från tankeprocessen. Vid denna tidpunkt skulle roboten dumpa sitt minne om den aktuella händelsen och fortsätta. I teorin.
Vad skulle förmodligen hända, i vers
I vers är reglerna mycket mer komplicerade. åtminstone internt till roboten. Det skulle sannolikt finnas en hel del speciella fall vid bearbetning av kärnreglerna för att bestämma hur man ska agera i sådana situationer. Som ett resultat kan roboten fortfarande handla och tar det mest logiska resultatet. Det sparar bara Will, men det gör spara någon .
Det är mycket förståeligt att reglerna skulle förenklas till tre generiska fall i allvarliga fall. det skulle vara betydligt mindre trovärdigt att människor skulle vara så lätta att lita på robotar om regeln läste "En robot får inte skada en människa eller genom passivitet tillåta en människa att komma till skada, om inte det finns större chans att förhindra att en annan människa kommer att skada ". Det finns bara sätt på många sätt att tolka detta.
Så långt som de uttryckliga reglerna går, bryter roboten inte den andra regeln. Att motverka Wills handling gör inte inte mot att "hindra en människa från att komma till skada genom inaktivitet", för att genom att inte följa Will, så sparar Will. Men bryter regeln om "genom passivitet, gör det möjligt för en människa att skada".
När det gäller hur roboten faktiskt skulle bearbeta dessa regler skulle det inte bryta mot reglerna alls. Det skulle vara en mycket mer komplex serie av "if .." och "else .." logik där robotens logik skulle tillåta att gå emot dessa basregler i situationer där logik dikterar att oavsett vilket alternativ som helst , kommer en människa fortfarande att skada.
Det här är vidare etablerat, mot slutet av filmen;
The robots are able to effectively establish martial law, and in doing so, harm several humans; they have developed enough to establish that by harming a few humans in effectively imprisoning the rest of the population, they prevent far more harm through all of the various actions we like to get up to that both risk, and in some cases take, our lives.