if ($answer_counter == 1): ?>
endif; ?>
Kort historia "Liar!" har refererats som källa för påståendet att roboten inte skulle kunna agera eller bränna ut efter att ha gjort det. Men den här historien nämns, och på ett sätt, motbevisas i ett senare arbete - Robots of Dawn .
De relevanta citaten är som följer:
As the theory of positronic brains has grown more subtle and as the practice of positronic brain design has grown more intricate, increasingly successful systems have been devised to have all situations that might arise revolve into non-equality, so that some action can always be taken that will be interpreted as obeying the First Law.
Chapter 4 - "Fastolfe"
Robotarna har förbättrats avsevärt sedan Susan Calvins dagar - man bör komma ihåg att berättelserna om henne är berättelserna om pionjärerna i robotiken, när man bara föddes och perfekterades av mänskliga robotar.
I Robots of Dawn behandlar vi humaniform robotar, så sofistikerade att de till och med har alla externa mänskliga attribut (inklusive könsorganen, vilket är en viktig detalj i det ny). Vi presenteras också för begreppet "mental frysning", vilket är vad som hände med Herbie i "Liar!". Doktor Fastolfe, den ledande experten på robotar vid den tid roman ligger i, säger att sådana frysningar är nästan omöjliga med dagens robotar, eftersom dom inte bara bedömer kvantitativt (som roboten från filmen gjorde) , de kan, i själva verket mycket sällsynta fall av exakt lika resultat, involvera randomisering.
“Let’s suppose that the story about Susan Calvin and the mind-reading robot is not merely a totally fictitious legend. Let’s take it seriously. There would still be no parallel between that story and the Jander situation. In the case of Susan Calvin, we would be dealing with an incredibly primitive robot, one that today would not even achieve the status of a toy. It could deal only qualitatively with such matters: A creates misery; not-A creates misery; therefore mental freeze-out.”
Baley said, “And Jander?”
“Any modern robot—any robot of the last century—would weigh such matters quantitatively. Which of the two situations, A or not-A, would create the most misery? The robot would come to a rapid decision and opt for minimum misery. The chance that he would judge the two mutually exclusive alternatives to produce precisely equal quantities of misery is small and, even if that should turn out to be the case, the modern robot is supplied with a randomization factor. If A and not-A are precisely equal misery-producers according to his judgment, he chooses one or the other in a completely unpredictable way and then follows that unquestioningly. He does not go into mental freeze-out.”
Chapter 7 - "Fastolfe"; emphasis mine.
Observera att det inte är helt omöjligt att få en modern robot att gå in i mental frysning, eftersom det är vad hela tomten i romanen bygger på. Det är emellertid bevisat att det kräver högsta behärskning av den positroniska hjärnans och robots psykologi, något som bara två personer någonsin kan klara av.
Samma roman handlar också, utan att namnge den, med Zeroth-lagen.
Självklart, spoilers!
R. Giskard kills R. Jander, his robot friend, in order to save humanity (the inhabitants of the Earth) from a sinister spacer plot, and also to save Spacers from interbreeding and dying out in seclusion.
Zeroeth-lagen är dock mer ett undantag än en regel. Från vad jag har läst hittills har det bara inträffat två gånger. Anledningen - inte varje robot är medveten om problemen som mänskligheten står inför. Man kan noga spekulera att mänskligheten bara är en samling människor för dem, medan det i verkligheten är lite mer komplicerat än det. Min poäng är, det är inte en situation som skulle göra en robot att åberopa Zeroth Law - för att den inte var inbyggd i dem. Maskinerna i "The Evitable Conflict" uttrycktes uttryckligen som tillgång och kontroll över hela mänsklighetens resurser och kunskaper. De kunde formulera Zeroeth Law - det betyder inte varje robotburk. Tecknen på Robots of Dawn var också ganska exceptionella. Jag skulle inte involvera den lagen i vagnen problemet, men om du vill, det jag sa ovan håller.