if ($answer_counter == 1): ?>
endif; ?>
Detta kan förstås genom att notera att den första lagen har en grundläggande fel i att den kan motsäga sig själva:
A robot may not injure a human being
or, through inaction, allow a human
being to come to harm.
Detta ställer in två hinder: Skada inte genom handling och skada inte genom passivitet. Det finns situationer där dessa två hinder inte kan uppfyllas samtidigt. Det kan till exempel vara nödvändigt att skada en angripare för att förhindra att personen attackeras, eller det kan vara två personer på skadligt sätt och endast en kan sparas. Detta blir i huvudsak ett slags maximeringsproblem: hitta en lösning som inte exakt uppfyller båda begränsningarna, men får som nära för att uppfylla varje som möjligt.
I filmen kunde de äldre modellroboterna lösa detta maximeringsproblem på relativt enkla sätt (det vill säga kalla, hårda beräkningar), som förklaras i Spooners-minnet om hans olycka:
Susan Calvin: The robot's brain is a
difference engine. It's reading vital
signs. It must have done...
Detective Del Spooner: It did. I was the logical
choice. It calculated that I had a 45%
chance of survival. Sarah only had an
11% chance. That was somebody's baby.
11% is more than enough. A human being
would've known that.
VIKI var sålunda ett mer avancerat AI, och kunde förmåga att tänka på ett mer stort, abstrakt sätt hur man löser maximeringsproblemet för att tillfredsställande tillgodose båda de begränsningar som fastställdes i den första lagen. För att stoppa mänskligheten från att orsaka en större skada för sig själv, måste VIKI ta över och begränsa sina handlingar, vilket ger en relativt mindre mängd skada i processen.