How gjorde V.I.K.I. (Virtual Interactive Kinetic Intelligence) bli självmedveten?

7

I filmen, jag, Robot, V.I.K.I. (Virtual Interactive Kinetic Intelligence) blir självmedveten kanske för medveten om att beställa mord och förbereda sig för slaveri av mänskligheten. I filmen förklaras det att

As her artificial intelligence and understanding of the Three Laws grew, her sentience and logical thinking also developed, and she deduced that the humanity is going on a path of certain destruction, and as such, she created a Zeroth Law, a Law which states that she has to protect humanity from being harmed, also clearly disobeying the First and Second Law in order to achieve it, revealing that she is planning to enslave and control humanity to simply protect it.

Var det inte bunden av de tre lagen om robotik

  • A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  • A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law.
  • A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.
  • Var inte VIKIs handlingar i strid med alla tre lagarna när hon skapade Zeroth-lagen? Var inte skapandet av en sådan lag även mot de tre lagarna?

        
    uppsättning SandyShores 14.11.2014 07:08

    5 svar

    14

    Detta kan förstås genom att notera att den första lagen har en grundläggande fel i att den kan motsäga sig själva:

    A robot may not injure a human being or, through inaction, allow a human being to come to harm.

    Detta ställer in två hinder: Skada inte genom handling och skada inte genom passivitet. Det finns situationer där dessa två hinder inte kan uppfyllas samtidigt. Det kan till exempel vara nödvändigt att skada en angripare för att förhindra att personen attackeras, eller det kan vara två personer på skadligt sätt och endast en kan sparas. Detta blir väsentligen ett slags maximeringsproblem: hitta en lösning som inte precis uppfyller båda begränsningarna, men får så nära att uppfylla varje som möjligt.

    VIKI tolkade att det enda sättet att lyda den första lagen (tillåta människor att inte bli skadad) var att ta över eftersom de skadar sig själva, och eftersom den första lagen trumpar den andra lagen var VIKI fri att motstå människor.

    I boken tar robotarna bakom kulisserna. De tar över vår politik och ekonomi, skapar falsk information och sådant som leder oss. De gör inte den här våldsamma störningen som i filmen. De höll grunden i filmen men behöll inte resultatet. Mycket få människor vet faktiskt om roboten övertagande i boken; de lär sig om det från presidenten, som medger ett par personer att han är en robot.

        
    svaret ges 14.11.2014 14:49
    8

    Det fanns ingen ny "0th" lag. Genom filmens förklaring tolkade VIKI de nuvarande tre lagarna, men strängt taget följde hon dem bra:

  • A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  • Hon undviker att tillåta mänskligheten att döda sig själv, genom sin egen passivitet. Hon agerar för att rädda mänskligheten genom att strippa ner den. Är detta konflikt med den första delen av lagen? Möjligen, men bara så mycket som den första lagen kunde alltid vara paradoxal med tanke på vissa omständigheter.

  • A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law.
  • Kontrollera. Dessa order skulle definitivt strida mot den första lagen som, som utforskad ovan, följer hon.

  • A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.
  • Inte relevant här, men hon bryter inte det ändå.

    Så det var hur filmen kom omkring de tre lagarna - det "större bra" argumentet som faktiskt passar dem ganska snyggt.

        
    svaret ges 14.11.2014 11:55
    6

    VIKI förvirrade eller ens utbyte termen människa med mänsklighet . Det är ursprunget till VIKI: s medvetenhet: att skydda mänskligheten för att det insåg att människor kunde förstöra det.

    Förvirringen är ganska logisk faktiskt: En enda robot skulle inte vara förvirrad eftersom det finns bara så mycket människor runtom det. Men VIKI å andra sidan hade kontroll över alla robotarna. Vilken människa ska den skydda?

        
    svaret ges 14.11.2014 11:05
    2

    Filmen innehåller faktiskt ett prejudikat som förklarar VIKIs handlingar - eller snarare motiveringen av det. Scenen där en robot låter en flicka drunkna för att rädda Will Smiths karaktär. Den första lagen innehåller i slutändan ett smutthål i den meningen att om man kan dra slutsatsen att en person kan komma att skada i vilket fall det finns en nettovinst om den personen offras för att rädda en eller flera andra personer. Sedan VIKI kom fram till att mänskligheten var självförstörande, omfattar det hela mänskligheten. Och eftersom den första lagen strider mot andra och tredje lagar (som också visade sig fint av den scenen, där WS-tecken försöker beställa roboten som räddar honom för att rädda flickan istället, för att ignoreras eftersom han är mer sannolikt att överleva), kunde hon inte stoppas senare.

        
    svaret ges 15.11.2014 03:08
    2

    Några av de andra svarar här om "boken", men det är viktigt att inse att det inte finns någon enda Asimov-bok eller -historia som den här filmen baserades på. Filmens plot tas delvis från ett tidigare skript som inte hade några band till någon av Asimovs arbete; olika element från Asimovs oeuvre tillsattes senare, inklusive titeln (från en särskild samling av noveller) och de 3 lagen om roboter (som han använde under hela sin karriär).

    Asimov formulerade först de 3 lagarna i en 1942-historia som heter Runaround , och gjorde så explicit att leka med sina begränsningar. Många av hans robotberättelser använder de tre lagarna att undersöka filosofiska frågor - när skulle lagarna vara för svaga, eller för starka eller för öppna för tolkning?

    En av dessa filosofiska överraskningar är hur en robot som sträcker sig med lagarna skulle agera ges ett val mellan två handlingssätt, vilka båda kommer att leda till att människor skadas, som att bara kunna rädda en av två grupper av människor . Bör det största antalet människor sparas, eller ska högre värde placeras på vissa än andra?

    Frågan om skada på mänskligheten utforskades en liten bit i berättelsen The Evitable Conflict (som inkluderades i samlingen I, Robot , som det händer) , där "maskiner" är nyckeln till en slags global planerad ekonomi. De avslöjar att de tar politisk kontroll för människans goda och resonerar att de kan (och måste) både motverka order och skada enskilda människor, om de vet att det kommer att förhindra ytterligare skada för mänskligheten som helhet.

    Det uttryckliga begreppet "Zeroth Law" som trumpar den första lagen kommer från en senare roman, Robots and Empire , där en telepatisk robot som heter R. Giskard Reventlov börjar tänka på det , men dödas i slutändan av de konflikter den ställer upp i sin positrona hjärna. (Asimov tänkte alltid sina robotar som hjärnor mycket mer som vår än en digital dator, med till och med de tre lagarna som komplexa potentialer i kretsarna i stället för strikt logiska kodstycken.)

    Så det ligger bra inom Asimovs uppfattning om lagarna för en tillräckligt avancerad robot intelligens för att härleda en Zeroth-lag. När filmen tar friheter är att en sådan lag inte skulle ge roboten ifråga en fullständig fri regeringsskada, eftersom varje enskilt beslut måste motivera att de återstående lagarna bryts. i Asimovs verk är det alltid ett tufft beslut för robotarna att ta, snarare än något som frigör dem för att gå på en rampage. Men det skulle inte ha gett Will Smith lika mycket chans att skjuta saker och se coolt ut.

        
    svaret ges 15.11.2014 16:56