Som forskare inom artificiell intelligens, kognitiv vetenskap och robotteknik gör hur HALs tal ändras och regressar ger mycket mening. Maskinen jag använder har 1000 kärnor, och tillvägagångssättet har perceptuell och motorbearbetning fördelad såväl som högre nivå bearbetning. Förklara mer detaljerat ...
Att bygga en AI kräver många processorer, som fördelas över flera lådor med flera moduler - fortfarande idag kan de se ganska ut som skåp och styrelser som vi ser att tas bort. Funktionalitet fördelas över dessa många processorer, inklusive högre funktion (språklig, ontologisk, lärande och resonemang), långt och korttidsminne (livminne och arbetsminne) och lägre funktion (perceptuell / sensorisk motorisk förmåga).
Jag ser regelbundet filmer / animationer på datorn när det inte finns tillräckligt med CPU, tänkande / resonemang är långsam när det inte finns tillräckligt med processorer tillgängliga. Däggdjurshjärnan har svårt att flytta funktionalitet till närliggande områden, och ablationstudier har visat otrolig plastisitet och motståndskraft och förmåga att överföra funktionalitet till en relativt liten volym (jag minns studier som gick så låg som 10%). Vissa studier försöker avsiktligt förstå den mänskliga hjärnan genom att stänga av delar och vi har naturliga experiment som beror på stroke och olyckor - och nedgången och förlusten av vissa grammatiska är välkänd i mänsklig afasi (men utan att sänka tonhöjden).
Min inställning till att bygga ett AI är som HAL bygger på inlärning (som förklaras huvudsakligen i uppföljaren 2010) och psykolingvistiken visar att de första minnena är i vissa sinnen djupaste. Min slogan på 1980-talet och 1990-talet var "HAL vid 2001" - men jag fick inte den finansiering som krävdes för att uppnå det! -) Men i grunden, då visste vi redan vad man ska göra, men sedan en granskning från 1970 av amerikanska finansiering För AI-forskning och språkteknologi har finansieringen i stor utsträckning varit otillgänglig i detta område på grund av långsamma framsteg och oförmågan att leverera löften. IBMs utveckling med Big Blue och Watson visar möjligheten att spela schack eller svara på frågor finns där. Det är den typ av saker som en tvååring kan göra att datorer inte har lärt sig ännu - för att de behöver träna som en baby för att lära sig att interagera i sin sociala och fysiska miljö.
Att sänka talet ger perfekt mening. Sänkning av tonhöjd är meningsfull om talsyntes uppnås med distribuerade vågformer och på grund av oväntad förlust av bearbetningseffekt sänks syntesen av vågformen eftersom den erforderliga CPU-strömmen inte är tillgänglig men används för andra funktioner och sannolikt är utförs med juryriktade vägar och komponenter som inte är optimerade / utformade för detta ändamål.