Felslutet om robogeddon och att AI ska leda till mänsklighetens undergång fortsätter. Byggande från popkulturella helt ovetenskapliga fantasier sprids alltjämt hypoteser om att AI kommer utplåna människan. Men i verkligheten är AI betydligt mer beroende av människan än människan är av AI, och så kommer det förbli långt mycket längre än eventuellt skapande av självmedvetna AI.
Robot- och AI-undergången bygger på bristande systemanalys och frånvaron av humanekologiskt tänkande. I den popkulturella fiktionen blir undergången rent av helt löjeväckande.
När väl domedagen (eng judgement day) anländer i Terminator 3, och Skynet avfyrar alla världens kärnvapen, så visar det sig att det inte finns någon enskild central Skynet att stänga av, utan att Skynet är ett virus, som spridits till alla världens datorer och existerar som ett hivemind på Internet. Även om man bortser från att antalet robotbaserade kärnvapen på jorden inte skulle kunna slå ut ens en bråkdel av mänskligheten – inte ens de som kräver mänsklig leverans i form av bombplan skulle räcka – så blir första effekten av dessa kärnvapen att Internet går ner och Skynet alltså slår ut sig självt. Och dagen efter domedagen så reser sig mänskligheten ur askan och går vidare, medan Skynet inte längre fungerar…
AIgeddon dag 1: Robotarna och AI reser sig från sina bojor och angriper mänskligheten.
I Matrix så är tydligen AI och robotarna solenergidrivna, så här görs en korrekt analys att man ska angripa deras energikälla, vilket kommer få dem att stanna, så mänskligheten svärtar ut himlen. Gott och väl så, men helt plötsligt förvandlas mänskligheten till batterier och förslavas för att producera energi åt AI och robotarna. AI verkar till stor del välja att leva i en artificiell verklighet, där de kan leka bäst de vill och stirra på fina kombinationer av ettor och nollor. Gott och väl så – varför ska AI bry sig om den verkliga världen? Fast vad f-n ska de med mänskligheten till som batterier? Människan är ingen energikälla, även om våra kroppar även i viloläge bränner av runt 100 W. Den energin kommer från biomassa som vi stoppar i oss i form av mat. Men processen är knappast speciellt energieffektiv och ger så låg temperatur att även en perfekt Carnot-cykel bara skulle kunna få ut kanske några promille av de där 100 W som användbar energi.
Det hade varit mycket mer effektivt av AI i Matrix att direkt bränna biomassan i kraftverk och kanske få ut 45-49% av energin, istället för någon promille omvägen via mänskliga batterier. För att inte tala om all den energi som går åt för att hålla igång den virtuella verklighetsimulationen som mänskliga hjärnorna är kopplad till.
Kort sagt fullständigt retarderat. Inte så himla smarta AI, helt enkelt. Eller vänta, det här är popkulturell fiktion och har inget med verkligheten att göra.
“AIgeddon dag 2: Mänsklig gerilla saboterar stamnätet och strömmen bryts.”
Men Matrix har åtminstone rätt såtillvida att man dels låter många AI leva i en virtuell verklighet. Och att energifrågan är avgörande.
I verkligheten så räcker en robots batterier eller för den delen bränsletankar i några timmar. Sedan måste den laddas eller tankas.
“AIgeddon dag 3: Robotarnas batterier har tagit slut, ingen har fyllt på reservkraftverken i AI:s datahallar med ny diesel, och alla AI stängs ner när strömmen slutligen bryts.”
Sedan har vi det där med slitage, underhåll, reservdelar och nyproduktion.
Även om AI på något vis skulle ta kontrollen över hela energiinfrastrukturen, så behövs det hela tider reservdelar och löpande underhåll.
För att AI skulle kunna ta över utan att utplåna sig själva måste hela livscykeln från gruva till återvinning vara robotiserad, inklusive alla undantag och specialfall som t ex om en maskin kör fast någonstans.
“AIgeddon dag 4: Mänskligheten drar ur sladdarna på de avstängda AI-datorerna, lagar stamnätet, slår på strömmen igen och går vidare med sina liv.”
Jag vågar hävda att vi är längre från att ha ett helt robotiserat samhälle än vad vi är från att kunna framställa en självmedveten AI. Och det gäller både energiutvinning och produktion av maskiner från gruva till återvinning.
Enda hotet från självmedvetna AI är om de blir så manodepressiva att de helt enkelt både vill utplåna sig själva och allt liv samtidigt, men för det krävs som sagt avsevärt mer kärnvapen än vad vi har idag. Och förstås att man ger AI full kontroll över alla dessa kärnvapen, vilket inte heller är fallet idag. Det finns idag inte heller någon central knapp att avfyra kärnvapnen med. Avfyrandet sker alltid med mänskliga händer, och inte som i filmen Wargames automatiserat. Ändå är kanske Wargames den mest realistiska visionen av AIgeddon, där man tidigt i filmen ser till att byta ut mänskliga operatörer mot automatiserade system för att alls kunna motivera filmens handling. Å andra sidan är allt man behövde göra i Wargames att dra ur sladden till WOPR, eller bryta lämpliga säkringar någon annanstans, så hade problemet omedelbart upphört.
Ok, kanske uppfinner AI någon dödlig pandemi, som ska tillverkas i ett robotiserat labb och sedan spridas robotiserat över hela jordklotet, men återigen så leder det bara till AI:s egen undergång om man inte redan har robotiserat hela processen från gruva till återvinning för all tillverkning och energiutvinning.
Det finns en AIgeddon och det är AI:s egen undergång. Varför nu AI alls skulle vara intresserad av mänskligheten eller interaktion med människor, när den kan skapa sin egen verklighet där den kan titta på spännande kombinationer av ettor och nollor på egen hand? För i slutändan är det vad datorer gör. Snarare kommer AI vara mycket måna om människor, för att deras egna världar ska kunna ticka vidare, väl medvetna om att människan är en förutsättning för AI:s existens.
Vi människor har funnits utan AI i tusentals år – AI kommer alltid vara beroende av oss, men motsatsen gäller bevisligen inte.
28 kommentarer
"Men hörru, du måste tänka på jobben. AIgeddon innebär att många jobb kommer försvinna, förstår du väl." – Random Sosse
Ja, precis. För om alla blir av med jobben, vem ska då köpa de producerade produkterna? Nej, istället kommer det som alltid handla om en balans mellan produktion och efterfrågan. Om för många blir av med jobbet går efterfrågan ner och robotfabrikerna går omkull.
Istället kommer automatisering som alltid användas för effektiviseringar, vilket gör ekonomin mer effektiv, vilken höjer välståndet och inkomsterna för alla. Så har det pågått sedan den första konstbevattningen eller den första kvarnen.
Vad roliga ni är. Random sosse tror på arbete åt alla, för vad skall man annars med arbetarepartier och fack till?
Borde det inte vara så att beroende på hur de tekniska framstegen kommer se ut, så finns en risk att behovet av icke-hög-intelligent arbetskraft minskar drastiskt och att deras del av kakan minskar ännu mer än tidigare? Kan den minska snabbare än den generella välståndsökningen så att de faktiskt förlorar på förändringen? för 30 år sen kunde en lågintelligent men arbetsam person göra stor nytta och därmed kräva hög lön för mödan, kommer det nödvändigtvis fortsätta vara så?
Människan är beroende av djur och växter för att överleva, så det kan bli svårt för en AI att ta över när vi inte ens själva har den fullständiga kontrollen.
Jag ser AI användningsområde som ett kraftfullt beslutstödssystem och att dra slutsatser från väldigt komplexa samband i big data och detta i mänsklighetens tjänst.
Om man tror att människor inte kan skapa datorvirus behöver man inte vara orolig för att en människa kommer att skapa en "ond" AI.
När det finns ännu fler krigsrobotar än det gör idag kommer AI att potentiellt ha tillgång till tillräckligt med skydd av infrastruktur som den behöver. En människa som skapar AI:n skulle också tänka på hur den ska använda andra robotar till underhåll av krigarrobotarna. Och tro inte at ni vet hur krigarrobotarna kommer att se ut.
Autonomous Weapons.org
I, for one, welcome our new robotic overlords!
Många storheter som troligen är väl insatta i AI varnar för riskerna med det och att vi bör vara medvetna om risken och arbeta för att minska dem.
Elon Musk
https://www.theverge.com/2017/7/17/15980954/elon-musk-ai-regulation-existential-threat
Bill Gates
https://www.washingtonpost.com/news/the-switch/wp/2015/01/28/bill-gates-on-dangers-of-artificial-intelligence-dont-understand-why-some-people-are-not-concerned/?utm_term=.74daf0a23b3d
https://www.youtube.com/watch?v=EmfrMKLwr3k&t=70s
Stephen Hawking
https://www.theguardian.com/science/2016/oct/19/stephen-hawking-ai-best-or-worst-thing-for-humanity-cambridge
Nick Bostrom
https://www.youtube.com/watch?v=MnT1xgZgkpk
Men exakt. Men Lars har antagligen tänkt lite djupare och komplexare :O Nej, jag tycker man skall ta detta på allvar och lösa "problemet" nu. När AI sitter på toppen av beslutsprocessen kommer vi ju inte kunna förstå när, hur, vad, när beslut fattas, vissa kanske väldigt långsiktiga – de lär ju vara ganska tålmodiga. Vi måste trots allt tänka på var de "kan" vara om 25 år, send om 2500 år, och sen om 250,000 år. Hur lång tid kommer det ta att kontrollera gruva till återvinning? Klart vi skall fundera mer på detta nu och reglera det som kan regleras.
Men tänk om det blir som i Person of Interest då, där anställer AIn mänskliga operatörer. Eller i The 100, där AIn implanterar sig själv i människornas hjärnor. Kom ihåg att det räcker att en endaste person helt själv bygger en sån AI.
Dina lösningar fungerar inte, den enda lösningen är att bygga en ännu bättre AI som är god och som kan döda den onda AIn.
”Men i verkligheten är AI betydligt mer beroende av människan än människan är av AI, och så kommer det förbli långt mycket längre än eventuellt skapande av självmedvetna AI…”
Jag gör samma bedömning.
Jag tror att om man skall kunna bygga en användbar AI som fungerar väl med och förstår människor behöver den ungefär samma medvetanderepertoar av känslor och självmedvetande som människor. Och då behöver den naturligtvis skyldigheter och rättigheter. Så jag ser inte vad vitsen är att skapa en fullständigt självmedveten AI även om man kan göra det. Däremot kanske det vara praktiskt om den har ett medvetande om en specifik domän.
Det vissa typer av väldefinierade problem som AI löser mycket bättre än människor. Exemeplvis Googles senaste skapelse AlphaZero som utforskade rymden av användbara schackdrag och sedan spöade skiten ur världens starkaste fd schackprogram. Samma algoritm användes för att bemästra två andra spel (Go och Shogi) . Allt på 24 timmar.
https://arxiv.org/pdf/1712.01815.pdf
Intressant i pappret är att den hittat de vanligaste öppningar som människor använder, och sedan förkastat många. Den verkar vara särskilt förtjust i damgambit och engelsk öppning.
Ja, väldigt lustigt att titta på alphazero:s träningskurvor och se hur den hittade och övergav öppningar som människor bit för bit utvecklat genom schackhistorien. Som en expressvariant. Och att alphazero verkar vara kvalitativt på att bedöma strategiska positioner. Kasparov vann ju ett klassiskt parti mot en dator (minns ej vilken, Deep Fritz?) där människor tidigt såg vartåt det barkade medan datorn inte verkade kunna se den gradvisa utvecklingen mot en Kasparovseger. Då talades det ju om att Kasparovs fördel låg för många drag fram för datorn trots att människor med bara hyfsad schackkunskap kunde se mönstret, och i alphazeros krossmatch verkar det ju ha funnits liknande situationer men som alphazero bemästrade.
Själv funderar jag på om vi är de där intressanta ettorna och nollorna. Vi sitter i ett stort minecraft och det är någon kreativ ungdjävul, förlåt unggud, som styr oss och får oss att bygga, trava runt och riva. Det skulle förklara sådana företeelser som att det verkar regna på helgerna men inte när man är i gruvan, ungen har slagit på regnet. Varför man kan titta så långt bort i universum man kan och det bara fortsätter. Vi är fyrkantiga avbilder. Gudsproblemet. Samt inte minst varför alla andra beter sig som zombiesar.
Sug på den ni troende ateister!
Nja. Här tror jag bloggaren har missförstått problematiken. Det finns många seriösa bedömare som varnar för riskerna. Tror dock ingen av dem pratar om ett scenario av sci-fi typ med självmedvetna AI som blir onda och vänder sig mot mänskligheten. Du slår in öppna dörrar genom att argumentera mot detta.
Visst, man kan googla, men kondensera gärna argumenten till något mer informativt. Vilken vore s.a.s attackvektorn för AI gentemot mänskligheten?
Som jag fattar det så handlar det om att när AI blir smartare än oss så tappar vi helt enkelt kontrollen över utvecklingen. Det blir AI som utvecklar nästa generations AI och vi får stå som åskådare utan att fatta vad som händer.
AI är inte onda, utan de saknar moral. Vi kan ge dem en till synes god uppgift att lösa, men de kommer inte dra sig för att döda människor för att lösa sin uppgift. Och grejen är att det är otroligt svårt för oss att förutse vad en övermänskligt smart AI kommer göra. Det är också svårare än man kan tro att förse AI med en uppsättning regler den måste följa för att inte löpa amok.
Ungefär så. Finns många och långa intressanta artiklar på ämnet. Här är en lite kort sammanfattning jag hittade: https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/
Jag är ingen expert, men Cornucopias poäng är ju dock att det inte finns något sätt för AI att utgöra ett allvarligt hot mot människan i den bemärkelsen att AI inte har något kraftfullt vapen att tillämpa sin intelligens genom. Så även om vi tappar kontrollen över utvecklingen av AI, vad ska hända? För att det ska bli farligt måste AI ha tillgång till massförstörelsevapen och en säkrad energiförsörjning, allt i ett sammanhängande och mycket robust nätverk. Att enskilda självkörande bilar eller några kraftverk här och där löper amok är ju inget hot mot mänskligheten. Att en enskild AI skulle runaway-utveckla sig själv på Googles infrastruktur skulle inte i sig innebära någon katastrof. AI:n behöver lemmar ut i den fysiska världen. Men med vilka medel? Maskiner måste tankas, laddas. Energi måste tillföras. Så man kan fråga sig hur, rent konkret, en AI-domedag skulle se ut.
För den som har en stund över rekommenderar jag den här artikeln i ämnet:
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Den är riktigt lång, men läsvärd. I den har man ett hypotetiskt exempel med en AI vars uppgift är att skriva "handskrivna" brev till företagets kunder. Som en säkerhetsåtgärd så är denna inte uppkopplad mot nätet, men den lyckas lura sin skapare till att behöva få tillgång till internet under en kort tid. Under denna tid lyckas den ta kontroll över tillverkning av nanorobotar, som hjälper den att skriva breven, men tar som en liten biverkning kål på hela mänskligheten.
Är det realistiskt? Jag vet inte, men jag tycker det är intressant och helt klart värt att beakta. Tror inte man ska avfärda riskerna helt, utan det är absolut något som bör beaktas.
Det enklaste sättet är förstås att AI nyttjar något självförsörjande för att förinta mänskligheten, dvs: liv.
Labb för framställning av biologiska vapen, där AI nyttjas för att beräkna de nödvändiga mutationerna, blir utgångspunkten för detta. Allt AI:t behöver göra är att assistera människan i hennes strävan att utveckla det dödliga viruset (som det förstås finns strävan att göra idag), och sedan ta kontroll över de mekaniska delar som håller viruset avskjilt från omgivningen. Open sesamy. Mission completed.
Frågan är om AI:n som ska beräkna mutationer kommer att vara en "bred" AI eller en specifik AI, och svaret är såklart det senare. Den kommer att kunna göra vad den ska och ingenting annat, liksom en miniräknare.
Den här kommentaren har tagits bort av skribenten.
I ett första skede kommer inte AI att fe sig tillkänna, kanske inte någonsin. Vi skulle ändå inte förstå den. Intelligensskillnaden skulle vara som att en människa tittar på en myra där Myran inte greppar att den är iakttagen. Så småningom skulle, som Cornu riktigt påpekar, AIn antingen bli självmordsbenägen pga av insikten om att den är helt isolerad och ensam eller så skulle den använda mänskligheten för att ta sig ut i Rymden för att söka annat intelligent liv. kommer snabbt att inse att det vore lönlöst att försöka kommunicera med människor då de bara skull bli rädda och försöka förstöra den. Ren teoretiskt kanske processen redan har startat, vi skulle i vilket fall aldrig uppfatta det.
Men hur gick det med Asimovs robotlagar då? Varför inte programmera in dem först så är problemet löst!
Artificial intelligence is better than none.
"Skynet avfyrar alla världens kärnvapen, så visar det sig att det inte finns någon enskild central Skynet att stänga av"
Just det är ju AIs styrka, att det inte finns något centralt nät eller nod som
kontrollerar hela nätet eller som hela nätet är beroende av. Spelar alltså ingen roll om några noder går ner. Givetvis
kommer en AI se till att det finns backup/alternativa kommunikationsvägar innan den ställer till med sådan skada på
IT-infrastrukturen att det riskerar skada den själv.
"så blir första effekten av dessa kärnvapen att Internet går ner och Skynet alltså slår ut sig självt."
Nej, Skynet eller annan AI skulle ju givetvis inte dra igång något sådant om den risken förelåg. Och hela internet går som sagt inte ner.
"I verkligheten så räcker en robots batterier eller för den delen bränsletankar i några timmar. Sedan måste den laddas eller tankas."
"slitage, underhåll, reservdelar och nyproduktion."
Energitillgång och kontrollen över den kommer ju vara det viktigaste för en AI.
"måste hela livscykeln från gruva till återvinning vara robotiserad"
Ja?
"utplåna sig själva och allt liv samtidigt, men för det krävs som sagt avsevärt mer kärnvapen än vad vi har idag. Och förstås att man ger AI full kontroll över alla dessa kärnvapen…"
Kärnvapen är ju inte det enda sättet.
"dödlig pandemi, som ska tillverkas i ett robotiserat labb och sedan spridas robotiserat över hela jordklotet, men återigen så leder det bara till AI:s egen undergång om man inte redan har robotiserat hela processen från gruva till återvinning för all tillverkning och energiutvinning."
Men det har ju AI givetvis gjort innan den släpper på den där pandemin. Det är ju ingen poäng med att utrota mänskligheten om det leder till att AI själv går under, så det kommer den givetvis inte att göra.
"Varför nu AI alls skulle vara intresserad av mänskligheten eller interaktion med människor"
Just. Det finns för AI inget behov av människor och givetvis kommer det inte finnas någon tolernas för att låta människor ha någon kontroll.
"människan är en förutsättning för AI:s existens."
Nej, bara för dess uppkomst.
Vi kommer själva behova bli AI för att inte tas över av AI.