Dags för lite härligt fredagsmys, och denna fredag gräver vi ner oss lite i det som slentrianmässigt kallas för artificiell intelligens. När är AI-teknik lönsamt?
Anna och Jonas från Inceptive diskuterar AI-teknik. |
Har under eftermiddagen suttit med på ett seminarie kring det som grovt kallas artificiell intelligens idag, i regi konsultbolaget Inceptive.
AI är egentligen olika tekniker, som deep learning, machine learning, neurala nätverk mfl, men grovt kan man säga att det handlar om beslutsstöds- eller analysstödssystem, där man egentligen inte har koll på hur datorsystemet faktiskt fattar sina beslut. Däremot kan och bör/måste man förstås verifiera att AI-systemen har tillräckligt rätt. En intressant aspekt där är att en del AI-system kan ta flera år att lära upp, vilket också kräver kontinuerlig övervakning, så AI:n inte börjar lära sig fel och man måste rulla tillbaka åratal av inlärning. Vid det laget kan också gammalt dataunderlag för inlärning vara inaktuellt och inte relevant för aktuell situation.
Själv landar jag i frågeställningen om och när AI är lönsamt. Och då pratar vi lönsamt i vidare bemärkelse, och inte nödvändigtvis pengar. Passande nog talade Inceptive om värderingar, och att AI-system måste ha regelverk som avspeglar önskade värderingar. Är t ex en självkörande bil osäker så måste värderingen vara att den inte ska orsaka någon skada, och t ex tvärbromsa även om det var fel beslut och ingen fara förelåg.
Min egen fundering blir att lönsamheten är vinsten eller kostnadsreduceringen med AI-systemet, minus implementations- och upplärningskostnaden, minus kostande för felbesluten.
Lönsamhet = intäkt – felbeslut – implementationskostnad
För trivial användning finns det kanske det inte finns någon kostnad för felbeslut. Exempelvis en onlinebutik som ger produktrekommendationer baserad på AI-teknik. Det värsta som kan hända är att kunden inte gör ett tilläggsköp. Alla tilläggsköp landar som intäkter, och på den negativa sidan finns egentligen bara implementationskostnaden. Dock måste tilläggsköpen jämföras med vad en naivt enkel algoritm ger för utfall, t ex vad är den vanligaste boken som köpare av bok A har köpt? För det krävs ingen AI.
Problem uppstår när det finns en kostnad för felbeslut, vilka då måste värderas. Korrekta beslut kanske bara ger en liten vinst, medan felbeslut ger en stor kostnad. Exempelvis inom sjukvård. Rätt diagnos och behandlingsförslag kanske kan ställas snabbare och därmed spara in personalkostnader och minska köer, vilket utifrån värderingarna är värdefullt. Men felbeslut kan kosta liv. Hur många liv är en kortare sjukvårdskö värd? I exempelvis fallet cancerbehandling så innebär en snabbare behandling att fler räddas, vilka kanske kan vägas mot felbehandlingarna.
Men när vinsterna är små, men förlusterna vid felbeslut är stora, så finns det kanske ingen vinst med AI.
En superintelligent människa gör fel. I själva verket kan vederbörande övertänka så till den grad att det enkla och korrekta svaret missas. En superintelligent AI ska förstås vara ännu intelligentare, men bättre än bra innebär fortfarande inte felfri.
Och där landar vi.
AI kommer ha fel, även om de en dag kanske kan bli bättre än människar. Frågan är vilka värderingar vi ger systemen, så att felbesluten får så små konsekvenser som möjligt.
Det som grovt kallas AI används idag bakom kulisserna, oftare än vad många är medvetna om. Att det är en dator som tar självlärda beslut framgår dock inte.
Ha ett fortsatt trevligt fredagsmys!
41 kommentarer
Svårt indoktrinera alla dystopiska populärkulturella skildringar av AI som går rouge – jag är skeptisk…
Svårt indoktrinerad av alla…
Se där – maskinj*veln trilskas för att jag inte är positivt inställd.
Precis, man kan väl acceptera att backvarnaren hänger sig men absolut inte riskera att bilen plötsligt tvärnitar för ett inbillat hinder. Jag kommer kämpa emot där jag kan och välja bort "förarstöd" som jag inte känner förtroende för, tex "autobroms" i högre fart. Skulle inte överlämnat styret åt en självkörande bil heller.
Det är värre när backvarnaren hänger sig i tyst läge…
Ju mindre elektronik i bilen utanför motorrumnet desto bättre.
Rogue…
Kan hålla med till viss del. Dock så är det så att AI är ett flytande begrepp. Det som klassades som AI för 20 år sedan klassas inte alltid som AI idag, då algoritmer blivit vardagsmat som tidigare var exotiska. Produkt-rekommendationen kan mao varit "AI" förr, medan vi knappast kallar det AI idag. Jag tror att det beror delvis på acceptansgraden; om något blir en naturlig del av en dators uppgift, så avdramatiseras det och slutar kallas AI. AI står för något magiskt, något som överraskar och fascinerar.
Jag tror att en svår mental övergång är att vi måste vänja oss att datorer kan ha fel. Idag är datorsystem nästan alltid regelstyrda, där reglerna konstruerats av människor, dvs en hjälpreda som gör exakt som den blir tillsagd. När man har AI t.ex. av typen artificiella neuronnät så är det inte alltid fallet. Vi tillåter människor att göra fel dagligen, men om en dator gör fel så blir vi förfärade.
Det är också lätt att underskatta hur mycket kunskap (dvs information) som måste kapslas in i en AI innan ens triviala uppgifter som människor gör dagligen kan lösas tillfredsställande av en dator. Mycket information är underförstådd eller subtil i mänsklig kommunikation. T.ex. kan kontext och tonläge i en konversation förmedla kanske lika mycket information som det som uttryckligen sägs.
Detta dilemma gör ju att AI aldrig kommer bli perfekt, och den datorkörande bilen inte kommer bli verklighet i närtid.
Det är ganska trivialt att se att just självkörande bilar är något där AI väldigt snabbt kan komma att ta färre felbeslut än människor, dvs får negativt tecken i din ekvation. Implementationskostnaden är också där även långsiktigt en engångskostnad som antagligen i det närmaste kan försummas. Ekvationen säger alltså att intäkterna måste få vara negativa. Jag vet inte om "intäkt" kan användas i det sammanhanget.
I övrigt kan jag bara beklaga att du blev sittande framför något som med 99% sannolikhet sög. Det finns några tappra grupper genier man kan råka stöta på om man har tur och klarar att ödmjukt lyssna på dem som är bättre, men vad gäller det "vanliga" är branchen katastrof. Som du skriver: ML. Det har för fasen inget med AI att göra. Det är helt vanlig 1900-tals modelering och simulering (nåja, någon metod här och där kom till strax efter millenieskiftet också).
Jag kan bara se en trolig anledning till att detta blivit så flummit, och det är att det inte räckte till med ingenjörer så man började sätta sina html-målare till att lära sig AI. Och de såg inte skillnad på antik tillämpad matematik och AI.
Ett problem med självkörande bilar är att det kommer föregås av en period där de tar fler felbeslut än människor. Förvisso kommer man rimligen under den perioden inte befria föraren från ansvar. Problemet är att risken för en olycka kan uppfattas som liten utifrån erfarenheten föraren har av den vilket gör att han lämnar det hela i bilens algoritmer.
Kostnaden blir alltså att man kan få en ökning av antalet olyckor och kostnader för dessa under en period där tekniken inte är mogen för att lämnas utan övervakning, men lämnas ändå.
I långa loppet bör ändå fördelarna betala igen kostnaderna, men risken är förstås att den "farliga perioden" kommer innebära att tekniken stoppas.
Det handlar kanske inte om rena felbeslut eller snarare om en människas oförmåga att ta ett medvetet slut.
Detta är en klassisk etisk paradox inom AI. Om en självkörande bil hamnar i en situation där det inte går att undvika en olycka, ska människan på övergångsstället offras eller ska människan i bilen offras?
https://youtu.be/1sl5KJ69qiA
Jag tror inte dessa dilemman förekommer i speciellt stor del av de olyckor som sker. De allra flesta olyckor menar jag kan undvikas helt genom att trafikanterna gör rätt sak om än så bara i det akuta läget.
Visst finns det scenarier där man måste göra ett aktivt bondeoffer och inrikta sig mot skadereduktion och troligen kan en AI bli bättre än en människa på att ta rätt beslut.
Jag tror att ett problem också är människans förmåga att göra en korrekt riskbedömning. Ibland så uppfattar man t.ex. risken som betydligt lägre än vad den faktiskt är vilket är olyckligt ifall risken man tar är att lämna över körandet helt till en autopilot som inte är riktigt hundra.
Jag tror också problemet är att faktiskt på ett rimligt tillförlitligt sätt avgöra när autopiloten är tillräckligt säker för att ta över körandet helt, dvs när autopiloten faktiskt är en bättre förare än människan (eventuellt med AI-stöd). När man kommit dit behöver man naturligtvis ta sig en funderare vad gäller ansvarsfrågan – det kommer fortfarande att ske olyckor, men vem är ansvarig egentligen för dessa?
Jag tror starkt på autopiloter för att lösa säkerheten, minska utsläpp och effektiv ät utnyttjande av vägar och fordon.
Bara det faktum att varje lokal ai kan snabbt uppdateras med den kollektiva kunskapen med alla trafikkunskaper som kan uppstå och snabbt bli säker.
Som den grinige gubbe jag är vill jag avslöja alla moderna illusionstrick: AI är bara gamla handböcker i digital form (handläggningsstöd)som kan uppdateras enklare än förr.
En personlig assistent i form a AI som det går att prata med och ge order till vore ju trevligt. En AI som kan boka hotell, flygbiljetter, taxi, hyrbil, evenemangsbiljetter, m.m.
AI'n kan ringa själv på telefon och prata med en människa i andra änden, såklart på alla dom stora språken, engelska, italienska, spanska, mfl.
Du menar som Ava i denna filmen https://www.imdb.com/title/tt0470752/ ?
Hade vatt perfekt! 🙂
Just detta är ju dock i princip klart. För amerikansk marknad klart. Vänta 3 år så har du en riktigt billig konsumentprodukt som inte suger och gör _exakt_ det du vill ha.
Grejen är att den typen av uppgift är rätt "enkel" (jämfört med väldigt mycket som alla människor förväntas klara av i vardagen). Största tröskeln är i princip att det kan kännas jobbigt att ringa kallt, man känner sig obekväm om det blir ett dåligt samtal osv. De utmaningar människor känner för den här typen av saker (och därför ibland struntar i eller skjuter upp) är irrelevanta för en dator. Själva dialogen är rent av ofta bara en uppsättning löjligt binär logik. "Har ni bord vid 8?", "Nej, men vid 9, går det bra? "Ja"/"Nej" (beroende på vad du bad datorn om).
Frågan är om Siri mfl är AI eller bara avancerade regelsystem? Att känna köpmönster och föreslå varor baserat på detta är inte AI.
Det skulle så fall vara att AI lär sig börshandel, tjänar pengar på detta och använder pengarna/resurserna på eget initiativ och för egna syften.
Knowledge Navigator-konceptet från Apple 1987… Vi börjar närma oss… https://www.youtube.com/watch?v=hb4AzF6wEoc
Deep learning fungerar bäst om det finns tydliga regler med begränsningar där rymden av möjligheter är begränsad men överstiger vad som den mänskliga hjärnan klarar av. Exempelvis lärde sig Googles AlphaZero spela tre olika klassiska spel på storleksordningen timmar på övermänsklig nivå genom att spela mot sig själv.
https://en.wikipedia.org/wiki/AlphaZero
Första AI-hajpen var väl någon gång på 80-90-talet. Nu har den gått igång igen, men även den här gången kommer det att lägga sig då det kommer att visa sig att det fortfarande är högst begränsat vad det kan användas till.
Ja AlphaZero lärde sig på fem timmar helt på egen hand besegra världens främsta konventionella schackprogram, som i sin tur är löjligt överlägsen Magnus Carlsen. Det fascinerande/skrämmande med alphazero är att den faktiskt spelar schack! Den följer alltså inte bara uppställda regler, med brutal datorkraft och omfattande öppnings- och slutspelsdatabaser, utan kommer själv fram till lämpligaste spelöppning.
Otroligt fascinerande.
Tittar man i det vetenskapliga pappret som google producerade så gick den igenom en massa öppningsställningar, och hittade alla kända standardöppningar, och förkastade alla utom några stycken. Damgambit var en av de som blev godkänd har jag för mig.
Schack/go även om komplexa så finns det alltid en given lösning från varje läge i spelet.
Intressant är om de skulle ge sig på poker som har ett inslag av bluffning/risk.
Redan gjort… googla Libratus, en AI bot som krossade fyra proffs headsup i matcher med speglade kort (för att eliminera slumpen)
Redan nu är AI bättre på att diagnosticera cancer utifrån röntgenbilder, jag tror att Danderyds sjukhus har börjat använda det som en test/komplement till de vanliga röntgendoktorerna.
AI används på lager och sänker kostanden för lagerhantering med mycket stora procenttal.
Hela transportsystemet globalt står för ett paradigmskifte med autonoma fordonstransporter.
Det är några av de saker som redan nu eller väldigt snart kommer sänka kostnader och förbättrad kvalitén.
Orkar inte ta fram länkarna nu till referenserna till mina påstående.
Är det ett program som går igenom miljoner röntgen bilder som är cancer/inte cancer och bygger upp en databas med vilken den sedan kan avgöra om en ny bild är cancer eller inte?
Det låter isf som ett fiffigt program, men vet inte om jag skulle kalla det intelligent. Datorer har ju alltid kunna hantera stora datamängder snabbare än människor.
Ja det matas med bilder, i Danderyds fall var det ortopedröntgenbilder men det finns detsamma för cancer diagnostik.
Överdrivet om AI:s förmåga. har jobbat /studerat/undervisat i flera år på Universitetsnivå. Allt är ju relativt men det kommer att ta oändligt många år att ens komma i närheten av människans "förmåga/or" om det ens är möjligt överhuvudtaget.
Den här kommentaren har tagits bort av skribenten.
Inte enligt Ray Kurzeil som har ett fenomenalt track recoord att förutspå nya tekniker. Arbetar nu director på Google med AI utveckling.
https://www.youtube.com/watch?v=87ocMvYtgQM&list=WL&index=19&t=0s
Några av världens skarpast hjärnor inom AI diskuterar Singularity och mänsklig nivå på AI, jag kan meddela att de har en annan uppfattning.
Elon Musk, Stuart Russell, Ray Kurzweil, Demis Hassabis, Sam Harris, Nick Bostrom, David Chalmers, Bart Selman, and Jaan Tallinn discuss with Max Tegmark (moderator)
https://www.youtube.com/watch?v=h0962biiZa4
Säger inte emot dig.
@Milda, vi andra kan meddela att de inte har den blekaste aning. Att de är några av "världens skarpaste hjärnor" hjälper liksom inte ens här. Faktum är att de antagligen bara vill sälja på sådana som dig saker, och det fungerar minst sagt bra. Alternativet är att kalla Elon Musk korkad med tanke på objektivt korkade prognoser inom AI (objektivt felaktiga sannolikheter), och det känns ärligt talat inte speciellt troligt att Elon Musk är korkad.
I övrigt är inte din bild av singularity och "mänsklig nivå" så länkade som du tror. AI sprang ifrån människan totalt i vissa områden redan för 50 år sedan. Nu för tiden finns det många områden där det i princip inte går att jämföra, det blir lite som att jämföra en människa med en sten. Populärvetenskapligt brukar det framställas som att själva tröskeln till singularity är att simulera den mänskliga hjärnan, men det är för att populärvetenskap främst handlar om underhållning.
Många är naturligt skeptiska till nya tekniker och jag förstår de som är det till detta också, men de flesta tänker linjärt men alla tekniska paradigm skiften följer en exponentiell kurva.
När AI väl passerar mänsklig nivå så kommer det accelerera ännu snabbare.
Det du prata om "AI" för 50 år sedan (eller mindre)är inte AI utan du pratar om program med "if then" satser. Tex en schackdator från 90 talet är inte AI även fast den kanske kunde vinna ett schackparti över dig på under 20 drag.
AI är något helt annat..
Även fast begreppet missbrukas kraftigt och har blivit lite av ett "mode ord" inom marknadsföring.
Skall tillägga att den största utmaning för forskning inom generell AI är att få dessa olika delar inom AI som redan nu är på eller passerat mänsklig nivå att integrerar dessa med varandra, det pågår ett "arm race" just nu med att lösa den biten.
@Milda, wow. Dra mindre slutsatser från din populärvetenskap, är mitt tips. Jag tänker inte ta i detta med tång.
Begreppet singularitet är intressant. Håller ni med om den definition i texten nedan, eller vilka eventuella invändningar har ni?
”I samband med svarta hål betecknar en singularitet tid och rum, där en eller flera fysikaliska entiteter inte är definierade, eftersom värdet av dem är oändligt stort. I centrum av ett svart hål är tätheten av energi och massa just oändligt stor. Det faktum att det uppträder oändliga storlekar i samband med singulariteter är dock en varningssignal, som berättar för fysikerna att de har nått gränsen för giltighetsområdet för den teori de använder sig av för att beskriva ett fenomen. Vi känner nämligen inte till några naturlagar som gäller för situationer med oändliga värden på de fysikaliska storheterna. Det är egentligen detta som ligger bakom det något bakvända uttryck som man ofta hör: ”De fysikaliska lagarna bryter samman i en singularitet.” Så egentligen kan man säga att singulariteter nog mer är teoretiska konstruktioner än reella fenomen. Därför kan man helt enkelt inte uttala sig om hur en singularitet ser ut eller uppför sig. De kommer nämligen alltid att undslippa observation, då inget definitionsmässigt kan undkomma från ett svart hål.”
http://illvet.se/universum/svarta-hal/hur-definieras-en-singularitet
Begreppet Singularitet är ett begrepp som AI forskningen lånat från andra forskningsområden, inom AI forskningen betyder Singularitet att den generella AI når en punkt där den är intelligentare än människan och därefter börjar den (AI`n) förbättrar sig själv i en takt som gör att AI`n snabbt blir så intelligent att vi har svårt att greppa det (tänkt många miljontals gånger intelligentare än vad människan är).
Jag tror det också har att göra med en observation angående hur snabbt utvecklingen går där man noterat efter att kurvanpassa den ser ut som att det går mot en singularitet (i en inte alltför avlägsen framtid)
Man tänker sig väl att tekniken vid denna singularitet blir så pass avanserad att den inkluderar sån AI.
Singularitet: kurvan y = 1/x i punkten x = 0 dvs när x går mot 0 går y mot en oändlig ökningstakt.
I fallet svarta hål är y gravitationen, i fallet AI är y maskinens intelligensnivå.
Den stora frågan är dels när AI är lönsam ut ett ekonomiskt perspektiv och dels vilket behov den ska fylla. En värld befolkad av människor kommer ändå ha människors begränsningar, och begränsningar av den fysiska verkligheten. En AI kommer inte kunna bedöma vad en människa tycker är viktigt eller nödvändigt.
En milstolpe inom AI är förstås singulariteteb och en annan är självmetvetande.
Ingen vet ju ens vad självmedvetandet är för nåt. O du kan aldrig nånsin veta om nånting är självmedvetet. Att ett system kan härma en medveten person säger inte mkt.
Lever du på allvar efter devisen att dina medmänniskor kanske inte är självmedvetna? Solipsism leder ingenvart och ingen kan praktisera det. Det är fullt tänkbart med en maskin som du betraktar som lika självmedveten som dina medmänniskor.