Verklighetskontroll: robotmördarmaskiner – kommer de att göra uppror?

Om du, precis som vi, har följt robotnyheter på nära håll under de senaste månaderna, kanske du har märkt en något oroande trend. Om du inte har det, här är några rubriker:

Tänker du vad vi tänker?

Under de senaste månaderna har forskare arbetat på en robot som simulerar ilska; en robot som är en demon med ett svärd; en robot som är super smidig. Ska vi vara oroliga – eller är det att förutsäga en robotapokalyps för varje tekniskt framsteg ett slags journalistisk tick?

Det finns inget rakt svar på det, och åsikterna är delade även inom forskarvärlden, men hotet är definitivt verkar verkligare än för ett decennium sedan. Så att vi inte glömmer, på 1990-talet var detta det närmaste de flesta av oss kom en inlärningsrobot:bild02

Nuförtiden har dock majoriteten av västvärlden en dator i fickan som skulle kunna – med rätt programmering – överlista dem vid varje tillfälle.

”Arbete med artificiell intelligens har pågått sedan 1950-talet, men allvarlig oro för att kontrollen skulle glida undan var praktiskt taget obefintlig under de tidiga dagarna”

Hotet har ansetts vara tillräckligt betydande för att stora namn ska kunna sitta upp och lägga märke till det. Tidigare i år, an öppet brev erkände riskerna med att maskiner skulle gå om mänskligheten och krävde att säkerhetsåtgärder skulle införas. ”Vi rekommenderar utökad forskning som syftar till att säkerställa att alltmer kapabla AI-system är robusta och fördelaktiga: våra AI-system måste göra vad vi vill att de ska göra” visade sig vara en solid (eller vag, beroende på din cynism) känsla som robottekniker, MIT-professorer och experter från Microsoft och IBM var bland undertecknarna.

Bill Gates, Elon Musk och Stephen Hawking har alla uttryckt reservationer mot utvecklingen av AI – de två sistnämnda var faktiskt också medundertecknare av det öppna brevet.

Om du tror att den här rädslan för robotkänsla har dykt upp hos oss, är du inte ensam. Arbetet med artificiell intelligens har pågått sedan 1950-talet, men allvarlig oro för att kontrollen skulle glida undan var praktiskt taget obefintlig under de tidiga dagarna och har accelererat först under de senaste månaderna.

Som Anders Sandberg, en futurologiexpert från University of Oxford, förklarar i en Reddit Q&A, detta berodde delvis på det galna i hela föreställningen i en tid då robotar var så ohotat primitiva: ”Ju mer ”konstig” en risk är, desto pinsammare är det att studera den. Men det är bara genom att titta på konstiga saker som vi kan ta reda på om det verkligen är så låg sannolikhet eller osammanhängande att det inte är värt att titta mer på, eller ett dolt verkligt problem.” Med andra ord, det faktum att det är en science fiction-trop betyder inte nödvändigtvis att den ska avfärdas direkt.

Denna pinsamhet förvärras av den lite naiva övertygelsen att om vi var i en situation där mördarrobotar var inställda på att ta ner oss, skulle vi bara kunna stänga av dem igen. Som författare till Superintelligens: vägar, faror, strategier Professor Nick Bostrom säger i sitt TED-föredrag att det inte nödvändigtvis är fallet:

Med hjälp av ett exempel som liknar gem maximerare, föreställer sig Bostrom ett scenario där en robot med uppgift att göra människor lyckliga drar slutsatsen att det mest effektiva sättet att tvinga fram leenden den söker är med elektroder. ”Man kan säga att om en dator börjar sticka in elektroder i folks ansikten, så skulle vi bara stänga av den,” argumenterade Bostrom. ”Det här är inte nödvändigtvis så lätt att göra om vi har blivit beroende av systemet, som, var är avstängningen till internet?”

”Varför har inte schimpanserna aktiverat avstängningsknappen till mänskligheten? Eller neandertalarna? De hade säkert skäl. Anledningen är att vi är en intelligent motståndare. Vi kan förutse hot och planera runt dem. Men det kunde också en superintelligent agent och den skulle vara mycket bättre på det än vi är”.

Även om det utan tvekan finns folk som uppmanar till försiktighet, avfärdar andra hotet som imaginärt eller överdrivet – inte överraskande ledd av de som arbetar i branschen – något som gör det svårt att särskilja den lugnande försäkran om expertis från den röda flaggan av etablerade intressen.

Andrew Ng, en AI-veteran som grundade Googles första Deep Learning-team, är angelägen om att lyfta fram den frustrerande sammanblandningen mellan intelligens och förnuft: ”Datorer blir mer intelligenta och det är användbart i självkörande bilar, taligenkänningssystem eller sökmotorer. Det är intelligens, Ng förklarade för Fusion. ”Men känsla och medvetande är inget som de flesta jag pratar med tror att vi är på väg mot.”

”Jag arbetar inte med att förhindra AI från att bli ond av samma anledning som jag inte arbetar med att bekämpa överbefolkning på planeten Mars. Hundratals år från nu, när vi förhoppningsvis har koloniserat Mars, kan överbefolkning vara ett allvarligt problem och vi måste ta itu med det.”bild01

Alan Winfield, professor i elektronikteknik vid UWE Bristol skriver i The Guardian, ser också alla hot som ett långskott. ”Om vi lyckas bygga mänsklig ekvivalent AI och om att AI får en full förståelse för hur det fungerar, och om den lyckas sedan förbättra sig själv för att producera superintelligent AI, och om att super-AI – av misstag eller uppsåt – börjar konsumera resurser, och om vi misslyckas med att dra ur kontakten, då, ja, vi kan mycket väl ha ett problem. Risken, även om den inte är omöjlig, är osannolik.”

”Om dessa experter verkar vara på den knasiga sidan är det förståeligt. De arbetar personligen inte med något som de ser risker med – men kan de tala för alla andra?”

Demis Hassabis, medgrundare av det Google-ägda forskningsföretaget DeepMind AI, ger en sällsynt intervju i det senaste numret av Trådbunden avfärdar oro för AI:s framtid som ”obegrundad hype från människor som är smarta inom sina egna domäner, men som inte arbetar inom AI.”

”Det här är människor som faktiskt inte bygger något, så de pratar från filosofiska och science fiction-bekymmer, med nästan ingen kunskap om vad dessa [technologies] kan göra.”

”Självklart kan vi stoppa det – vi designar de här sakerna… Jag skulle inte påstå att jag skulle föreläsa Stephen Hawking om svarta hål: jag har tittat på Interstellär men jag vet inte om svartkroppsstrålning i den utsträckningen att jag borde pontificera det till pressen.”

Om dessa experter verkar vara en aning på den knasiga sidan (och varje intervjuskrivning inskjuts med fraser som ”han suckar” och ”trött”) är det förståeligt. De arbetar personligen inte med något som de ser risker med – men kan de tala för alla andra? Och kanske det finns en gnutta hybris här? Det är svårt att vara objektiv när det är så din livsverk som kritiseras.

Förmodligen är det den största risken här. Som Sandberg avslutade i sin Reddit-chatt, ett element av övertro kan vara den största fienden: ”De flesta robotar har trots allt svårt att inte ramla omkull… När du ägnar dina dagar åt att försöka få den att navigera från ena änden av rummet till nästa och det misslyckas, då är det svårt att föreställa sig ett robotuppror.”

”Inom syntetisk biologi verkar många människor tro att de kommer att förändra världen, men många av samma människor tror också att deras organismer är helt säkra – baserat på deras erfarenhet av nuvarande, icke-världsföränderliga organismer. Detta är naturligtvis ett misstag: allt som kan förändra världen kan bli det [a] risk.”

Så litar vi på experterna som arbetar med AI varje dag, eller på de mindre specialiserade intellekten som blandas obehagligt i utvecklingstakten? Efter att ha vägrat att engagera mig i en journalistisk bock tidigare, kommer jag att falla tillbaka på en annan beprövad: det är helt enkelt för tidigt att säga, men den utökade granskningen borde betyda att om robotar slutar döda oss, kan vi kanske åtminstone se det komma.

Bilder: Kampanj för att stoppa mördarrobotar och Penyri Herrera används under Creative Commons

Lämna en kommentar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *