Varför Stephen Hawking har fel om mördarrobotar

När genier som Elon Musk och Stephen Hawking kräver ett förbud mot något är det svårt att vara oense. När de kräver ett förbud mot mördarrobotar är det ännu svårare att ifrågasätta deras omdöme. Ändå, här är jag, på väg att säga att de och tusen av deras smarta kollegor har fel.

Varför Stephen Hawking har fel om mördarrobotar

För att vara tydlig, håller jag inte med om kärnan i deras varning. Samlingen av akademiker och företagsledare hävdade i ett öppet brev att autonoma vapen, de som ”väljer ut och engagerar mål utan mänsklig inblandning”, är genomförbara inom år, inte decennier. Det är ett problem, hävdar de, eftersom de kan minska antalet mänskliga soldater som krävs för att riskera sina liv i krig, men de sänker också ”tröskeln för att gå ut i strid”.

”Även om det är svårt att argumentera mot ett förbud, är det i slutändan meningslöst: regeringar kommer att bryta det, precis som restriktioner för alla andra skadliga aspekter av teknik.”

”Nyckelfrågan för mänskligheten idag är om man ska starta en global AI-kapprustning eller förhindra den från att starta”, står det i brevet. ”Om någon större militärmakt går vidare med utvecklingen av AI-vapen är en global kapprustning praktiskt taget oundviklig, och slutpunkten för denna tekniska bana är uppenbar: autonoma vapen kommer att bli morgondagens Kalashnikovs. Till skillnad från kärnvapen kräver de inga dyra eller svåra att få tag på råvaror, så de kommer att bli allestädes närvarande och billiga för alla betydande militära makter att masstillverka.”

Skrämmande verkligen, och även om det är svårt att argumentera mot ett förbud, är det i slutändan meningslöst: regeringar kommer att bryta det, precis som restriktioner för alla andra skadliga aspekter av teknik. Det finns helt enkelt inget sätt att världens militärer kommer att sluta utveckla automatiserade vapen på grund av ett öppet brev från Hawking och hans vänner, eller ens på grund av internationell lag.Stephen Hawking

”De som publicerade historier om snokning avfärdades som vevar. Nu vet vi att deras ”paranoia” inte var något sådant.”

Ta snokning till exempel. I åratal, till och med årtionden, har säkerhetsforskare, tekniska experter och till och med journalister påpekat det oundvikliga i att massinternetkommunikation används för att snoka på medborgare. De som publicerade historier i snokande program som Echelon avfärdades som vevar. Nu bevisar Snowden-avslöjandena att deras ”paranoia” inte var något sådant.

I slutändan gör brevet inte mycket mer än att lindra forskarnas egen skuld för att tekniken de bygger kommer att användas för omoraliska medel – när det oundvikligen händer kan de åtminstone säga att de försökte varna oss. Som brevet noterar: ”Precis som de flesta kemister och biologer inte har något intresse av att bygga kemiska eller biologiska vapen, har de flesta AI-forskare inget intresse av att bygga AI-vapen – och vill inte att andra ska smutskasta sitt område genom att göra det, vilket potentiellt skapar en stor offentlig motreaktion mot AI som begränsar dess framtida samhällsnytta.”

Så vad förväntar sig den här mycket dummare personen att dessa smarta människor ska göra? De har tagit det första steget genom att identifiera problemet och prata om det, snarare än att lämna debatten i slutna rum fyllda med militärstrateger. Men nu är det dags att gå längre och vidta åtgärder, snarare än att vänta tills AI-fighters är vanliga.

”Du är smart nog att se problemet innan det stampar runt jorden och slaktar människor, men gör mer än att skriva brev.”

Återigen, se till övervakning: efter Snowden-avslöjandena dubblade forskare ansträngningarna att komma med antiövervakningsverktyg. Det finns nu smartphones designade för att blockera snoops, som Blackphone; fler webbplatser har övergått till full kryptering; och till och med tekniken bakom Tor förbättras, vilket innebär att det snart kan bli den de facto metoden att surfa för att undvika övervakning. Om vi ​​bara hade sett värdet av ett sådant arbete tidigare.

Så till undertecknarna av det brevet: du är smart nog att se problemet innan det stampar runt jorden och slaktar människor, men gör mer än att skriva brev. Kom på system för att skydda oss mot mördarrobotar, för att förhindra automatiserade drönare från att rikta in sig på levande varelser, eller för att vi ska skydda oss mot sådana skräck. Min lilla hjärna kan inte ens föreställa sig vad det innebär, men jag vill desperat att sådana skydd ska existera – för jag är ganska säker på att det kommer att krävas mer än ett starkt formulerat brev för att stoppa AI-vapen från att döda människor.

LÄS DETTA NÄSTA: Robotdödarmaskiner – kommer de att göra uppror?

Bilder: Kampanj för att stoppa mördarrobotar och Lwp Kommunkacio används under Creative Commons

Lämna en kommentar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *