Kommer mördarrobotar att göra oss säkrare?

År 1942 publicerade Isaac Asimov novellen ”Runaround”, innehållande de numera ikoniska Three Laws of Robotics. Som nummer ett är: ”En robot får inte skada en människa eller, genom passivitet, tillåta en människa att komma till skada.”

Kommer mördarrobotar att göra oss säkrare?

Spola framåt till augusti 2017 och mer än 100 AI-experter, ledda av SpaceX grundaren Elon Musk, har undertecknat ett öppet brev till FN:s konvention om vissa konventionella vapen, vilket ger upphov till oro för beväpnad AI. ”Dödliga autonoma vapen hotar att bli den tredje revolutionen i krigföring”, hävdade de. ”När de väl utvecklats kommer de att tillåta att väpnade konflikter utkämpas i en skala som är större än någonsin, och på tidsskalor snabbare än vad människor kan förstå.”

Dessa farhågor kan tyckas som om de tillhör science fiction-området, men dödliga autonoma vapensystem (LAWS) – kallade ”mördarrobotar” – är redan tillgängliga och används idag. Längs den demilitariserade zonen mellan Nord- och Sydkorea, till exempel, avsöker Samsung SGR-A1 vaktpistol horisonten efter inkräktare. I Ryssland utvecklas obemannade och autonoma vapen, som de sju ton tunga Soratnik robot tank.

samsung_vapen

(Ovan: Samsungs SGR-A1 vaktpistol. Källa: Wikipedia/MarkBlackUltor)

För närvarande är autonoma system både sällsynta och dyra. Men i takt med att tillverkningsteknikerna förbättras och produktionskostnaderna sjunker, kan autonoma vapen bli en större del av hur vi hanterar säkerheten. Det finns de som hävdar att detta faktiskt kan rädda liv.

”Att förlora en drönare är bättre än att förlora en person”

”Vi kan minska antalet offer i konflikter”, förklarar Dr Peter J Bentley, hedersprofessor vid University College London. ”Att förlora en drönare är bättre än att förlora en person.” Enkelt uttryckt, oavsett kostnaden för ett autonomt vapensystem, kommer det aldrig att matcha kostnaden för ett människoliv. Dessutom, om en mänsklig soldat dödas eller fångas, har detta politiska konsekvenser, medan det är osannolikt att en förlorad robot kommer att spänna sig under tortyr.

Autonoma system bär också med sig potentialen att vara mycket mer exakta och kontrollerade än bombningar i tidigare konflikter, där hela städer har tillplattats. ”Smartare vapen kan ge mycket mer exakta och målinriktade svar, istället för den urskillningslösa bombningen av historiska konflikter”, säger Bentley.

Men alla är inte överens om att dessa fördelar uppväger problemen.

Eftersom det är bättre att förlora en automatiserad drönare än att förlora en person, kan detta sänka tröskeln för krig. ”Det är mycket lättare att skicka ett autonomt vapensystem till ett fientligt område för att utföra ett uppdrag, snarare än att skicka riktiga människor, som, om de blir tillfångatagna eller dödade, kan få politiska konsekvenser för regeringen som anstiftar aktionen.” säger professor J Mark Bishop, chef för Tungsten Center for Intelligent Data Analytics hos Goldsmiths. Det faktum att en robot är mer disponibel kan innebära att länder är mer benägna att riskera att använda våld.

Det finns också problemet att LAWS kanske inte är sårbara för hackning av illvilliga parter. Det har till exempel förekommit fall där drönare har förfalskats (matats med falsk information) för att landa. 2011 hävdades det att en amerikansk övervakningsdrönare var tvingas landa i Iran. ”I augusti 2017 förbjöd Amerika användningen av DJI-drönare eftersom det fanns en säkerhetsrisk”, konstaterar Bishop, med hänvisning till den amerikanska arméns förbud mot drönare tillverkade av den kinesiska tillverkaren över ospecificerade cybersäkerhetsrisker.

Komplexa krigsspel

Även om AI-baserade system kan överträffa mänsklig noggrannhet i vissa fall, gör detta dem inte nödvändigtvis konsekvent exakta. Det har skett en otrolig utveckling inom området artificiell intelligens, men generellt sett inom områden som till sin natur är ordnade och strukturerade. Tyvärr är livet inte så. Det har sagts mycket om den senaste tiden framgångar i Go by AI-spelare, till exempel, där AI slog den mänskliga regerande Go-mästaren i en serie matcher. Dock, AI gick inte lika bra i det komplexa strategispelet Star Craft.

starcraft_2

(Ovan: StarCraft 2. Källa: Blizzard)

AI:er är mer kapabla i strukturerade spel, som Go, där det bara finns så många rörelser som kan göras. I fall där det finns fler variabler förlorar AI sin effektivitet. Detta beror på att de saknar kontextuellt beslutsfattande. Till exempel var det en tid då en självmordsbenägen robotväktare drunknade i en prydnadsdamm. Tydligen misslyckades en algoritm med att upptäcka en ojämn yta. Ett år tidigare lyckades en annan robotväktare köra över ett litet barn. Den verkliga världen är kaotisk, vilket är något AI ofta kämpar för att svara på.

”En särskild oro jag har är de oförutsedda konsekvenserna av relativt dum AI”

”En särskild oro jag har är de oförutsedda konsekvenserna av relativt dum AI”, säger Bishop. ”2011 kom två AI-botar in i en priskrig över en bok, Tillverkningen av en fluga av Peter Lawrence, och de bjöd den här boken till över $23 000 000. Det skulle aldrig hända med en människa i slingan.” Medan automatiserade system kan känna igen numret, kan de inte uppskatta värdet av summan. Tänk dig nu om detta vore två automatiserade vapensystem som konkurrerade med varandra.

Vi måste också överväga frågan om vad som händer när autonom vapenteknik sprider sig in i vårt samhälle. Det har redan förekommit fall där kommersiella drönare använts för att smuggla illegal smuggling in i fängelser. Det har också förekommit ett fall där en kommersiell drönare var utrustad med ett laddat skjutvapen som kunde avfyras på distans. Det finns en fara att, om LAGAR blir mer utbredda, kan de tillskansas och användas av kriminella eller terroristorganisationer.

”Under mänsklig kontroll”

Medan den brittiska armén för närvarande undersöker möjligheterna med autonoma system, som att använda förarlösa bilar i försörjningskonvojer, har försvarsministeriet uttalat att man inte har för avsikt att utveckla eller skaffa helt autonoma vapensystem.

Det finns, med MOD:s ord, ett ”begränsat antal” av defensiva system som kan fungera automatiskt, men dessa har alltid en människa inblandad när de ställer in operativa parametrar. ”Det är rätt att våra vapen drivs av riktiga människor, som kan fatta komplexa beslut och även när de blir allt mer högteknologiska kommer de alltid att vara under mänsklig kontroll”, sa en talesperson för MOD.

Ändå finns det en verklig fara att vi kan vara på väg mot en AI-kapprustning. Under 2015 presenterade ett antal ledande AI-experter en öppet brev vid Internationell gemensamma konferens om artificiell intelligens, varnar för att möjligheten till storskalig, AI-baserad krigföring är en mycket verklig utsikt. ”Att starta en militär AI-kapprustning är en dålig idé och bör förhindras genom ett förbud mot offensiva autonoma vapen bortom meningsfull mänsklig kontroll”, avslutade de.

Trots den förbättrade noggrannheten och svarstiderna hos autonoma vapensystem saknar de kontextuella beslutsfattande och deduktiva resonemangsförmåga hos sina mänskliga motsvarigheter. De skulle kunna minska antalet offer, men det finns också en chans att de också kan göra krig farligare än det är nu, speciellt om den här tekniken skulle hamna i orätta händer.

Lämna en kommentar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *