Detta märkliga AI-”kamouflage” kan hindra dig från att identifieras av ansiktsdetekteringsprogram

Utrymmet för att ansiktsdetektion ska kunna användas för storskalig övervakning har bara börjat inse.

I september i år, Moskva anslutit sitt CCTV-nätverk till ett ansiktsigenkänningssystem. New York planerar att lansera ansiktsdetektion över broar och tunnlar. Londons databas för ansiktsigenkänning har kritiserats för att gå ”långt bortom vårdnadssyfte”, och Kina tar allt detta till en helt ny nivå av total statlig övervakning.

Men uppfinningen av skeppet ledde också till att piraten uppfanns. Ett antal projekt har lanserats som visar hur dessa detekteringssystem kan spoofas, kringgås eller kapas. Det senaste är ett stycke datorseendeforskning från University of Illinois, som använder kamouflage för att lura neurala nätverksobjektdetektering.

Denna metod bygger på ”motstridiga exempel”; ett sätt att attackera ett maskininlärningssystem med lätt modifierade data – ofta omärkliga för en människa – som är tillräckligt olika för att systemet ska kunna felklassificera. I deras papper, Jiajun Lu, Hussein Sibai och Evan Fabry förklarar att ”om det finns motstridiga exempel som kan lura en detektor, kan de användas för att (till exempel) uppsåtligt skapa säkerhetsrisker på vägar som är befolkade med smarta fordon.”

object_detection

För att demonstrera detta skapade teamet ”tre motstridiga stoppskyltar”, utformade för att blockera den typ av objektdetektering som används av autonoma bilar. När dessa förvrängda bilder skrevs ut och klistrades på faktiska stoppskyltar var det bara det mest extrema exemplet som inte upptäcktes av objektdetekteringssystemet.

Forskarna hade bättre tur med att förfalska ansiktsdetektering genom att använda en Google DeepDream-liknande mask för att förvränga en försökspersons egenskaper. Denna digitala attack innebar att kamouflaget överlagrades på en redan existerande del av video, som tidningen beskriver: ”Vi tillämpar vår attackmetod på en träningsuppsättning videor för att generera en motstridig störning i korsvisningstillstånd, och tillämpar den störningen på denna testsekvens för att generera den attackerade sekvensen.”

Eftersom kamouflaget går ut på att träna det attackerande systemet på en specifik video, skulle det förmodligen användas för att manipulera bilder för att göra vissa personer omöjliga att upptäcka – snarare än att blockera en person i realtid. Andra har dock undersökt det senare. Förra året lyckades forskare vid Carnegie Mellon University skapa ansiktsigenkännande-lurande bågar för glasögon, som liknar något Timmy Mallett skulle bära.

Dessa färgglada glasögon kan vara omärkliga för ansiktsdetektionsövervakning, men de är långt ifrån osynliga för alla andra i rummet.

Bilder: Jiajun Lu, Hussein Sibai och Evan Fabry

Lämna en kommentar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *