Teknikbranschen har ett mångfaldsproblem, det är inget nytt. Detta mångfaldsproblem har dock skadliga konsekvenser för framtiden för utveckling av artificiell intelligens, hävdar World Economic Forum AI och maskininlärningschef Kay Firth-Butterfield.
När Firth-Butterfield talade vid ett evenemang i Tianjin, Kina, flaggade frågan om fördomar inom AI-algoritmer och efterlyste behovet av att göra branschen ”mycket mer mångsidig” i väst.
”Det har funnits några uppenbara problem med AI-algoritmer,” sa hon CNBC, och nämner ett fall som inträffade 2015, när Googles bildigenkänningsprogram märkte en svart man och hans vän som ”gorillor”. Enligt en rapport som publicerades tidigare i år av Trådbunden, Google har ännu inte åtgärdat det här problemet ordentligt – väljer istället att helt enkelt blockera söktermer för primater.
”När vi har sett fler och fler av dessa saker dyka upp, så har den etiska debatten kring artificiell intelligens blivit mycket större,” sa Firth-Butterfield. Hon noterade också utbyggnaden av den allmänna dataskyddsförordningen (GDPR) i Europa, och hävdade att detta har väckt etiska frågor om data och teknik ”till förgrunden”.
LÄS NÄSTA: Elon Musk varnar för att AI är ”utanför mänsklig kontroll”
Dominansen av ”vita män i en viss ålder” inom byggteknik signalerades som en grundorsak till att partiskhet kryper in i algoritmerna bakom AI. Att träna maskininlärningssystem på rasmässigt ojämna datauppsättningar har tidigare noterats som ett problem, särskilt inom mjukvara för ansiktsigenkänning.
Ett experiment som genomfördes tidigare i år kl Massachusetts Institute of Technology (MIT) involverade till exempel att testa tre kommersiellt tillgängliga ansiktsigenkänningssystem, utvecklade av Microsoft, IBM och det kinesiska företaget Megvii. Resultaten fann att systemen korrekt identifierade vita mäns kön 99 % av gångerna, men denna framgångsfrekvens sjönk till 35 % för svarta kvinnor. Detsamma gällde Amazons igenkänningsprogram, som felidentifierade 28 medlemmar av den amerikanska kongressen som brottslingar.
Dr Adrian Weller, programchef för artificiell intelligens vid Alan Turing Institute, berättade Alphr: “Algorithmiska system används i allt större utsträckning på sätt som direkt kan påverka våra liv, till exempel vid beslut om lån, anställning eller till och med straffrättsliga straff. Det finns ett akut behov av att se till att dessa system behandlar alla människor rättvist – de får inte diskriminera någon individ eller undergrupp på ett olämpligt sätt.
LÄS NÄSTA: Storbritannien står inför en kompetensflykt av AI när talang flyttar utomlands
”Detta är ett särskilt problem när maskininlärningsmetoder används för att träna system på tidigare mänskliga beslut som kan återspegla historiska fördomar.”
Weller noterade att ett växande arbete tar itu med utmaningen att göra algoritmer rättvisa, transparenta och etiska. Denna syn liknar den för Firth-Butterfield, som betonade att World Economic Forum försöker säkerställa att AI växer ”till mänsklighetens bästa”.
Mänsklig mångfald kanske inte är det enda problemet som AI-fördomar står inför. A nyligen genomförd studie av Cardiff University och MIT fann att grupper av autonoma maskiner kan visa fördomar genom att helt enkelt identifiera, kopiera och lära sig detta beteende från varandra.