Facebook lär sin AI att hitta personer som riskerar att begå självmord

De senaste månaderna har Facebook mött en motreaktion från sina egna grundare och tidigare anställda. Sean Parker sa att han, tillsammans med Mark Zuckerberg, medvetet skapade det sociala nätverket för att utnyttja en ”sårbarhet i mänsklig psykologi” och uttryckte oro över vad det gör med våra barns hjärnor. Medan uppfinnaren av Gilla-knappen, Justin Rosenstein, erkände att han beklagade att han hjälpte till att göra människor besatta av sociala medier.

Facebook lär sin AI att hitta personer som riskerar att begå självmord

I ett försök att ångra en del av denna skada på ryktet och verkligen hjälpa sina användare, har Facebook tillkännagett planer på att utöka sina verktyg för att förebygga självmord.

LÄS NÄSTA: Känner du dig deprimerad? Hur man får hjälp och support online

Det är inte ett helt nytt initiativ – självmordsförebyggande verktyg har varit en del av Facebook i mer än ett decennium – men företaget trappar upp sitt spel med användningen av AI. Med utgångspunkt i en nyligen genomförd rättegång i USA använder Facebook mönsterinlärning på inlägg som tidigare flaggats för självmord, i hopp om att sajten kan gå in även utan en manuell rapport. Det är helt klart en svår linje att beträda när det gäller integritet kontra säkerhet, och därför har Facebook ett par smaker för detta.

Den första är i form av en knuff för användarnas vänner. Om AI:n upptäcker ett textmönster som matchar tidigare självmordsrapporter, är det troligt att alternativet att rapportera inlägget för ”självmord eller självskada” kommer att synas mer framträdande vid sidan av det, vilket gör det lättare för vänner att ingripa.facebook_självmordsförebyggande

Det har också testat en funktion som automatiskt skulle flagga dessa inlägg för granskning av företagets community operations team. Om AI:s misstankar bekräftas av ett mänskligt öga, kommer webbplatsen att tillhandahålla resurser för personen även utan ingripande från deras vänner. I ett inlägg på hans personlig Facebooksida, förklarade Zuckerberg: ”Från och med idag uppgraderar vi våra AI-verktyg för att identifiera när någon uttrycker tankar om självmord på Facebook så att vi kan hjälpa dem att snabbt få det stöd de behöver. Bara under den senaste månaden har dessa AI-verktyg hjälpt oss att snabbt få kontakt med första responders mer än 100 gånger.

”Med all rädsla för hur AI kan vara skadligt i framtiden, är det bra att påminna oss själva om hur AI faktiskt hjälper till att rädda människors liv idag.”

Självmord är en ledande dödsorsak bland unga människor och Facebook sa att de arbetar nära med Save.org, National Suicide Prevention Lifeline ’1-800-273-TALK (8255)’, Framkant Suicide Prevent, och med första responders för att kontinuerligt förbättra programvaran.

Hur personer i riskzonen kommer att reagera på en AI-intervention är en öppen fråga, och en fråga som helt enkelt kan skjuta beteendevarningsskyltar bort från Facebooks nyfikna ögon. Balansen mellan integritet och brådska att agera är helt klart en som har varit en intern källa till debatt. Facebooks produktchef Vanessa Callison-Burch berättade för BBC företaget måste balansera effektiva svar mot att vara för invasiv – genom att direkt informera vänner och familj, till exempel. ”Vi är känsliga för integritet och jag tror att vi inte alltid känner till den personliga dynamiken mellan människor och deras vänner på det sättet, så vi försöker göra något som erbjuder stöd och alternativ,” förklarade hon.

Även om AI inte tidigare har integrerats i Facebooks mer realtidstjänster, har företaget försökt göra både Facebook Live och Messenger mer användbara för människor i kris också. Befintliga verktyg för att nå ut eller rapportera har byggts in i Facebook Live-sändningstjänsten, och Messenger har nu möjlighet för användare att ansluta till supporttjänster i realtid, inklusive Crisis Text Line, National Eating Disorders Association och National Suicide Prevention Livlina.facebook_prevent_suicide

I en blogginlägg När företaget tillkännagav den nyligen genomförda rättegången förklarade företaget sina motiv: främst att det har makten att göra skillnad. ”Experter säger att ett av de bästa sätten att förebygga självmord är att de i nöd hör från människor som bryr sig om dem”, står det i blogginlägget. ”Facebook har en unik position – genom vänskap på sajten – för att hjälpa en person i nöd att få kontakt med människor som kan stödja dem.”

Det kan mycket väl vara sant, men det skulle vara dumt att ignorera det bredare klimatet där dessa uppdateringar har kommit. I år har redan sett en siffra av rapporterad sändningar av självmord på Facebook Live – och även om det är möjligt att dessa ytterligare verktyg inte skulle ha gjort något för att förhindra dem, är det inte bra om det sociala nätverket kan ses ignorera problemet.

LÄS NÄSTA: Topp i självmordssökningar kopplade till 13 Reasons Why

Det är inte första gången Facebook har använt artificiell intelligens för att försöka göra det till en mer välkomnande plats: redan i april 2016 meddelade sajten att den använder AI för att beskriva innehållet i bilder för sina synskadade användare. Med tre labb dedikerade till AI-forskning, och nästan två miljarder användare för artificiell intelligens att lära sig av, är det osannolikt att detta är sista gången Facebook försöker lösa ett problem med maskininlärning.

Det är inte heller första gången AI används på detta sätt i ett försök att identifiera personer i riskzonen. Med hjälp av en neural dekoder som tidigare tränats för att identifiera känslor, såväl som komplexa tankar, utvecklade forskare från University of Pittsburgh och Carnegie Mellon University nyligen en algoritm som kan upptäcka tecken på självmordstankar och självmordsbeteende.

LÄS NÄSTA: Självmord, depression och teknikindustrin

Forskarna tillämpade sin maskininlärningsalgoritm på hjärnskanningar och programvaran identifierade korrekt om en person var i en riskgrupp med 91 % noggrannhet med hjälp av förändringar i deras hjärnaktiveringsmönster.

Ett uppföljningstest såg att AI tränades specifikt på hjärnskanningar av de i gruppen kopplade till självmordstankar för att se om programvaran kunde identifiera de som tidigare hade försökt begå självmord. Det var korrekt i 94 % av fallen.

Om du eller en nära och kära har påverkats av frågorna som tas upp i den här berättelsen kan du få stöd och råd i vår onlinehjälp- och supportguide. Du kan också nå samariter gratis 24 timmar om dygnet på 1116 123 eller supportgruppen Campaign Against Living Miserably (CALM) speciellt för unga män på 0800 585858.

Lämna en kommentar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *