Kan AI verkligen vara känslomässigt intelligent?

Är känslomässig AI verkligen nästa gräns för artificiell intelligens?

Kan AI verkligen vara känslomässigt intelligent?

I Drömmer Androids om elektriska får, ifrågasätter författaren Philip K Dick föreställningen att en konstgjord hjärna någonsin skulle kunna förstå känslor. Är det möjligt för en maskin att verkligen någonsin ha en känslomässig koppling till en människa om den inte kan empati eller uttrycka känslor själv?

Det som mycket väl kan ha varit science fiction 1968 är nu ett ämne som diskuteras bland många inom industrin för artificiell intelligens. När AI-utvecklingen går framåt tror många att känslomässig intelligens är vad som är nästa steg för branschen. Det är språngbrädan som driver en virtuell assistent från en enkel samtals- och svarshjälpare till något större – en följeslagare, en assistent, något mer än bara en robot.

”Föreställningen om att maskiner faktiskt har känslor verkar vara i science fiction-området”

Men finns det verkligen något sådant som känslomässig AI, och skulle det verkligen kunna användas för att ge känslor till artificiella sinnen? Detta var ämnet som diskuterades på Photobox grupps Tech Week paneldiskussion, värd Alphregen redaktionschef Victoria Woollaston.

”Föreställningen om att maskiner faktiskt har känslor verkar vara i science fictions rike”, hävdade teknikkonsulten Hugh Williams. ”Om du tänker på indata som leder till mänskliga känslor, är det ganska komplext… Dessa känslor genereras genom att bearbeta hundratals miljoner sensorer i din kropp. Det är en produkt av att vara människa.

”Det verkar osannolikt att vi skulle kunna komma i närheten av att återskapa samma resultat i en maskin – om det ens är vettigt att återskapa det i en maskin i första hand.”

Så om känslomässig AI inte ger AI kraften att använda känslor, vad är det då?

emotionell_ai_robot

Förstå känslomässig AI

En föreställning om känslomässig AI är den enkla handlingen att få det att verka som om robotar och AI faktiskt har mänskliga känslor, när de inte har det. Det är ett trick; konserverade svar på fasta situationer som ger oss människor en känsla av att det vi interagerar med är levande eller kapabelt att förstå oss.

Som Google Assistants tekniska ledare Behshad Behzadi förklarar kan du redan se detta tillvägagångssätt i Google Assistant. ”Om Google Assistant svarar på något fel uttrycker sig människor genom att kalla det dumt, och det ber om ursäkt. På samma sätt får vi massor av ”tack” när den gör vad som förväntas av den och den svarar därefter.”

LÄS NÄSTA: Ett sjukhus i London vill ersätta läkare med AI

Genom att ge Google Assistant en viss grad av personlighet, som att kunna be om ursäkt för att ha fel eller visa tacksamhet när de beröms, får det folk att känna att de verkligen lyssnar. Det måste visa att det inte bara är en robotenhet utan något som folk vill komma tillbaka och använda gång på gång, även om det artiga svaret inte är så mycket mer avancerat än att trycka på en dörrklocka och höra en ringsignal.

”Istället för att människor försöker förstå hur man arbetar med maskiner, måste vi få maskiner att förstå människor”

”Istället för att människor försöker förstå hur man arbetar med maskiner, måste vi få maskiner att förstå människor”, fortsätter Behzadi. ”Det är här som känslomässig AI kan överbrygga den klyftan. När en maskin kan förstå en användares känslomässiga tillstånd leder det till mer naturliga svar och användbara interaktioner.”

Emotionell AI har dock en annan användning. Istället för att ge maskiner känslor att leka med som ett verktyg för att övertyga användare om att de förstår det mänskliga tillståndet, kan emotionell förståelse ge en AI mer sammanhang för en användares handlingar. Om den vet att du är arg kan den ta reda på varför utifrån den situation du befinner dig i. På samma sätt, om samma dåliga situation inträffar men en användare verkar glad, kan problemet behöva hanteras på ett annat sätt.

”Det finns mycket mer vi kan göra för att känna igen de olika känslotillstånden [of our customers] och sätta in dessa regler i våra produkter”, medgav Clare Gilmartin, VD för The Trainline. ”Känslomässiga tillstånd kan göra skillnad för hur du reagerar när ditt tåg är försenat. Antingen kommer du hem sent eller så kanske du ligger lite efter på din vackra tågresa från Comosjön till Milano.”

LÄS NÄSTA: Trainline kommer att använda AI för att skicka personliga avbrottsvarningar

Det finns ett behov av de tjänster som människor använder för att kunna spela in och svara på vad det är du tänker och känner. Att använda känslomässig AI i en tjänst innebär att du får de svar och resultat du vill ha vid tillfället, istället för att behöva filtrera igenom bruset själv.

emotionell_ai_robot_plant

Känslomässigt störande?

Om konceptet med en känslomässigt medveten AI skickar några rysningar längs din ryggrad, är det helt enkelt för att vi lever i en värld där virtuella assistenter fortfarande inte riktigt är normen. Men som med allt annat kommer detta att förändras med tiden.

”När en generation växer upp med dessa [virtual assistant] enheter som en del av deras dagliga liv, kommer interaktioner med dem att vara mycket mer naturliga”, hävdar Behzadi. Inom de närmaste tio åren ser han för sig en situation där ”du alltid kommer att ha en assistent som du kommer att kunna prata med. Något du kan anförtro dig till men också något som kan hjälpa dig.

”Idag anförtror folk sig bara ibland till sina enheter, men i framtiden kommer det att vara något som är mycket vanligare.” Amazon Echo for Kids, till exempel, råder barn att prata med vuxna om problem som ligger utanför dess ansvarsområde, som mobbning.

Som Behzadi ser det betyder uppkomsten av känslomässig AI att dessa naturliga diskussioner kan hända. Även om den är något skrämmande, kan världen av Spike Jonzes Her vara rimlig – en plats där en känslomässig koppling kan bildas mellan en människa och en maskin.

Vi ser AI som ett problemområde delvis för att det kommer att vara ansvarigt för så många moraliska val i framtiden. Williams tror dock att när den yngre generationen har en större förståelse för hur AI fungerar och vilken roll det spelar i våra dagliga liv, kommer vi att se en bredare pool av kreativa influenser komma in i bilden.

LÄS NÄSTA: Denna AI kan se genom väggar för att spåra dina rörelser

För närvarande bestäms AI:s kritiska beslutsfattande av ett gäng programmerare och deras moraliska kompass. Även om detta område börjar diversifieras, är det verkligen ett vitt mansdominerat utrymme, knappast allomfattande synpunkter på hur en AI opartiskt kan navigera i världen. Med tiden tror Williams att detta kommer att förändras.

”Vi kommer att behöva människor från olika bakgrunder för att hjälpa oss bygga AI:er för mänskligheten som helhet”

”Om ett par år kommer vi att se människor komma ut från universitetet som sociologer och psykologer, men med en förståelse för vad teknik kan göra”, förklarar han. ”Det kommer att göra det möjligt för dem att komma med en djupare nivå av insikter än de som kom före dem.

”Vi kommer att hitta dessa människor som sitter bredvid datavetare i framtiden och hjälper oss att ta itu med problemen kring känslomässigt medveten AI. Vi kommer att behöva andra människor med olika bakgrunder och kompetenser inom organisationer för att hjälpa oss bygga AI:er för mänskligheten som helhet.”

emotionell_ai_robot_error

Känslomässigt farligt

Att diversifiera utbudet av förståelse en AI har ur en kulturell och samhällelig synvinkel är uppenbarligen fantastiskt. Men det finns en annan sida av känslomässig AI som gör mig lite orolig – och det är en som inte kan besvaras på ett tillfredsställande sätt, trots panelens bästa avsikter: Vad händer när du beväpnar en AI med förmågan att förstå känslor men, avgörande, inte känna det ? Att skapa en sociopatisk AI kan vara en katastrof som väntar på att hända.

”Vi måste verkligen titta på effekterna av det vi gör med teknik”, säger Richard Orme, Photobox Group CTO. ”Den verkliga frågan vi måste ställa är inte om vi kan göra något eller inte, utan om vi ens borde göra något.”

”Vi måste verkligen titta på effekten av det vi gör med tekniken”

Photobox Groups syn på känslomässigt intelligent AI är visserligen inte riktigt läskig på Skynet-nivåer, det är helt enkelt för att hjälpa kunder att snabbt bygga minnesvärda skräddarsydda fotoalbum. Men panelen anser att det är avgörande att förstå dess inverkan på kunderna, tillsammans med de bredare implikationerna av emotionell AI:s tillämpningar, oavsett vad du arbetar med.

LÄS NÄSTA: Möt Norman, ”världens första psykopat AI”

”Det börjar med att förstå effekten [of emotional AI on humans] och hur man mäter den effekten”, fortsätter Orme. ”Verkligheten är att vi kanske inte genererar genuint känslomässigt intelligenta maskiner, men de kan designas för att svara på ett visst sätt och vara designade för att ha en viss typ av inverkan på de människor de interagerar med.”

Ormes åsikter om ansvarsfull användning av känslomässig AI upprepas av de andra paneldeltagarna. Till exempel anser Gilmartin att teknikföretag som har tillgång till denna teknik, som The Trainline, Google eller Photobox Group, alla har en etisk och moralisk plikt att förstå precis vad det är de bygger med AI.

Oavsett om det är Google som använder AI för att organisera världens information eller att The Trainline utnyttjar tekniken för att hålla pendlarna nöjda, måste alla applikationer och företag som letar efter Emotional AI-system förstå precis vad de verkligen vill uppnå.

”I slutändan,” förklarade Gilmartin, ”måste det finnas något slags syfte bakom det vi gör med känslomässig AI”.

Lämna en kommentar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *