Voormalig Google VP: Machines emotioneel intelligent in 2016

Pepper, de emotioneel intelligent humanoïde van Aldebaran

meer robotica

Andrew Moore, de decaan van de Carnegie Mellon School of Computer Science en voormalig vice-president van Google, net vertelde me iets spannends. Moore voorspelt dat 2016 een snelle verspreiding van het onderzoek op de machine emotioneel inzicht in machines zullen zien. Robots, smartphones en computers zal heel snel beginnen te begrijpen hoe we voelen en in staat om dienovereenkomstig reageren.

Het team achter de Walk Again Project wilde verlamde patiënten te leren hoe te lopen met behulp van robot been steunen, maar de resultaten waren veel beter dan verwacht.

Er zullen direct een positieve toepassingen, “legt hij uit via de telefoon.” Bewaking van een patiënt in de ER met een emotioneel intelligente computer zullen artsen in staat stellen om het ongemak te voelen wanneer de patiënt niet in staat te communiceren is. Meten student betrokkenheid door te kijken naar een emotionele reactie van leerlingen zal helpen leerkrachten effectiever zijn. Die zijn duidelijk wint.

[Meer informatie over robots in het onderwijs? Voorgestelde lezing: Telepresence robots beam psychologen in scholen]

Maar, waarschuwt Moore, de overgang naar emotioneel bewust gadgets kan hobbelig zijn.

“Als het gaat om zaken als reclame, kan dit ongemakkelijk gevoel. Ik heb een achtergrond in de reclame op het internet en als ik was niet druk als een deken ik zou de lancering van een startup om uw tablet in te schakelen om u te kijken terwijl je webpagina’s in te lezen om te zien of u positief of negatief bent te reageren. ”

Het is niet moeilijk om te zien hoe waardevol deze informatie zou zijn voor adverteerders, noch is het waarschijnlijk dat de technologie zal vooraf zonder zware controle en kritiek.

Robotics; Consumer Watchdog eist transparantie van Uber, robotica, Google’s Project Wing drones zal Chipotle burrito’s te leveren aan Virginia Tech, robotica, robotica start-up wint contract met gigantische Duitse logistiek bedrijf, robotica, Volvo en Autoliv kondigen nieuwe autonome rijden softwarebedrijf

Omdat mensen geven een aantal waarneembare aanwijzingen over hoe ze zich voelt, zowel bewust als onbewust, heeft het onderzoek op dit gebied meerdere parallelle paden genomen. Voice patronen kan onthullen stress en spanning en de beweging van de gezichtsspieren biedt een onthullende kaart van innerlijke toestand van een persoon. Een van de grootste doorbraken naar emotionele sensing door machines is eigenlijk vrij alledaags.

“Camera’s zijn nu een hogere resolutie. High res camera’s kunnen kleine bewegingen op het gezicht en zelfs individuele haren te volgen.”

Robotici en computer wetenschappers hebben vooruitgang in de machine vision toegepast op een bestaande lichaam van het onderzoek uit het veld van de psychologie op emotionele signalen. Op dit moment zijn de meeste emotioneel intelligente machines oppakken op dezelfde soorten emotionele signalen die mensen oppikken, zoals lichaamstaal en gezichtsuitdrukkingen bewegingen. Maar er is de verleidelijke mogelijkheid dat machine learning kunnen worden gebruikt om machines in staat om erachter te komen nog betere strategieën voor het interpreteren van emoties door het meten van signalen die we niet kunnen oppikken, of op zijn minst zijn zich niet bewust van. Uiteindelijk kan dit leiden tot apparaten die meer emotioneel scherpzinnig dan de mens.

We hebben al een aantal indrukwekkende voorbeelden van emotionele intelligentie in machines gezien. Aldebaran’s Pepper robot, die debuteerde als een in-store receptionist bij Softbank winkels in Japan voordat ze verkocht aan de consument, is verfijnd genoeg om grappen te maken met mensen en meten hun reactie. Op basis van deze input, peper maakt gebruik van machine learning algoritmen om haar sociaal gedrag te verfijnen.

Aan de Universiteit van Pittsburgh, psychologie onderzoeker Jeff Cohn leert machines om gezichtsuitdrukkingen en prosodie lezen, de geluiden gebruikt bij het spreken, om te detecteren of behandelingen voor depressie werken. En aan de Carnegie Mellon, waarbij Moore houdt toezicht op de School of Computer Science, Professor Justine Cassell heeft gedaan studies waarin kinderen omgaan met geanimeerde karakters in een educatieve omgeving. Niet verrassend, ze vond dat betrokkenheid en leerresultaten zijn veel hoger wanneer de gesimuleerde personage daadwerkelijk reageert op emotionele toestand van een kind.

Onze cijfers geven aan dat docenten en studenten zijn echt in dit gebied, “zegt Moore.” We hadden een lid van de faculteit werken aan dit drie jaar geleden, nu zijn er zes. Computer vision heeft zich bewezen zichzelf en emotionele intelligentie in machines gaat naar de volgende fase.

Met apparaten zoals Jibo en Amazon’s Echo hun weg in de huizen, het is niet vergezocht om te geloven dat je table-top personal assistant binnenkort in staat zal zijn om tegemoet te komen aan uw humeur, het afspelen van muziek, het aanbieden van herinneringen, en het maken van suggesties op basis van hoe je je voelt .

Consumer Watchdog eist transparantie van Uber

Project Wing drones Google zal Chipotle burrito’s te leveren aan Virginia Tech

Robotica start-up wint contract met gigantische Duitse logistiek bedrijf

Volvo en Autoliv kondigen nieuwe autonome rijden softwarebedrijf