“Hey Alexa, doe het keukenlicht aan.”
“Hey Google, speel rustgevende muziek op volume drie.”
“Hey Alexa, vertel me waar ik mijn sleutels kan vinden.”
Je kunt een Alexa- of Google-homeassistant vragen stellen over feiten, nieuws of het weer, en opdrachten geven voor alles waarmee je ze hebt gesynchroniseerd (lichten, alarmen, tv’s, enz.). Maar jouw helpen dingen te vinden is een vaardigheid die nog niet helemaal tot stand is gekomen; smart home-assistenten zijn in wezen zeer rudimentaire, auditieve ‘hersenen’ met beperkte functies.
Maar wat als thuisassistenten ook een ‘lichaam’ hadden? Hoeveel meer zouden ze voor ons kunnen doen? (En wat als het antwoord is “meer dan we willen”?)
Als de AI-onderzoeksdoelstellingen van Facebook succesvol zijn, zal het misschien niet lang duren voordat thuisassistenten een geheel nieuwe reeks mogelijkheden krijgen. Vorige week kondigde het bedrijf nieuw werk aan dat gericht is op het bevorderen van wat het ‘belichaamde AI’ noemt: in feite een slimme robot die door je huis kan bewegen om je te helpen dingen te onthouden, dingen te vinden en misschien zelfs dingen te doen.
Robots die horen, thuisassistenten die zien
In de blogpost van Facebook over audiovisuele navigatie voor belichaamde AI, wijzen de auteurs erop dat de meeste robots van tegenwoordig “doof” zijn; ze bewegen zich door ruimtes puur op basis van visuele waarneming. Het nieuwe onderzoek van het bedrijf heeft tot doel AI te trainen met behulp van zowel visuele als audiogegevens, zodat slimme robots objecten die geluid maken kunnen detecteren en volgen, en geluiden kunnen gebruiken om een fysieke ruimte te begrijpen.
Het bedrijf gebruikt een dataset genaamd SoundSpaces om AI te trainen. SoundSpaces simuleert geluiden die jij in een binnenomgeving zou kunnen horen, zoals het openen en sluiten van deuren, stromend water, het spelen van een tv-programma of het overgaan van een telefoon. Bovendien varieert de aard van deze geluiden op basis van waar ze vandaan komen; het midden van een kamer versus een hoek ervan, of een grote, open kamer versus een kleine, afgesloten ruimte. SoundSpaces bevat geometrische details van ruimtes zodat de AI kan leren navigeren op basis van audio.
Dit betekent, zo legt Facebook uit, dat een AI “nu kan reageren op ‘ga de rinkelende telefoon zoeken’ in plaats van ‘naar de telefoon te gaan die 7 meter ten zuidwesten van je huidige positie ligt’. Het kan de doelpositie zelf ontdekken met behulp van multimodale detectie. “
Het bedrijf introduceerde ook SemanticMapnet , een kaarttool die kaarten op pixelniveau van binnenruimten maakt om robots te helpen deze te begrijpen en te navigeren. Jij kunt eenvoudig vragen over jouw huis of kantoorruimte beantwoorden, zoals ‘Hoeveel meubels staan er in de woonkamer?’ of “Tegen welke muur van de keuken staat een foto?” Het doel van SemanticMapnet is dat slimme robots hetzelfde kunnen doen – en ons helpen dingen in het proces te vinden en te onthouden.
Deze tools breiden uit op de Replica-dataset en het Habitat-simulatorplatform van Facebook , dat medio 2019 is uitgebracht.
Het bedrijf stelt zich voor dat zijn nieuwe tools uiteindelijk worden geïntegreerd in augmented reality- brillen, die allerlei details over de omgeving van de drager opnemen en die details kunnen onthouden en op verzoek kunnen oproepen. Mike Schroepfer, chief technology officer van Facebook, zei tegen CNN Business : “Als je deze systemen kunt bouwen, kunnen ze je helpen herinneren aan de belangrijke delen van je leven.”
Slimme assistenten, domme mensen?
Maar voordat we deze tools omarmen, moeten we de diepere implicaties ervan overwegen. Willen we ons niet de belangrijke delen van ons leven kunnen herinneren zonder hulp van digitale assistenten?
Neem GPS als voorbeeld. Voordat het kwam, waren we perfect in staat om van punt A naar punt B te komen met behulp van papieren kaarten, schriftelijke instructies en ouderwetse hersenkracht (en misschien af en toe stoppen om een ander mens naar de weg te vragen). Maar nu vertrouwen we blindelings op onze telefoons om ons door elk blok van onze reizen te leiden. Je kunt nu zelfs makkelijk nagaan als er een file is aan de Zwartenhovenbrugstraat. Heb je ooit gemerkt hoeveel moeilijker het lijkt om je weg te leren naar een nieuwe plaats?
De ogenschijnlijk allesomvattende wijsheid van digitale tools kan ons ertoe brengen ze zonder twijfel te vertrouwen, soms ten nadele van ons (zowel op indirecte manieren – met minder gebruik van onze hersenen – als directe manieren, zoals autorijden in een kantaal omdat de GPS het zei).
Het lijkt erop dat hoe meer van ons denken we uitbesteden aan machines, hoe minder we zelf kunnen denken. Is dat een verstandige trend om mee door te gaan? Hebben we echt slimme robots nodig of willen die ons laten vertellen waar onze sleutels zijn, of dat we vergeten zijn het zout toe te voegen tijdens het koken?
Hoewel AI in staat stelt meer van onze cognitieve taken en functies op zich te nemen – om ons geheugen te worden, wat in wezen is waar de nieuwe technologie van Facebook naartoe aan het bouwen is – ons leven in sommige opzichten gemakkelijker zal maken, zal het ook verborgen kosten of onbedoelde gevolgen met zich meebrengen , zoals de meeste technologieën doen. We moeten ons niet alleen bewust zijn van deze gevolgen, maar ze zorgvuldig afwegen tegen de voordelen van een technologie voordat we deze in ons leven – en ons huis – integreren.