Overslaan en naar hoofdinhoud gaan

Data & Intelligence maart 23, 2018

SXSW 2018: AI heeft een overmoedigheidsprobleem

Image

Technologische vooruitgang schept grotere verwachtingen dan het daadwerkelijk vervult. Dat geldt zeker voor AI en machine learning, maken enkele pijnlijke voorbeelden duidelijk. Tijdens SXSW kwam het dubbele gevoel over deze nieuwe technologieën bovendrijven.

Vorig jaar bestelde een meisje uit Dallas per ongeluk een poppenhuis van 170 dollar en twee kilo aan koekjes na een gesprek met Alexa. Grappiger was dat een paar dagen later, nieuwslezer Jim Patton van CW6 het commando herhaalde in een nieuwsitem, waarna bij nog een aantal kijkers het bestelproces voor een poppenhuis werd gestart. Ook South Park speelde leuk in op de aandacht omtrent de populaire assistent en zette tijdens de eerste aflevering van seizoen 21 iets banaals op de boodschappenlijst van legio kijkende Echobezitters.

De dubbelzinnigheid van bovenstaande voorbeelden staat symbool voor het dubbele gevoel dat we op dit moment hebben ten aanzien van kunstmatige intelligentie. We zien de kracht maar ook de fragiliteit, aldus Josh Clark tijdens zijn talk ‘Design in the era of the algorithm’ op dag twee van SXSW. Hij stelt dat technologische vooruitgang grotere verwachtingen schept dan het daadwerkelijk vervult. 

Het gevolg is dat we als designers, developers en gebruikers dubben tussen gevoelens van magie en ontgoocheling. Wie zelf wel eens een discutabele suggestie heeft zien verschijnen in de vorm van een autocomplete of featured snippet van Google kent dat gevoel. Er zijn hele websites gewijd aan deze voorbeelden, van grappig tot ronduit schokkend. Zorgelijker is dat Google Home deze featured snippets ook gebruikt als gesproken antwoorden op vragen, waarbij de context van de onderbouwing onzichtbaar blijft.

Het werpt een licht op een groter probleem. De stelligheid waarmee AI’s vragen beantwoorden impliceert de eenzijdigheid van het antwoord zelf, iets wat in realiteit vaak ingewikkelder ligt. Dat de interface er niet in slaagt om de juiste verwachting of context te scheppen maakt dit zowel een design- als een data probleem. De primaire uitdaging voor designers lijkt daarom om wat bescheidenheid aan te brengen om de overmoedigheid van AI te temmen. Maar hoe?

AI als design material

Het begint allemaal met wegnemen van het beeld dat AI een development-feestje is. Designers hebben een fundamentele rol in de ontwikkeling van AI. Hetzelfde geldt voor het beeld dat werken met AI’s gecompliceerd en abstract is. AI en Machine Learning services zijn toegankelijker dan ooit. Als je een website bij Amazon host mag je gebruik maken van de Alexa API. Als je op Google Cloud zit mag je gebruik maken van hun vision, speech en langauge API’s. En bij Microsoft kan je zelfs zonder iets af te nemen gebruikmaken van de Cognitive Services. En ook de code is heel toegankelijk voor iedereen met een beetje gedegen programmeerkennis. Elk design-development koppel kan dus vandaag beginnen iets moois te bouwen met AI.

Precisie over snelheid

Vervolgens gaat het om het maken van de juiste UX overwegingen. Voor de hand liggend lijkt om precisie te prioriteren boven snelheid. Echter lijkt exact het tegenovergestelde te gebeuren in de race naar de beste digitale assistent. Het bepalen van een goed omslagpunt tussen op welke vraag een antwoord moet worden gegeven en waarop (nog) niet is daarmee cruciaal voor de intelligentie van een assistent. Dat omslagpunt hoeft overigens niet binair te zijn. Het het nuanceren van het antwoord met een voorbehoud als ‘waarschijnlijk…’, ‘het lijkt erop dat…’ of ‘de meerderheid van de mensen vindt…’ zijn prima uitgangspunten.

Menselijke fallback

Een ander goed idee is het inbouwen van een menselijke fallback in het geval van geen of een onvoldoende zeker antwoord. In het geval van een digitale assistent als Alexa of Google Home wellicht ondoenlijk, maar op iets kleinere schaal een prima oplossing, zeker als het gevoeligere informatiegebieden betreft. Facebook deed dit vrij succesvol met het prototype van haar digitale assistent ‘M’ en ook in de hoek van autonome voertuigen zijn er verschillende onderzoeken die uitwijzen dat een geleidelijke hand-off niet alleen verstandig is om de gebruiker te laten wennen aan de AI, maar ook andersom.

Gemixte intelligenties

Een AI is zo goed als zijn zwakste dataset. Daarom kan het verstandig zijn om verschillende AI’s aan te roepen bij het zoeken naar een antwoord. Google is heel ver op het gebied van algemene kennis, maar Alexa is beter thuis in consumentenproducten en Microsoft verder in biometrie. Daarnaast zijn er nog vele andere autoriteiten op specifieke deelgebieden die ontsloten kunnen worden. Ook zou een tweede AI kunnen fungeren als ‘second opinion’ of als controlemechanisme op de kwaliteit en betrouwbaarheid van de gegeven informatie.

Laat gebruikers bijdragen

Tot slot zijn ook menselijke interventie en correctie van data essentiële componenten voor verdere ontwikkeling van AI’s. Facebook herkent na een tijdje het gezicht van mensen die een aantal keer zijn getagd automatisch. Door menselijke interventie kunnen ook vooroordelen of verkeerde aannames worden aangepast of in ieder geval aangemerkt. Want daarvan hebben we er vooralsnog nog wat teveel van om AI écht intelligent te kunnen noemen.

Meer weten? Wij helpen je graag!