Mjukglass i strut, med strössel på

One-shot learning: människa vs AI

Människor har ett medfött försprång gentemot AI, åtminstone på det sätt vi ofta definierar intelligens.

Min treåriga dotter, Vega, har varit med mig på mina två olika kontor. För någon månad sedan tog vi bilen till VGR-kontoret bredvid centralstationen. Efter att ha vandrat runt säkert en halvtimme i den miljön råkade vi hitta en kyl med glassar till dotterns stora förtjusning och vi köpte en Piggelin. Andra gången hon följde med mig till mitt jobb åkte vi till mitt andra kontor. Vi tog cykeln till Stenpiren och åkte färja över älven till kontoret på Lindholmspiren där Göteborgsnoden av AI Innovation of Sweden ligger.

Snabblärd eller overfitting?

Vad har detta med AI vs människor att göra? Jo, den lilla treåringen går runt på det här andra kontoret, en plats hon aldrig tidigare sett, och undrar var det finns en kyl med glassar någonstans. Precis som med fula ord lärde hon sig kopplingen mellan kontorsmiljön och glass på första exponeringen. Lite lustigt eftersom AI Innovation of Swedens uppdrag är att vara ett nationellt center för tillämpningen av (artificiell) intelligens, forskning och innovation. Här kommer en treåring på besök, drar lite slutsatser om miljön, generaliserar från högst begränsade tidigare erfarenheter och kommer fram till att det här är en bra miljö. Sannolikheten är hög att här finns glass!

Man kan verkligen anklaga henne för att ha dragit förhastade slutsatser kring förekomst av glass på arbetsplatser, så kallad overfitting, men den här typen av generalisering av intryck är typisk för människor. Vi föds praktiskt taget hjälplösa, med vissa grundinställningar, med en neuroplastisk hjärna och redo att anpassa oss efter en föränderlig miljö.

Den här typen av lärande, one-shot learning, är ett känt problem för artificiell intelligens. Men bevisligen inte för människor. De flesta människor känner igen en människa de bara träffat en gång tidigare, vi behöver inte några stora datamängder för att känna igen vår egen mormor, varken på bild eller i verkligheten.

”In the 1960s neurobiologist Jerome Lettvin named the latter idea the “grandmother cell” theory, meaning that the brain has a neuron devoted just for recognizing each family member. Lose that neuron, and you no longer recognize grandma.”
One Face, One Neuron (Scientific American)

Det är något med vår hjärna som gör oss extremt kompetenta med ansikten. Vi har desto svårare att känna igen folks fingeravtryck eller andra särskiljande faktorer. Det är förstås en evolutionär fördel att känna igen och kunna tolka ansikten och deras uttryck. Så den här förmågan är något som vuxit fram under oerhört lång tid. Kanske inte ända tillbaka till våra vattenlevande förfäder, men säkerligen länge då vi inte är den enda djurarten som känner igen andra individer.

Förstärkt inlärning

Min dotter har fram till nyligen haft ett uttryck för det AI-folk skulle klassificera som antingen kostnads- och belöningsfunktion inom förstärkt inlärning. Hon uttrycker det kort och kärnfullt att något antingen är, eller inte är, ‘glassen’.

Åka färja över Göta älv är definitivt ‘glassen’ enligt Vega. Att inte få ha napp på förskolan är absolut inte ‘glassen’.

Generell artificiell intelligens behöver en hybrid av kunskap

En löst relaterad AI-diskussion är den Gary Marcus leder om att kombinera klassisk GOFAI (Good Old-Fashioned AI) med djupinlärning. Skillnaden är att med GOFAI lär en expert upp en AI genom att definiera regler AI:n ska följa. Med djupinlärning, och maskininlärning generellt, lär sig maskinen själv utan att uttryckligen instrueras - den lär sig genom att beakta och bearbeta data.

Gary tar bland annat upp det i sin senaste bok Rebooting AI, men du kan också lyssna på avsnittet av AI-podden från februari där Gary pratar med Ather Gattami. Ett annat bra avsnitt är det med Stuart Russell från UC Berkeley.

Människor kommer ut i livet med en sorts struktur. Ett operativsystem som gör att vi inte behöver se miljontals exempel på en elefant för att känna igen elefanter från en vinkel vi aldrig sett dem. Vi har lättare att lära oss och uppdatera vår mentala modell över koncept.

”[AI] need much more data to learn a task than human examples of intelligence, and they still make stupid mistakes.”
– Yoshua Bengio, under AI-konferensen NeuroIPS 2019

Så nej. När någon påstår att vi inom ett gäng år uppnår en teknologisk singularitet, att AI-fältet utvecklas exponentiellt (trots att delar av det inte uppnåt något alls sedan 1950-talet), ja då är det läge att be om lite bevis.

Till dess kan vi imponeras över människors förmågor och färdigheter, samt fundera på hur vi förstärker dessa med ‘kunstig intelligens’ som de kallar AI för i Norge.

Läs mer om artificiell intelligens


Publicerad: 2020-05-07
Kategori: Artificiell intelligens
Tagg: Djupinlärning Förstärkt inlärning GOFAI AI Innovation of Sweden

‹ bloggen

Hör av dig