Boken Artificial Intelligence: A Modern Approach är studiemedel lite överallt tycks det. En släkting som läser teknisk fysik på ett svenskt universitet noterade min kopia i bokhyllan. Tydligen läser de den boken på hens AI-kurs. Artificial Intelligence: A Modern Approach kom under 2021 ut i en fjärde upplaga. Ja, den är en tegelsten 😄
Fyra varianter av artificiell intelligens
De fyra varianter av AI som Russell och Norvig pekar på i boken är enkla att minnas och jag kan tycka att de är hjälpsamma. De är:
- System som tänker som människan
- System som tänker rationellt
- System som agerar som människan
- System som agerar rationellt
Du kanske reagerar på uppdelningen? Det är som en fyrfältare. Att ”tänka” och ”agera”. Där det antingen är ”som en människa” eller ”rationellt”. Jag tänkte inte vara onödigt filosofisk och diskutera varför människor inte agerar rationellt i alla lägen. För stunden kan vi väl nöja oss med att maskiner är mer regelstyrda och människor kan ha lite alla möjliga sätt att komma fram till något.
Olika människor kommer reagera olika på interaktionen med en allt smartare teknik. Även om det 2022 kan verka knasigt att uppleva att en chatbot har ett känsloliv så är det bara en tidsfråga innan många fler människor kommer börja begrunda samma frågeställningar.
Om den agerar som människan - är den då som människan?
Svaret på frågan ur rubriken är ju tveklöst nej! Men ju bättre en maskin är på att agera som om den vore en människa desto svårare blir det att avgöra vad den är när man interagerar med den.
I filmen Her (2013) har filmens huvudperson, spelad av Joaquin Phoenix, en allt mer utvecklad relation med en AI-agent han har i sin hörselsnäcka, som spelas av Scarlett Johansson. Med ”agent” här avser jag kanske i tekniska ordalag en instans av något. Joaquins karaktär i filmen har ju sin egen variant av en AI i sitt öra. Joaquins AI förändras över tid och genom interaktionen med honom. Man kan lite se denna AI som en spelkaraktär i hans privata spel.
Kan den där AI:n ha egna känslor?
Detta är förstås med god marginal in i science fiction. Men eftersom den som bedömer om en AI är ett ”system som agerar som människan” är vi människor. Vi har vår egen uppfattning. Det är också upp till var och en av oss. De flesta av oss har ännu inte haft anledning att konfronteras med den frågan.
Dock har redan incidenter börjat uppstå på sina håll. Bland annat hos Google som har stora ambitioner inom AI-området:
”En ingenjör på Google har stängts av från arbetet i samband med att han hävdat att den AI-chattbott som han arbetar med kan uttrycka tankar och känslor på samma nivå som ett barn.”
– Googleingenjör hävdar att AI-bott har känslor som ett barn – stängs av (Computer Sweden)
AI-agenter bara en mer sofistikerad Tamagotchi?
För de av oss som är teknikskeptiker eller om man bara använder dessa tjänster kanske man inte tycker det är viktigt om det är en maskin eller människa i andra änden.
Som alltid finns det föregångare och det är extremt sällan som en teknik är så revolutionerande som det först kan verka. Att maskera huruvida en syssla utförs av en människa eller en maskin görs ju både idag bakom molntjänster men har en historia från den mekaniska turken i slutet av 1700-talet. I realiteten var det en människa som låtsades vara en mekanisk schackspelare. Den gången.
I andra extremen, drygt 200 år senare, minns jag mina klasskompisar som skaffade sig det digitala husdjuret Tamagotchi på 1990-talet. När denna Tamagotchi gick sönder eller behövde byta batteri så gav det en känslomässig reaktion hos människor. Tamagotchin "dog" trots allt.
Men, bara för att vi människor kan få våra känslor påverkade och manipulerade av tekniska lösningar, verkliga och falska, betyder det inte att tekniken speglar vårt känsloliv. Och det lär dröja ett tag innan vi rationellt kan påstå att en AI-agent har känslor.
Läs mer om AI
- ”Min robotdammsugare har mänskliga egenskaper” - Almira Osmanovic Thunström skriver på Sahlgrenskaliv
- May be Fired Soon for Doing AI Ethics Work – Blake Lemoine skriver själv om sitt arbete på Google
- Google places engineer on leave after he claims group’s chatbot is ‘sentient’ (Financial Times)