När vi pratar om artificiell intelligens, AI, går tankarna ofta till robotar från filmvärlden. Antingen gulliga och korrekta sådana, som C-3PO i Star Wars-filmerna, eller mer mordiska varianter. Filmen Terminator från 1984 visar ett dystopiskt år 2029. Superdatorn Skynet styr världen och Arnold Schwarzenegger gestaltar en mördarmaskin som aldrig ger upp.
Där är vi inte ännu. Men faktum är att vi är omgivna av AI, om än inte i människoliknande form. Våra rörelsemönster, preferenser och beteenden registreras av uppkopplade enheter på arbetsplatser, i offentliga miljöer och i våra hem. Det här behöver vi prata mer om, menar forskaren Shengnan Han.
– Jag gillar visserligen Terminatorfilmerna, men jag vill inte bli styrd av maskiner, säger hon.
Människorna kom före maskinerna
Shengnan Han är docent på Institutionen för data- och systemvetenskap (DSV) vid Stockholms universitet, och forskar om digitaliseringens effekter i samhället. Den senaste tiden har hon intresserat sig för kopplingen mellan AI och mänskliga värderingar.
– Alla pratar om AI nuförtiden. Ofta är det en läskig framtid som målas upp, där maskiner kontrollerar människor. Men det är ju faktiskt så att vi människor kom först. Vi kan se till att maskinerna jobbar för oss – på ett bra sätt.
För att det ska ske krävs att fler engagerar sig i AI-utvecklingen, tror hon. Människor med olika erfarenheter och bakgrund behöver bidra med sina värderingar.
– AI är kraftfullt och utvecklas snabbt. Vi måste vara medvetna om det, och bestämma hur vi vill ha det. Det är vårt ansvar som användare av AI, säger Shengnan Han.
Risk för diskriminering
Hon konstaterar att dagens programmerare och utvecklare av AI utgör en starkt begränsad grupp. Den är inte representativ för de 8 miljarder människor som lever på jorden.
Och även om den artificiella intelligensen kan hantera enorma mängder data, så har den andra begränsningar. Om datamaterialet är skevt kommer delar av befolkningen att diskrimineras. Det märks i ansiktsigenkänningsprogram som inte kan hantera människor med olika hudfärg, eller rekryteringsverktyg som bara plockar fram manliga ingenjörer som kandidater.
Ett annat exempel är självkörande bilar som kanske utvecklas för en viss typ av trafiksituation, i vissa delar av världen. Vad händer om fordonen används i en annan miljö? Och vem ska bära ansvaret om människor kommer till skada av bilens framfart?
– Jag tycker inte att ett gäng designer på Google eller Tesla ska ha makten att avgöra vad som är viktiga mänskliga värden. Allas röster måste bli hörda och reflekteras i designen av AI. Det är en fråga om demokrati, och att respektera individers olika värderingar.
Mänsklig intelligens mer flexibel
Mänsklig intelligens kan bidra med verklig smarthet. Vi har förmågan att rangordna mellan olika viktiga värderingar i specifika situationer. Svårigheten ligger i att översätta flexibelt mänskligt beteende till ett formellt språk som datorer förstår.
– ”Du ska inte ljuga” är en värdering som de flesta tycker är viktig. Men i en given situation kan det vara befogat att ljuga, till exempel om någons liv hänger på det. Den typen av avvägningar är svåra för en dator, säger Shengnan Han.
Både inom EU och andra delar av världen har policyer för AI utarbetats, där värdet av att involvera användare betonas. Det är bra, anser Shengnan Han, för hittills har inte allmänheten varit så engagerad. De flesta av oss reflekterar inte ens över hur mycket data vi lämnar ifrån oss. Vi klickar bara i att vi accepterar alla cookies, godkänner den förifyllda deklarationen, eller låtsas att vi har läst de omfattande användarvillkoren.
– Jag vill ha kontroll över mitt eget liv, men även jag förlitar mig på maskinerna. När jag var tonåring kunde jag 20–30 telefonnummer utantill, nu kan jag inte ens mina egna barns nummer. Adressboken och kalendern i min telefon håller ordning så att jag inte behöver minnas allt.
– Vi ska inte vara rädda för utvecklingen, men vi behöver vara medvetna om den. I det ingår att fundera över om våra smarta hem behöver registrera exakt hur vi rör oss. Eller om vi vill att sjukdomsdiagnoser ställs av maskiner eller mänskliga läkare, säger Shengnan Han.
Fenomenologi utgångspunkt i färsk artikel
Hon använder fenomenologi, en filosofisk teori om individuella förutsättningar, för att beskriva hur artificiell intelligens kan närma sig mänskliga värderingar. Resonemanget utvecklas i en artikel som publicerades i tidskriften AI & Society under sommaren.
Shengnan Han har skrivit artikeln tillsammans med DSV-kollegan Eric-Oluf Svee, Eugene Kelly på New York Institute of Technology, samt Shahrokh Nikou som är verksam vid Åbo Akademi University och affilierad till DSV.
– I vanliga fall bygger min forskning på empiri och siffror, men den här artikeln är mer filosofisk och abstrakt. Det var en utmaning att skriva den och det tog lång tid – nästan två år! Men det var också mycket lärorikt. Jag är glad över att den är ute nu, med open access dessutom.
– Att vi fick kontakt med professor Eugene Kelly i USA och kunde samarbeta med honom var helt avgörande. Han är en av världens främsta forskare inom fenomenologi, säger Shengnan Han.
Kontakta shengnan@dsv.su.se
Läs artikeln ”Aligning artificial intelligence with human values: reflections from a phenomenological perspective”, publicerad i AI & Society (juli, 2021)