I grunden är artificiell intelligens ett sätt att hantera väldigt stora mängder data och utifrån den skönja mönster och dra slutsatser.
I större organisationer blir AI ett stöd när det gäller att skapa sig en överblick av till exempel mål, prestationer och lön och på så sätt kunna lokalisera orättvisor. För HR kan AI vara ett verktyg i en onboardingprocess, det finns exempel på intervjurobotar som används i rekryteringsprocessen.
Fördelarna är många. Det brukar heta att AI frigör tid till sådant som kräver mänsklig kontakt. I noggrannhet och att processa stora mängder data spöar AI den mänskliga hjärnan alla dagar i veckan.
Men användandet av AI väcker också en rad etiska frågor, inte minst när det tillämpas i HR-frågor. Hur mycket data kan vi samla på oss om våra medarbetare? Om vi låter AI göra ett urval i en rekryteringsprocess, kan vi verkligen vara säkra på att
organisationens värderingar tas till vara? Hur vet AI att den undviker diskriminering?
Oron för bias, partiskhet, kommer att växa sig ännu större i takt med att artificiell intelligens (AI) ökar i omfattning. Många organisationer som använder AI börjar inse vikten av starka, organisationsövergripande värderingar för att främja ansvarsfull innovation.
»AI är inte nytt, det har funnits länge, men det som är nytt just nu är att många teknologier korsbefruktas med AI som underläggande faktor«, säger Anna Felländer, grundare av AI Sustainability Center, som bland annat samarbetar med Arbetsförmedlingen för att ta fram ett verktyg för hållbar tillämpning av AI i jobb-matchning.
Hon menar att den galopperande tekniken har gjort att AI har applicerats för snabbt i traditionella affärsmodeller, för att det riktigt ska fungera.
»Vinsterna är förförande«, säger hon.
När det gäller HR-världen har AI använts för att prognostisera och matcha kompetens som skulle liknas vid en förstärkt hjärna.
Men AI kan inte ersätta en hjärna.
»Det måste alltid finnas en mänsklig kontakt, det är livsfarligt för en process att inte ha en människa in the loop, den typen av förmåga som vi har lärt oss är att spå, att titta på om nervositet är positiv eller negativ, där kan aldrig en algoritm ersätta det mänskliga mötet.«
»Jag vill uppmana alla HR-avdelningar att använda AI som komplement. AI kan göra diskrimineringar transparenta, synliggöra och justera ojämlikheter. Vi måste använda AI rätt. Använder vi det som en black box, då är det förlegade normer och värderingar som får råda«, säger hon.
1. VÄRSTA EXEMPLEN – SÅ HÄR SKA MAN INTE GÖRA!
År 2014 började Amazon utveckla en algoritm för att underlätta sin rekrytering. Baserad på data från cv:n som sökande skickat in under en tioårsperiod skulle de bästa kandidaterna vaskas fram.
Det fanns dock en hake: majoriteten av de arbetssökande hade varit män. Algoritmen drog därmed slutsatsen att män därför var att föredra framför kvinnor och utfallet blev därefter.
AI bidrog alltså till att befästa gamla fördomar, snarare än att leda organisationen in i framtiden.
Amazons försök att med AI skapa ett verktyg för HR är sannolikt det vanligaste exemplet för att påvisa begränsningarna med maskininlärning för att automatisera affärsprocesser. Efter något år beslutade Amazon att skrota projektet.
Än mer explicit, och mindre HR-relaterat, är exemplet med Microsofts AI-chattbot Tay, som beskrevs som »ett experiment i konversationsförståelse«. Boten, som skulle lära sig och bygga kompetens genom att följa konversationer på Twitter, behövde bara ett dygn på sig för att förvandlas till – en fullfjädrad rasistisk, misogyn skitstövel.
Gör om, gör rätt!
2. FÖRDOMAR OCH RÄTTVISA
Ofta tycker vi att rättvisa är detsamma som frånvaro av partiskhet, att rättvisa uppstår när vi lyckas förhålla oss neutrala. Men att helt och hållet ta bort partiskhet, i syfte att fatta rättvisa beslut, är verkligen ingen enkel ekvation. Inte ens för AI.
För till exempel kan den som skapar algoritmen ha fördomar.
Anna Felländer talar om »bias of the creator«.
»Den som kodar lägger in egna värderingar kring vad en framgångsrik vd ska vara, eller försöker kanske spegla organisationens värderingar, det är bäddat för en icke strömlinjeformad implementation av en strategi. Det finns många HR-processer som omedvetet diskriminerar till exempel utrikesfödda, men det finns också mycket diskriminering kring vad som är kompetens eller erfarenhet«, säger hon.
När partiskhet smyger sig in de algoritmer eller den data som används framstår AI som orättvist. Men ibland kan rättvisa uppnås genom att den som programmerar algoritmen adderar partiskhet. Jo, faktiskt.
Föreställ dig, skriver Steven Tiell, chef för avdelningen för ansvarsfull innovation på Accenture Labs i en artikel i Harvard Business Review, en modell byggd för att effektivisera rekrytering eller avancemang. Om algoritmen, som i exemplet med Amazon, hämtar data från historiska uppgifter, där kvinnors underrepresentation i arbetskraften är avgörande, kommer en massa fördomar mot kvinnor att dyka upp i modellen.
För att korrigera detta kan programmeraren välja att tillföra partiskhet för att på så sätt balansera könsrepresentation i historiska data, skapa syntetiska data för att fylla i luckor eller korrigera för balanserad behandling (rättvisa) vid tillämpningen av datainformerade beslut.
Men AI är alltså på egen hand ingen garanti för rättvisa.
3. MAKTEN – OCH OJÄMLIKHETEN
Med AI ökar risken för polarisering i arbetslivet. På ena sidan: högkvalificerade jobb som kräver komplex mänsklig intelligens. På andra sidan: lågkvalificerade jobb som är för dyra att automatisera.
Mitt i klyftan störtar mellanskiktet ned, de yrken som är enklast och mer ekonomiskt försvarbara att automatisera.
Ur detta uppstår en ekonomisk ojämlikhet.
Detta kallas skill-biased technological change, och har funnits som begrepp under lång tid, men har i hög grad påskyndats av AI. Den högt utbildade arbetskraften uppnår en hävstångseffekt på sådant den redan kan, vilket leder till att den ges mer makt och inflytande.
I människans uppfinnariver har det samhälleliga perspektivet glömts bort. Vid en paneldiskussion med American Association for the Advancement of Science (AAAS) efterlyste Wendell Wallach, en forskare i etik vid Yale Universitys tvärvetenskapliga centrum för bioetik, utökad forskning om AI:s effekter på samhället.
»Det finns ett behov av samordnade åtgärder för att se till att tekniken förblir en bra tjänare. Vi behöver stark, meningsfull mänsklig kontroll.«
4. HUR ORGANISERAR VI OSS?
Om AI ännu känns ungt så är diskussionen om AI och etik ännu yngre. Någon manual för hur den ideala organisationen ur ett etikperspektiv ska hantera AI finns inte.
Däremot går råd att få.
Konsultföretaget Accenture har tagit fram rekommendationer, som illustrerar hur framtagande av ett etikutskott kan hantera frågor som kretsar kring funktion, värderingar, principer, plats, sammansättning och process.
Här kan viktiga beslut som organisationen behöver fatta identifieras. Till exempel vilka värderingar som kommittén är avsedd att främja och skydda, och vilka typer av expertis behövs.
»En hel del av de operativa detaljerna kommer att utvecklas i samband med kommitténs arbete«, skriver Accenture.
»Att skapa meningsfulla och effektiva tillsynsmodeller för ett etikutskott ger inte bara fördelar och skydd för organisationen, det är avgörande för den bredare dataprocessen och AI-etikutvecklingsprocessen.«
Att organisera alltför snävt, till exempel genom att låta AI enbart bli it-avdelningens ansvar, skapar goda förutsättningar för etiska dilemman. Att hantera partiskhet, rättvisa, styrning och användning av AI kräver en robust organisation och ett brett samarbete. Här har HR en viktig roll att fylla, från kultur- och kommunikationsfrågor till kompetensförsörjning.
»Jag uppmanar HR att använda AI på ett etiskt och hållbart sätt. Om man utvecklar en AI-funktion inhouse, då behöver du aktivera olika delar av organisationen för att diskutera till exempel ›vad är våra värderingar?‹«, säger Anna Felländer.
5. HR OCH MÄNNISKORNA
»Införandet av AI kommer att ställa krav på att vi hittar ett etiskt förhållningssätt i olika sammanhang«, säger Lena Bjurner, generalsekreterare på Sveriges HR Förening, och drar en parallell till självkörande bilar: det går inte bara att släppa ut dem och hoppas att det går bra. »De etiska frågorna behöver prioriteras innan implementation. Till exempel om bilen är på väg att köra in i människor ska den då skydda personen som sitter i bilen eller de som är på gatan. Det behöver man ta ställning till«, säger hon.
»AI ska samarbeta med människor på ett sätt som aldrig har gjorts tidigare. Vilka data kan användas, vad gör den datan om man börjar dra slutsatser utifrån den, vem ska ha tillgång till vad, är det etiskt att alla ser vissa data? Alla de här frågorna behöver man tänka på innan.«
Många av frågorna behöver HR:s insikt, konstaterar Lena Bjurner. Det handlar inte så mycket om teknik som om hur teknik och människor samspelar med varandra.
Således behöver HR ta plats i förarsätet i dessa frågor.
»Utvecklingen och förändringen kommer att ske oavsett, men det är väldigt viktigt att det är medarbetaren och människan som står i centrum. HR ska inte se sig som en servicefunktion som bara stöttar och tar fram det som andra ber om. Här behöver vi ta ledning. Om inte människan tas om hand och planeras utifrån, så kommer inte det här bli bra«, säger Lena Bjurner.
Hon poängterar att hennes grundinställning till AI är positiv.
»Människan och tekniken kommer att kunna göra saker som vi aldrig gjort var för sig, vi kommer att kunna utveckla saker som är bättre.«
6. HÄNGER JURIDIKEN MED?
Sker den juridiska utvecklingen när det gäller AI lika snabbt som den tekniska utvecklingen? Nja.
Caroline Bogemyr, jurist på Advokatfirman Hammarskiöld & Co och expert på dataskydd och arbetsrätt, menar att den arbetsrättsliga lagstiftningen inte är anpassad för AI:s framväxt.
»Den är utformad utifrån tanken på att det är människor som interagerar med varandra på olika sätt och där man således inte räknat med att mänskligt agerande skulle kunna ersättas av datorprogram och dylikt«, säger hon och efterlyser en översyn över vad det innebär i praktiken och vilka konsekvenser det får att AI alltmer integreras i människors vardag.
När det gäller AI och etikfrågor är diskrimineringslagstiftningen HR:s ännu viktigaste juridiska verktyg, till exempel när det gäller »inbyggd diskriminering«, alltså där förutfattade meningar byggs in vid programmering eller då en algoritm byggs.
»Diskrimineringslagstiftningen bör gälla på samma sätt oberoende av om diskriminering sker med hjälp av AI. Den sätter också upp gränser för hur ett rekryteringsförfarande får gå till. Här skulle det dock behövas klargöranden om hur långt arbetsgivarens ansvar sträcker sig just i fråga om AI, det vill säga hur långt måste arbetsgivaren gå för att se till att ett datorprogram eller liknande inte diskriminerar?«
Text: Fredrik Emdén
Illustration: Maja Norrby