Hur arbeta tillgängligt när teknik och digitalisering utvecklas fortare än lagen?

Hur arbeta tillgängligt när teknik och digitalisering utvecklas fortare än lagen?

Tidigare i vår hade jag äran att få inledningstala i ett av temaspåren på konferensen Digin, en nätverksdag om digital inkludering och tillgänglighet.

På temat ”Hur arbeta tillgängligt när teknik och digitalisering utvecklas fortare än lagen” resonerade jag om utmaningar, fallgropar och risker. Och förstås möjligheter. Eller som Terese Raymond uttryckte det, ”Du ryter ifrån så elegant i den här videon.” Oerhört tacksam för den recensionen.

Du hittar hela texten (talmanuset) till mitt brandtal nedanför videon. Läs mer om att anlita mig som expert inom digital tillgänglighet.

Talmanus

Hej, jag heter Per Axbom

Det här är en film med en introduktion till ett temaspår på nätverksdagen Digin. Jag delar med mig av MINA inspel och erfarenheter.

Sedan är det upp till er att diskutera vidare ERA tankar, frågor, utmaningar och lösningar.

Ämnet för det här temaspåret är ” Hur arbeta tillgängligt när teknik och digitalisering utvecklas fortare än lagen?”

Det handlar om hur vi får med tillgänglighetsperspektivet när den digitala utvecklingen ändrar förutsättningar, beteenden och behov, till exempel med AI och robotisering.

Jag har själv arbetat med digital tillgänglighet i cirka 20 år och både konsultar och undervisar inom digital etik.

————————

Jag brukar fråga människor om de vet när Sverige fick allmän rösträtt.

Svaren kan variera, men främst för att man är oense runt om det var när beslutet om kvinnlig rösträtt godkändes i riksdagen, 1919, eller när kvinnor faktiskt röstade första gången, 1921.

Väldigt få svarar 1945. Det var först då som människor som bodde i fattigstugor fick rösta. Ännu färre svarar 1989. Först då slutade vi omyndigförklara många människor med funktionsnedsättningar. Det var alltså först 1989 som vi i Sverige slutade ta ifrån svenska medborgare deras rösträtt, trettioen år sedan.

Hur vi tolkar begreppet allmän rösträtt avgörs av den utbildning vi får, vår egen nyfikenhet och förstås även av samhällets och våra egna värderingar.

Det vi vet med säkerhet är att värderingar förändras över tid.

Spola fram till 2020 och den digitala tekniken har gått ifrån att lova oss en revolution inom demokratisering och inkludering till att uppmärksammas som ännu ett verktyg med potential för att skapa enorma klyftor i samhället.

Jag möter människor idag som har svårt att söka jobb, har svårt att betala för parkering eller bävar för att köpa biljett till lokaltrafiken. Det är inte för att de aldrig kunnat göra detta. Tvärtom, för tio år sedan hade de inga problem med alla dessa aktiviteter. Men… i digitaliseringens namn förändrades landskapet helt, utan något särskilt erbjudande och stöd för att klara övergången.

Det är inte alltid så enkelt att teknikutvecklingen sker snabbare än lagstiftarna hinner med. Bristande tillgänglighet räknas redan som diskriminering i våra lagar. Men vi saknar lagar som handlar om principen för snabb förändring. Regelverk och riktlinjer som adresserar snabba byten av utrustning för samhällets centrala aktiviteter och rutiner.

Vi saknar beslutsfattare som ser riskerna.

Många är duktiga på att se möjligheter och lyfta de problem vi LÖSER med digitalisering, robotisering och AI. Men är avsevärt sämre på att identifiera, vara öppna med och prata om de problem vi skapar. Självkörande robot-leveranser låter fantastiskt för den som är bunden vid sitt hem, men om samma robotar fastnar och blockerar vägen för rullstolar så skapas nya problem.

Det pratas idag om hur självkörande bilar ska kunna ta ett beslut om vem som ska dö när ett barn, en hund och en en person i rullstol plötsligt befinner sig på vägbanan. Det pratas alltför lite om hur vi ska skapa en situation där en programkod aldrig tar beslut om människoliv.

Det är också fel att tro att bara självkörande bilar dödar.

Många människor med funktionsnedsättningar befinner sig i en oerhört utsatt situation där det är svårt att få jobb, man möts av fördomar och i värsta fall trakasserier och våld. I Sverige har studier visat att risken för självmord är betydligt högre hos unga vuxna med aktivitetsersättning än hos andra unga i samma ålder.

Samtidigt kan många webbtjänster använda sig av ångestframkallande språk och interaktioner. En del tjänster ropar “Tio människor tittar på det här hotellrummet just nu!” eller skickar notiser som ger ångest över missad motion även när du är sjuk och redan mår dåligt. Våra myndigheters chattbotar upprepar om och om igen “Jag förstår inte vad du säger, försök igen” till medborgare med kognitiva utmaningar. Digitala tjänster kan direkt bidra till muskulära spänningar, rastlöshet, utmattning och koncentrationsproblem.

Det är lätt att tro att digital tillgänglighet handlar om likvärdig tillgång till information. Men tillgänglighet handlar i grunden om rätten, och förmågan, till ett värdigt liv.

Vi måste komma ihåg att en checklista som webbtillgänglighetsdirektivet endast är en liten del av detta. Vi lagstiftar inte bara för att alla ska kunna deklarera via nätet. Vi lagstiftar också för att rädda liv.

Det finns en strävan att AI ska integreras i våra sociala domäner och myndigheter, med känsliga beslut om vem som får resurser och möjligheter, och vem som nekas. Dessa system har om och om igen visat sig fördomsfulla.

Allt ifrån röstigenkänning som inte kan hantera gälla – eller mer feminina – röster, till diagnostiska system som fungerar sämre för mörkhyade människor, till rekryteringssystem som nedvärderar ansökningar från kvinnor.

Tillgänglighet är ofta utelämnat från dessa konversationer, ytterligare bevis för hur funktionsnedsättningar återigen kommer i sista hand, även i fall där det aktivt forskas och pratas om orättvisa.

AI-system ser världen utifrån den information de matas med. Om ett automatiserat rekryteringssystem saknar information om kvinnliga kandidater så kommer kvinnliga kandidater att avvika och inte kännas igen. Om samma system saknar information om människor med olika former av kommunikativa beteenden och förmågor, så kommer en stor mängd människor att nekas jobb på dessa grunder. Det är samma fördomar som vi lever med idag, men nu befästa i ett system som marknadsförs som smartare, bättre och mer objektivt.

Ett AI-system kan i värsta fall cementera fördomar och bromsa samhällsförändringar i skepnaden av att att vara överlägset. En ny typ av förtryckare.

De lagar vi har är en spegling av vår historia, vår nutid och den framtid vi vill ha. Det är vi tillsammans som kan verka för att synliggöra alla dessa risker, människor som åsidosätts och far illa. Det är vi som sätter agendan, med de arbetssätt vi förespråkar idag, som kan bli vedertagna imorgon, skapa medvetenhet och bidra till gemensamma värderingar i framtiden.

Det är bara genom att systematiskt jobba med strategiskt förutseende – att aktivt lägga tid på att förutspå så många risker som möjligt – och att involvera människor som är experter på riskerna, de som faktiskt är utsatta – som vi kan göra rätt.

Vi behöver inte bromsa utvecklingen, det kan vi inte, men

  • vi måste vara öppna med, och ödmjuka inför, de problem vi skapar
  • vi måste inkludera utsatta människor i arbetet, inte bara i tanken
  • vi måste ge självbestämmandet till människor att välja bort en automatiserad bedömning
  • vi måste agera så att de som är minst lyssnade på blir mest lyssnade på
  • Målbilden är att de som lever ett liv med begränsningar och utsatthet ska erbjudas ett liv med möjligheter.

————————

Så det var allt för mig den här gången. Lycka till med era samtal och arbeten nu.