Förklaringsmodell för ansvar, påverkan och makt inom AI

Förklaringsmodell för ansvar, påverkan och makt inom AI
Bildbeskrivning.

Jag har ritat denna förklaringsmodell för att visa på relationerna mellan olika aktörer – och deras värderingar – när det gäller AI-utveckling och användning. Den ger dig något att peka på när du till exempel diskuterar vem som finansierar systemen, vem som bidrar till systemen och vem som gynnas eller missgynnas av dem. Det hjälper dig att ställa rätt frågor, vilket i sin tur kan leda till bättre vägval och beslut för dig och din organisation.

Nedan finns förklaringar av varje gruppering i diagrammet.

Du är fri att använda diagrammet i presentationer och i ditt eget arbete precis som du själv vill, så länge du anger mig som upphovsperson och eventuella ändringar faller under samma CC-BY licens. Ladda ner diagrammet i PDF-format.

Ladda ner

Innehåll i förklaringsmodellen

Drivkrafter

Två intressenter ingår i drivkraftsgruppen:

  • Finansiärer hoppas tjäna ekonomiskt på att investera i AI. De satsar hårt på att ge intrycket av AI som en välvillig, välgörande och nödvändig teknik som de är de bästa beskyddarna av.
  • Statsmakter har ett potentiellt mer komplext spektrum av motiv eftersom de är intresserade av tillväxt samtidigt som de i viss mån vill skydda medborgarnas välbefinnande. Regeringar kommer nödvändigtvis bedriva regleringsinsatser som uppmuntrar tillväxten av AI, skyddar inhemska företag och resurser samt minimerar individuella nackdelar och negativa konsekvenser.

Konstruktion

  • Ägare övervakar utvecklingen av modeller och verktyg. Ungefär som finansiärer positionerar de sig i rollen av att ha överlägsen kunskap om hur tekniken ska byggas och distribueras. De har också ett egenintresse av att se till att det finns så få andra aktörer som möjligt som kan bygga och underhålla den nya tekniken.
  • Tillverkare, utvecklare och designers, utför det arbete som krävs för att få ut verktygen och modellerna på marknaden. De arbetar med begränsade resurser avseende tid, pengar och tillgång till data, datorkraft och manuell träning. De fattar även beslut kring hur verktyg ska se ut för användarna, när de till exempel får dem att framstå som mer eller mindre mänskliga i sitt uttryck.
  • Dataleverantörer kan vara interna eller externa för olika företag, men de spelar alltid en viktig roll i att bestämma vilket innehåll som hämtas och görs tillgängligt för att utveckla de beräkningsmodeller som används av de konsumentinriktade verktygen.
  • Datakällor kan utgöras av en uppsjö av olika forskningsdatabaser, onlinematerial, böcker, PDF-filer och data som hämtas när människor använder verktygen. Ibland hämtar man material online utan att be om samtycke.

Innehåll

  • Kreatörer som skriver, ritar och publicerar innehåll är inte alltid medvetna om att deras arbete används av AI-företag för att tjäna pengar. När de blir medvetna är de inte alltid glada över det.

Tillgång

  • De bortglömda avser den massiva samlingen av mänskligt innehåll (konst, litteratur, fysisk design, kunskap, visdom och mer) som aldrig kommer beaktas i maskininlärning på grund av språk, partiskhet eller brist på digital representation.

Datavård

  • Klassningsarbetare är ofta lågavlönade arbetare utspridda över hela världen, engagerade i att märka, tagga och utvärdera innehåll och se till att systemen producerar så lite kontroversiellt innehåll som möjligt. De är en del av en arbetsstyrka som gör att systemen verkar mer autonoma än vad de egentligen är.

Missbruk/missbruk

  • Troll använder sig av AI för att möjliggöra illdåd och orsaka lidande.
  • Bedragare använder ofta AI för att lura människor på pengar. De kan också till exempel generera innehåll och använda annonsnätverk för att tjäna pengar på påhittade artiklar.
  • Påverkansoperatörer kan verka under instruktion av statliga aktörer, krigshetsare, tyranner eller kriminella för att skapa konflikter baserade på falsk information. AI tillhandahåller förmågor som kan påskynda denna typ av inflytande, för att skapa lögner såväl som för att sprida dem.

Reglering

  • Lagstiftare arbetar för att övervaka vad som händer inom teknikutvecklingen, förstå riskerna och fördelarna, samt reglera därefter. De uppvaktas ofta av finansiärer och ägare.
  • Det finns lagar och regler som gäller och tillämpas i vissa fall (som upphovsrätt), och vid andra tillfällen finns det inga lagar på plats. Till exempel är det inte olagligt i många länder att producera deepfakes som ser ut som andra.
  • Tillsynsansvariga innefattar såväl de som ser till att lag och ordning upprätthålls, samt de som hjälper organisationer (till exempel företagsjurister) att förstå vad de kan och inte kan göra med nya verktyg. Ibland använder tillsynsvakterna själva AI-verktyg, till exempel polisiär verksamhet som använder ansiktsigenkänning.

Mänskliga rättigheter / miljö / hållbarhet

  • Aktivister arbetar för att skapa medvetenhet och påverka den allmänna opinionen om hur kränkningar av mänskliga rättigheter möjliggörs av ny teknik och hur utsatta befolkningsgrupper far illa även när gynnade människor gynnas ytterligare.
  • Forskare ägnar tid åt att titta på hur verktygen har inflytande över och påverkar politik, sociala kontrakt, ekonomin och mycket mer. De ger till exempel viktiga insikter om nyckelelement att övervaka för att förstå om teknikens nettoeffekt är positiv och var man ska fokusera regleringsinsatser.
  • Intresseorganisationer (ofta välgörenhetsorganisationer, människorättsorgan och miljöinstitutioner) håller ett öga på vad som händer inom sina respektive områden och släpper rapporter om observationer och uppmätta effekter.

Användning

  • Inköpare ansvarar för att upphandla och tillgängliggöra verktyg inom organisationer. De spelar en viktig roll för att utvärdera och säkerställa säkra implementeringar.
  • Profession representerar alla människor som använder AI i sitt vardagliga arbete med avsikten att öka sin egen prestation, skapa nya saker för andra eller uppfinna nya sätt att arbeta.
  • Gynnade personer inkluderar alla som uttrycker en tydlig och uppenbar erfarenhet av att dra nytta av AI-verktyg, såväl som de som gagnas av när andra använder AI för att till exempel betygsätta dem.
  • Till missgynnade personer räknas alla som upplever att de har det sämre till följd av AI-verktyg, eller lider omedvetet till följd av att någon annan använder AI för att utvärdera dem i jobb-, sociala eller prestationssammanhang.

Människor kan vara både förmånstagare och drabbade om de använder eller utsätts för många olika verktyg.

Ny data

Syftet med detta avsnitt är att betona hur vardagsarbete med digitala verktyg, och fortsatt exponering för verktyg som konsumerar innehåll, också innebär att lämna ifrån sig innehåll för att vidareutveckla AI-verktyg. Det här är exempel på typer av innehåll.

  • Text används för att träna AI-verktyg och kan fångas i dokument, verktyg, forum, meddelanden, blogginlägg och mer.
  • Bild/video kan tas från onlinemöten, när appar har tillgång till fotobibliotek eller när specifika appar används för inspelning eller foton (till exempel appar för skönhetsfilter, ansiktsbyte eller åldringseffekter).
  • Ljud spelas in från möten, samtal, videor och digitala assistenter när du eller någon annan använder dem.
  • Beteende/biometri växer i sin förmåga att fånga unika, individuella identifieringsdata från tangentbordsskrivning, röstavtryck, gång, hjärtslag och mer. Beteende hänvisar också till data som fångas för att dra slutsatser om plats, shoppingpreferenser, politiska övertygelser, sexuell aktivitet och mer.

Samhällspåverkan

Slutligen är det viktigt att överväga hur teknik kan påverka hur människor interagerar med varandra i både små och stora samhällen.

  • Beteenden och värderingar kan förändras när förväntningarna på arbetet förändras, eller när förtroendenivåer påverkas av växande mängder desinformation eller opersonliga resultat. Om vi ​​tittar på nutida historia kan vi se exempel på hur interpersonell kommunikation har förändrats snabbt i och med tillkomsten av smartphones.
  • Rättssäkerhet syftar på att alla är lika under lagen, i enlighet med demokratiska värderingar. Det är viktigt att individens rätt att föra talan mot utsatthet för AI/algoritmer bibehålls, vilket kräver transparens och ordnade rättsliga förfaranden. Det finns skäl att tro att osynliga och svårfattliga algoritmer som fattar beslut som påverkar människors liv (inom den offentliga sektorn och på andra håll) kan göra det svårare att ge den insyn som alla har rätt till, och därmed också svårare att tillämpa rättelser när människor felbehandlas.

Uppdateringar

Diagrammet kommer att uppdateras när jag känner att det dyker upp viktiga frågor som bör kommuniceras här. Jag är också öppen för återkoppling och förslag. Den senaste versionen finns alltid på axbom.se/aimakt.


Bildbeskrivning

Ett diagram som består av olika avsnitt som innehåller intressenter och/eller ämnesområden.

Titeln är "Förklaringsmodell för ansvar, påverkan och makt inom AI".

På vänster sida finns:

  • Drivkrafter: Finansiärer, Statsmakter
  • Konstruktion: Ägare, Tillverkare, Dataleverantörer, Datakällor
  • Innehåll: Kreatörer
  • Tillgång: De bortglömda
  • Datavård: Klassningsarbetare

I mitten finns:

  • Missbruk: Troll, Bedragare, Påverkansoperatörer
  • Reglering: Lagstiftare, Lagar/regler, Tillsynsansvariga
  • Mänskliga rättigheter/Miljö/Hållbarhet: Aktivister, Forskare, Intresseorganisationer

På höger sida finns:

  • Användning: Inköpare, Profession, Gynnade personer, Missgynnade personer
  • Ny data: Text, Bild/video, Ljud, Beteende/biometri
  • Samhällspåverkan: Beteenden och värderingar, Rättssäkerhet

Läs diagrammets innehåll.