Hur skapar vi artificiell intelligens som inte utesluter, utan stärker möjligheten för alla att delta på lika villkor? Här lyfter vi ett exempel från Kanada, ett land som kommit långt i att koppla samman AI-utveckling med mänskliga rättigheter.

Sverige står bakom både Europarådets AI-konvention (2024) och den nordisk-baltiska deklarationen (2025) om inkluderande AI. Båda markerar att AI (Artificiell intellegense) är en fråga om mänskliga rättigheter och funktionsrätt. Ändå saknas samlad vägledning för hur AI i praktiken kan göras tillgänglig och inkluderande för personer med funktionsnedsättning.

Därför lyfter vi ett inspirerande exempel från Kanada, ett land som kommit långt i att koppla samman AI-utveckling med mänskliga rättigheter.  Den tekniska vägledningen från Accessibility Standards Canada är ett stöd för att utforma AI-system som är både tillgängliga och opartiska.

Vägledningen lyfter särskilt fram fyra viktiga områden. 

Tillgänglig ansvarsfull AI

Personer med funktionsnedsättning bör medverka i hela AI systemets livscykel – som planerare, designers, utvecklare och användare. Det bidrar till ändamålsenlig innovation och tillämpning av AI-system. Det kan till exempel handla om att använda designverktyg och utvecklingsmiljöer som följer tillgänglighetskrav i standarden EN 301 549, så att fler kan bidra till innovation och beslutsfattande.

Opartisk AI

AI-system ska inte förstärka existerande ojämlikhet. Ett tydligt exempel är hur urvalssystem för jobb, tränade på historiska data, riskerar att sortera bort personer med funktionsnedsättning,  just för att de avviker från det statistiska genomsnittet. För att motverka detta krävs medvetna val, där minoriteters erfarenheter av diskriminering vägs in i riskbedömningar och där metoder används som lyfter fram det avvikande snarare än filtrerar bort det.

Vägledningen lyfter särskilt risken för negativ bias, att fördomar i träningsdata, algoritmer eller designval förs vidare och förstärks. Personer med funktionsnedsättning är extra utsatta eftersom de inte utgör en enhetlig grupp med ett mätbart värde, vilket gör det svårare att skydda mot snedvridning, men också desto viktigare. AI riskerar inte bara att spegla mänskliga fördomar, utan att automatisera dem. Därför behövs aktiva åtgärder i varje steg – från datainsamling till etikgranskning.

Stödjande processer 

Organisationer uppmanas att planera, granska och följa upp sin AI-användning med tillgänglighet och mänskliga rättigheter i fokus. Det kan innebära att skapa tydliga kanaler för återkoppling och klagomål, eller att erbjuda mänskliga alternativ till automatiserade beslut,  särskilt när AI används i känsliga sammanhang.

Tillgänglig utbildning och träning

För att AI ska kunna vara inkluderande behöver även utbildningen vara det. Det handlar både om att personer med funktionsnedsättning ska ha tillgång till AI-utbildningar,  och att dessa utbildningar ska innehålla kunskap om tillgänglighet, etik och användarperspektiv. Samtidigt ska AI-system själva tränas med mångfald i åtanke, så att de kan lära sig av feedback och undvika att skada.

Bygg AI-system som inkluderar – med principer och checklistor från Kanada

Genom konkreta checklistor och principer visar vägledningen hur tillgänglighet kan byggas in redan från start,  inte som ett tillägg i efterhand. Materialet är relevant för utvecklare, upphandlare, beslutsfattare och alla som vill säkerställa att framtidens AI-lösningar inte lämnar någon utanför

Ta del av vägledningen hos Accessibility Standards Canada (på engelska): 

Accessible and Equitable Artificial Intelligence Systems - Technical Guide - Accessibility Standards Canada

 

Sidan uppdaterades: