Hur ett medvetet förhållningssätt till AI minskar på partiska datamängder

Partiska datamängder och etisk AI

AI-drivna lösningar behöver datauppsättningar för att vara effektiva. Och skapandet av dessa datamängder är fyllt av ett implicit fördomsproblem på en systematisk nivå. Alla människor lider av fördomar (både medvetna och omedvetna). Fördomarna kan ta hur många former som helst: geografiska, språkliga, socioekonomiska, sexistiska och rasistiska. Och de systematiska fördomarna bakas in i data, vilket kan resultera i AI -produkter som förvarar och förstorar fördomar. Organisationer behöver ett medvetet tillvägagångssätt för att motverka fördomar som smyger sig in i datamängder.

Exempel som illustrerar biasproblemet

Ett anmärkningsvärt exempel på denna datauppsättningsbias som fick mycket negativ press vid den tiden var en lösning för att läsa CV som gynnade manliga kandidater framför kvinnor. Detta beror på att rekryteringsverktygets datauppsättningar hade utvecklats med hjälp av meritförteckningar från det senaste decenniet då en majoritet av de sökande hade varit män. Data var partisk och resultaten återspeglade den förspänningen. 

Ett annat allmänt rapporterat exempel: På den årliga Google I/O-utvecklarkonferensen delade Google en förhandstitt på ett AI-drivet dermatologihjälpverktyg som hjälper människor att förstå vad som händer med problem relaterade till deras hud, hår och naglar. Hudläkemedelsassistenten understryker hur AI utvecklas för att hjälpa till med vården - men det belyste också möjligheten för partiskhet att krypa in i AI i spåren av kritik om att verktyget inte är lämpligt för färgade människor.

När Google tillkännagav verktyget noterade företaget:

För att se till att vi bygger för alla, står vår modell för faktorer som ålder, kön, ras och hudtyper - från blek hud som inte solbränns till brun hud som sällan brinner.

Google, använder AI för att hitta svar på vanliga hudåkommor

Men en artikel i Vice sa att Google inte kunde använda en inkluderande datauppsättning:

För att utföra uppgiften använde forskarna en träningsdatauppsättning av 64,837 12,399 bilder av 3.5 90 patienter i två stater. Men av de tusentals hudåkommor på bilden kom bara XNUMX procent från patienter med Fitzpatrick hudtyper V och VI – de som representerar brun hud respektive mörkbrun eller svart hud. XNUMX procent av databasen var sammansatt av personer med ljus hy, mörkare vit hy eller ljusbrun hy, enligt studien. Som ett resultat av den partiska provtagningen säger hudläkare att appen kan sluta med att över- eller underdiagnostisera människor som inte är vita.

Vice, Googles nya dermatologiapp var inte designad för personer med mörkare hud

Google svarade med att säga att det skulle förfina verktyget innan det släpptes formellt:

Vårt AI-drivna dermatologihjälpverktyg är kulmen på mer än tre års forskning. Sedan vårt arbete presenterades i Nature Medicine har vi fortsatt att utveckla och förfina vår teknik med inkorporering av ytterligare datauppsättningar som inkluderar data donerade av tusentals människor och miljontals mer utvalda hudproblembilder.

Google, använder AI för att hitta svar på vanliga hudåkommor

Så mycket som vi kanske hoppas att AI- och maskininlärningsprogram kan korrigera för dessa fördomar, är verkligheten kvar: de är bara som smarta eftersom deras datamängder är rena. I en uppdatering till det gamla programmeringsordspråket skräp in skräp ut, AI-lösningar är bara lika starka som kvaliteten på deras datamängder från början. Utan en korrigering från programmerare har dessa datamängder inte bakgrundserfarenhet för att fixa sig själva – eftersom de helt enkelt inte har någon annan referensram.

Att bygga datamängder på ett ansvarsfullt sätt är kärnan i allt etisk artificiell intelligens. Och människor är kärnan i lösningen. 

Mindful AI är etisk AI

Bias sker inte i ett vakuum. Oetiska eller partiska datamängder kommer från att ta fel tillvägagångssätt under utvecklingsstadiet. Sättet att bekämpa fördomsfel är att anta ett ansvarsfullt, människocentrerat tillvägagångssätt som många i branschen kallar Mindful AI. Mindful AI har tre viktiga komponenter:

1. Medveten AI är människocentrerad

Från starten av AI-projektet, i planeringsstadiet, måste människors behov stå i centrum för varje beslut. Och det betyder alla människor – inte bara en delmängd. Det är därför utvecklare måste förlita sig på ett mångsidigt team av globalt baserade människor för att träna AI-applikationer för att vara inkluderande och fördomsfria.

Crowdsourcing av datamängderna från ett globalt, mångsidigt team säkerställer att fördomar identifieras och filtreras bort tidigt. De med varierande etnicitet, åldersgrupper, kön, utbildningsnivåer, socioekonomisk bakgrund och platser kan lättare upptäcka datauppsättningar som favoriserar en uppsättning värden framför en annan, och på så sätt rensa bort oavsiktlig fördom.

Ta en titt på röstapplikationer. När man tillämpar en medveten AI-metod och utnyttjar kraften i en global talangpool, kan utvecklare redogöra för språkliga element som olika dialekter och accenter i datamängderna.

Att etablera ett människocentrerat designramverk från början är avgörande. Det går långt för att säkerställa att data som genereras, samlas in och märks uppfyller slutanvändarnas förväntningar. Men det är också viktigt att hålla människor uppdaterade under hela produktutvecklingens livscykel. 

Människor i slingan kan också hjälpa maskiner att skapa en bättre AI-upplevelse för varje specifik publik. På Pactera EDGE förstår våra AI-dataprojektteam, lokaliserade globalt, hur olika kulturer och sammanhang kan påverka insamlingen och kureringen av tillförlitlig AI-träningsdata. De har de nödvändiga verktygen de behöver för att flagga problem, övervaka dem och åtgärda dem innan en AI-baserad lösning går live.

Human-in-the-loop AI är ett projekt "säkerhetsnät" som kombinerar styrkorna hos människor – och deras olika bakgrund med maskiners snabba beräkningskraft. Detta samarbete mellan människor och AI måste etableras från början av programmen så att partisk data inte utgör en grund i projektet. 

2. Mindful AI är ansvarig

Att vara ansvarig är att säkerställa att AI-system är fria från fördomar och att de är grundade i etik. Det handlar om att vara uppmärksam på hur, varför och var data skapas, hur den syntetiseras av AI-system och hur den används för att fatta beslut, beslut som kan ha etiska konsekvenser. Ett sätt för ett företag att göra det är att arbeta med underrepresenterade grupper för att vara mer inkluderande och mindre partiska. Inom området för datakommentarer belyser ny forskning hur en multi-annotator multi-task-modell som behandlar varje kommentators etiketter som separata deluppgifter kan hjälpa till att mildra potentiella problem som är inneboende i typiska grundsannningsmetoder där annotatorns oenighet kan bero på underrepresentationer och kan ignoreras i sammanställningen av kommentarer till en enda grundsanning. 

3. Pålitlig

Pålitlighet kommer från att ett företag är transparent och kan förklara hur AI-modellen tränas, hur den fungerar och varför de rekommenderar resultaten. Ett företag behöver expertis med AI-lokalisering för att göra det möjligt för sina kunder att göra sina AI-applikationer mer inkluderande och personliga, med respekt för kritiska nyanser i det lokala språket och användarupplevelser som kan göra eller bryta trovärdigheten för en AI-lösning från ett land till nästa . Till exempel bör ett företag designa sina applikationer för personliga och lokaliserade sammanhang, inklusive språk, dialekter och accenter i röstbaserade applikationer. På så sätt ger en app samma nivå av sofistikerad röstupplevelse till alla språk, från engelska till underrepresenterade språk.

Rättvisa och mångfald

I slutändan säkerställer medveten AI att lösningarna bygger på rättvisa och mångsidiga datamängder där konsekvenserna och effekterna av vissa resultat övervakas och utvärderas innan lösningen går ut på marknaden. Genom att vara uppmärksam och inkludera människor i alla delar av lösningens utveckling, hjälper vi till att se till att AI -modeller håller sig rena, minimalt partiska och så etiska som möjligt.

Vad tror du?

Den här sidan använder Akismet för att minska spam. Läs om hur din kommentardata behandlas.