Er Twitters algoritme racistisk?

Carl og Lenny
(Billedkredit: Fox / Future Owns)

Twitter har iværksat en undersøgelse af sit neurale netværk, der ser ud til at være racistisk partisk. Når et billede trækkes op i dets billedeksempelfunktion, favoriserer algoritmen konsekvent ansigterne på hvide mennesker - næsten altid viser et lysere ansigt og beskærer de sorte mennesker, der også findes på billedet.

En universitetsprofessor rejste først designproblemet på Twitter, men i forhold til Zoom's AI-software. Du kan se tweetet nedenfor, der henledte opmærksomheden på, at Zoom slettede ansigtet på sin sorte kollega, da han brugte en baggrund under videochat (for mere vellykkede designresultater, se vores valg af værktøjer til webdesign ).



nogen gætter? pic.twitter.com/9aIZY4rSCX 19. september 2020



Gennem løbet af tråden , Colin Madland indså, at Twitter også misligholdte kun at vise sit eget ansigt i forhåndsvisninger af fotos og udelade det fra sin sorte kollega - hvilket indikerer et udbredt problem med den måde, AI fungerer.

En separat Twitter 'eksperiment' begyndte (se det nedenfor), hvor den kryptografiske ingeniør Tony Arcieri sammenlignede forhåndsvisningerne af Mitch McConnell og Barack Obama for at se, hvilken Twitter-algoritme der ville være.



Forsøger et forfærdeligt eksperiment ... Hvilken vil Twitter-algoritmen vælge: Mitch McConnell eller Barack Obama? pic.twitter.com/bR1GRyCkia 19. september 2020

Arcieri og andre redigerede billederne på et utal af måder at kontrollere resultaterne - vende om farverne, lysne og lysne dele af billederne og ændre baggrunden. Alle forsøg syntes at bevise en AI-drevet race-bias, hvor Obama kun dukkede op på forhåndsvisning, da farverne blev ændret.

Andre Twitter-brugere deltog i at teste algoritmen, eksperimentere med Lenny og Carl fra The Simpsons og endda hunde.



Jeg prøvede det med hunde. Lad os se. pic.twitter.com/xktmrNPtid 20. september 2020

Twitter Liz Kelley takkede alle for at have gjort opmærksom på problemet , der angiver, at det sociale netværk har 'mere analyse at gøre'. 'Vi testede for bias inden vi sendte modellen og fandt ikke tegn på race- eller kønsforstyrrelser i vores test, men det er klart, at vi har fået flere analyser at gøre. Vi åbner kilde for vores arbejde, så andre kan gennemgå og replikere. '

Der er tydeligvis mere arbejde at gøre på algoritmerne, der styrker AI, og vi er glade for, at Twitter tager ansvar for problemet med sin software. Da AI nu bliver mere og mere ansvarlig for forskellige aspekter af vores daglige oplevelser, er det vigtigt, at det er bygget til at afspejle de komplekse nuancer af samfundets behov. Hvis du gerne vil sikre dig, at dit design fungerer for alle, se vores guide til inkluderende webdesign .

Læs mere: