Skip to content

Rasové zkreslení Twitter Algorithm poukazuje na větší technický problém

20 de Červen de 2021
1524657615449 e146ef6422be4ebaba817784b0947783

Klíčové jídlo

  • Twitter doufá, že napraví to, co uživatelé nazývají rasovým předsudkem v jejich softwaru pro náhled obrázků.
  • Vyvolání technologického giganta může být kulturním zúčtováním, které průmysl potřebuje k řešení problémů rozmanitosti.
  • Nedostatek rozmanitosti Tech poškozuje účinnost jeho technologického pokroku.
Twitter se chystá zahájit vyšetřování svého algoritmu oříznutí obrázků poté, co se stal trendovým tématem, které vedlo k větší konverzaci o otázkách rozmanitosti v technologickém průmyslu. Social juggernaut dělal titulky poté, co uživatelé objevili zjevné rasové předsudky v algoritmu náhledu obrázků. K objevu došlo poté, co uživatel Twitteru Colin Madland použil platformu k vyvolání toho, že Zoom neuznal jeho černé kolegy, kteří používali technologii zelené obrazovky, ale ve velké ironii zjistil, že algoritmus ořezávání obrazu Twitteru se choval podobně a upřednostňoval černé tváře. „Jistě, je to obrovský problém pro každou menšinu, ale myslím si, že existuje také mnohem širší problém.“ Ostatní uživatelé vstoupili do trendu, který vyvolal sérii virálních tweetů ukazujících, že algoritmus trvale upřednostňoval bílé a světlejší tváře, od lidí po kreslené postavičky a dokonce i psy. Toto selhání svědčí o větším kulturním hnutí v technologickém průmyslu, které soustavně nezohledňuje menšinové skupiny, které se přelily na technickou stránku. „Díky nim se menšiny cítí hrozně, jako by nebyly důležité, a lze ji použít k jiným věcem, které mohou způsobit vážnější újmu,“ uvedl Erik Learned-Miller, profesor výpočetní techniky na University of Massachusetts. telefonický rozhovor. „Jakmile se rozhodnete, k čemu lze použít určitý software a jaké škody mohou nastat, začneme mluvit o způsobech, jak minimalizovat pravděpodobnost, že k nim dojde.“

Kanárské ostrovy na časové ose

Twitter používá neurální sítě k automatickému oříznutí obrázků vložených do tweetů. Algoritmus má detekovat tváře k náhledu, ale zdá se, že má znatelné bílé zkreslení. Mluvčí společnosti Liz Kelley tweetovala odpověď na všechny obavy.

Kelley tweetoval: „Děkuji všem, kteří to vznesli. Před odesláním modelu jsme testovali zaujatost a při testování jsme nenašli důkazy o rasové nebo genderové zaujatosti, ale je jasné, že musíme udělat více analýz. otevřený zdroj naší práce, aby si ostatní mohli prohlížet a replikovat. “ Spoluautor bílé knihy „Facial Recognition Technologies in The Wild: A Call for a Federal Office“, Learned-Miller je přední výzkumník v oblasti excesů softwaru pro učení AI založeného na tvářích. Už roky diskutuje o potenciálním negativním dopadu softwaru pro učení obrazu a hovoří o důležitosti vytvoření reality, kde jsou tyto předsudky zmírněny podle svých nejlepších schopností. Mnoho algoritmů pro technologii rozpoznávání obličeje používá referenční data pro data, často známá jako tréninkové sady, které jsou sbírkou obrázků používaných k doladění chování softwaru pro učení obrázků. Nakonec umožňuje AI snadno rozpoznat širokou škálu tváří. V těchto referenčních sadách však může chybět různorodý fond, což povede k problémům, jako jsou ty, které zažil tým Twitteru. „Jistě, je to obrovský problém pro každou menšinu, ale myslím si, že existuje také mnohem širší problém,“ řekl Learned-Miller. „Souvisí to s nedostatečnou rozmanitostí v technologickém odvětví a potřebou centralizované regulační síly, která by prokázala správná použití tohoto druhu výkonného softwaru náchylného ke zneužití a zneužití.“

Tech chybí rozmanitost

Twitter může být nejnovější technologickou společností na trhu, ale to není zdaleka nový problém. Technologické pole zůstává převážně bílým a neustále dominuje mužem a vědci zjistili, že nedostatek rozmanitosti způsobuje replikaci systémové, historické nerovnováhy ve vyvinutém softwaru. Ve zprávě AI Now Institute z New York University z roku 2019 vědci zjistili, že černoši tvoří méně než 6 procent pracovní síly ve špičkových technologických firmách v zemi. Podobně ženy tvoří pouze 26 procent pracovníků v terénu – statistika nižší než jejich podíl v roce 1960. „Dává menšinám pocit strachu, jako by to nebylo důležité, a lze ji použít k jiným věcem, které mohou způsobit vážnější situace poškodit linii. “ Na první pohled se tyto reprezentační problémy mohou zdát pozemské, ale v praxi může být způsobená škoda hluboká. Vědci ve zprávě institutu AI Now Institute naznačují, že to příčinně souvisí s problémy se softwarem, který často nezohledňuje populaci jiné než bílé a jiné populace. Ať už jde o infračervené dávkovače mýdla, které nedokáží detekovat tmavší pleť, nebo software AI od společnosti Amazon, který nedokáže odlišit ženské tváře od jejich mužských protějšků, neschopnost řešit rozmanitost v technologickém průmyslu vede k selhání technologie při řešení různorodého světa. „Existuje spousta lidí, kteří si problémy neuvědomili a neuvědomují si, jak tyto věci mohou způsobit škodu a jak závažné jsou tyto škody,“ navrhl Learned-Miller o učení obrazu AI. „Doufejme, že se tento počet lidí zmenšuje!“