Klíčové jídlo
- Algoritmická zkreslení je škodlivá pro teenagery, kteří tráví spoustu času na internetu, říkají odborníci.
- Uživatelé Twitteru se nedávno setkali s problémem, kdy byly černé tváře vyřazeny ve prospěch těch bílých.
- Vědci tvrdí, že mozek vyvíjející se u teenagerů může být zvláště citlivý na škodlivé účinky algoritmického zkreslení.
Rozvoj mozku
Algoritmické zkreslení může nepříznivým způsobem ovlivnit dospívající, protože jejich prefrontální kůra se stále vyvíjí, vysvětlila v e-mailovém rozhovoru Mikaela Pisani, hlavní vědecká pracovník v Rootstrapu. „Účinek nedostatečného získání lajků a komentářů je stále silný a může ovlivnit sebevědomí dospívajících.“ „Mládež je obzvláště zranitelná vůči fenoménu„ Sociální továrny “, kde algoritmy vytvářejí společenské klastry na online platformách, což vede k úzkosti a depresi, pokud nebudou splněny potřeby sociálního schválení dospívajících,“ řekl Pisani. „Algoritmy se zjednodušují na základě předchozích nedokonalých dat – což vede k nadměrnému zastoupení stereotypů na úkor nuancovanějších přístupů k formování identity.“ Pokud vezmeme z širšího hlediska, jsme jako společnost ponecháni na otázku, jestli chceme algoritmy formující naše dospívající „cesty do dospělosti a podporuje tento systém spíše než potlačení osobního osobního růstu?“
Kvůli těmto problémům roste potřeba myslet na teenagery při navrhování algoritmů, říkají odborníci. „Na základě příspěvků vývojových specialistů, datových vědců a obhájců mládeže lze politiky 21. století týkající se ochrany osobních údajů a algoritmického designu také vytvořit s ohledem na konkrétní potřeby adolescentů,“ napsala doktorka z Harvardu Avriel Epps-Darlingová. nedávno. „Pokud místo toho budeme nadále bagatelizovat nebo ignorovat způsoby, kterými jsou dospívající zranitelní vůči algoritmickému rasismu, škody se pravděpodobně budou ozývat po celé další generace.“
Boj proti zaujatosti
Dokud nebude řešení, někteří vědci se snaží najít způsoby, jak snížit škody způsobené mladým lidem zkreslenými algoritmy. „Intervence byly zaměřeny na to, aby dospívající rozpoznaly, že jejich vzorce sociálních médií negativně ovlivňují jejich duševní zdraví a snaží se přijít se strategiemi, které to zmírní (např. Omezené používání sociálních médií),“ řekl Steers. „Někteří z vysokoškolských studentů, s nimiž jsme hovořili, naznačili, že se cítí nuceni vytvářet obsah, aby zůstali„ relevantní “, i když nechtějí chodit ven nebo zveřejňovat příspěvky,“ pokračovala. „Cítí však, že potřebují generovat obsah, aby udrželi spojení se svými následovníky nebo přáteli.“
Konečnou odpovědí by mohlo být odstranění lidské předpojatosti z počítačů. Ale protože programátoři jsou jen lidé, je to podle odborníků těžká výzva. Jedním z možných řešení je vývoj počítačů, které jsou decentralizované a naprogramované tak, aby zapomínaly na věci, které se naučily, říká John Suit, technologický ředitel robotické firmy KODA. „Prostřednictvím decentralizované sítě jsou data a analýza těchto dat shromažďována a analyzována z více bodů,“ uvedl Suit v e-mailovém rozhovoru. „Data nejsou shromažďována a zpracovávána nikoliv z jediného zpracování mysli AI v mezích jejího algoritmu, ale stovek nebo dokonce tisíců.“ Jak jsou tato data shromažďována a analyzována, jsou zapomenuty staré „závěry“ nebo nadbytečná data. Prostřednictvím tohoto systému algoritmus, který mohl začít se zkreslením, nakonec tuto zkreslení napraví a nahradí, pokud se ukáže, že je nesprávná. “Zatímco zkreslení může být starodávným problémem, mohou existovat způsoby, jak s ním bojovat, přinejmenším online. počítače, které zbavují našich předsudků, je prvním krokem.