Klíčové informace
- Algoritmy AI a strojového učení sledují lidské chování a mohou se s ním naučit manipulovat, říkají odborníci.
- Výzkumníci nedávno vytvořili způsob, jak najít a využít zranitelnosti ve způsobech, kterými se lidé rozhodují pomocí AI.
- Nejpropracovanějším algoritmem sociálních médií je nyní TikTok, říká jeden pozorovatel.
Algoritmy umělé inteligence (AI) a strojového učení se stále více učí, jak ovlivnit chování uživatelů, říkají odborníci. Vědci z australské národní vědecké agentury nedávno vytvořili způsob, jak najít a využít zranitelnosti ve způsobech, jak se lidé rozhodují pomocí AI. Nejnovější výzkum je jen jedním z vlny systémů poháněných umělou inteligencí, jejichž cílem je manipulovat s lidským rozhodováním. „Mnoho způsobů, kterými AI již ovlivňuje chování, nemá konce,“ říká Kentaro Toyama, profesor na University of Michigan School of Information a autor knihy
Geek Heresy: Zachraňování sociálních změn z kultu technologie, řekl v e -mailovém rozhovoru. „Ve skutečnosti, pokud jste někdy provedli vyhledávání na Google a sledovali odkaz, ovlivnil vás systém AI, který uhádl vaše zájmy a vrátil výsledky, o kterých si myslel, že jsou pro vás nejrelevantnější.“
AI vs. lidé
V australském výzkumu publikovaném v nedávném článku lidští účastníci hráli hry proti počítači v různých experimentech. V prvním experimentu účastníci vyhráli peníze kliknutím na červeně nebo modře zbarvená políčka. AI byla úspěšná asi 70% času, naučila se vzorce výběru účastníka a vedla je ke konkrétní volbě. V dalším experimentu účastníci sledovali obrazovku a stiskli tlačítko, když se jim zobrazil konkrétní symbol, nebo jej nestiskli, když jim nabídli jiný. AI se naučila přeskupovat symboly, takže účastníci dělali více chyb.
Vědci dospěli k závěru, že výsledkem experimentů bylo, že se AI poučila z odpovědí účastníků. Stroj poté identifikoval a zaměřil zranitelnosti při rozhodování lidí. Ve skutečnosti by AI mohla manipulovat účastníky k provádění konkrétních akcí. Skutečnost, že AI nebo strojové učení může manipulovat s lidmi, by neměla být překvapením, říkají pozorovatelé. „AI každý den ovlivňuje naše chování,“ řekla Tamara Schwartzová, odborná asistentka kybernetické bezpečnosti a obchodní administrativy na York College of Pennsylvania, v e -mailovém rozhovoru. „Neustále slýcháme o algoritmech v aplikacích sociálních médií, jako je Facebook nebo Twitter. Tyto algoritmy směřují naši pozornost na související obsah a vytvářejí efekt ‚echo komory‘, který následně ovlivňuje naše chování.“
TikTok sleduje
Nejpropracovanějším algoritmem sociálních médií je nyní TikTok, řekl Schwartz. Aplikace analyzuje, co vás zajímá, jak dlouho něco sledujete a jak rychle něco přeskočíte, a poté upřesňuje své nabídky, aby vás mohla sledovat. „TikTok je díky tomuto algoritmu AI, který rozumí tomu, co se vám líbí, jak se učíte a jak vybíráte informace, mnohem návykovější než jiné platformy,“ dodala. „Víme to, protože průměrný čas, který uživatelé stráví na TikToku, je 52 minut.“ Manipulace lidského chování umělou inteligencí by mohla mít pozitivní využití, argumentoval Chris Nicholson, generální ředitel společnosti AI Pathmind, v e -mailovém rozhovoru. Agentury pro veřejné zdraví by například mohly využít AI k povzbuzení lidí k lepším rozhodnutím.
„Sociální média, tvůrci videoher, inzerenti a autoritářské režimy však hledají způsoby, jak přimět lidi, aby přijímali rozhodnutí, která nejsou v jejich nejlepším zájmu, a to jim k tomu poskytne nové nástroje,“ dodal. Etické problémy s chováním ovlivňujícím AI jsou často stupně, řekl Toyama. AI umožňuje cílenou reklamu, ve které lze využít individuálních preferencí a slabých stránek. „Je například možné, aby systém umělé inteligence identifikoval lidi, kteří se pokoušejí přestat kouřit, a opepřil je lákavými reklamami na cigarety,“ dodal. Ne každý souhlasí s tím, že manipulace lidského chování AI je problematická. Klasická psychologie a AI sledují data, upozornil Jason J. Corso, ředitel Stevensova institutu pro umělou inteligenci, v e -mailovém rozhovoru. „Lidští vědci jsou pravděpodobně lepší při zobecňování pozorování a destilaci teorií lidského chování, které mohou být široce použitelné, zatímco modely AI by byly přístupnější k identifikaci nuancí specifických pro problém,“ řekl Corso. „Z etického hlediska mezi nimi nevidím rozdíl.“