Skip to content

Falešná videa jsou snadná, ukazují se hluboké nostalgie

30 de Červen de 2021
GettyImages 1021681352 a356d9b475884936987ab5a82e0c4d48

Klíčové jídlo

  • Deep Nostalgia je nový program, který umožňuje animovat staré fotografie.
  • Tato technologie ukazuje, jak snadné je vytvářet videa lidí, kteří dělají věci, které ve skutečnosti ve skutečnosti neudělali.
  • Hluboká falešná technologie je již tak sofistikovaná, že je těžké určit, zda je video skutečné nebo generované počítačem, říká jeden odborník.
Dávejte pozor na nový software, který může vytvářet tzv. „Falešné falešné zprávy“, ve kterých lze simulovat videa skutečných lidí, varují odborníci. Deep Nostalgia, kterou vydala společnost MyHeritage, je trendy na sociálních médiích a uživatelé znovu oživují každého, od slavných skladatelů až po mrtvé příbuzné. Tento software čerpá smíšené reakce, přičemž někteří lidé jsou z těchto výtvorů potěšeni a jiní je považují za strašidelné. Tato technologie ukazuje, jak snadné je vytvářet videa lidí, kteří dělají věci, které ve skutečnosti ve skutečnosti neudělali. „Technologie Deepfake je čím dál sofistikovanější a nebezpečnější,“ uvedl v e-mailovém rozhovoru Aaron Lawson, zástupce ředitele laboratoře technologie řeči a výzkumu (STAR) společnosti SRI International. „To je částečně způsobeno povahou umělé inteligence. Tam, kde„ tradiční “technologie vyžadují ke zlepšení lidský čas a energii, se AI může učit sama od sebe.„ Schopnost AI se sama vyvinout je však meč s dvojitým ostřím, “pokračoval Lawson.“ Pokud je AI vytvořena, aby dokázala něco benevolentního, skvělé. Ale když je umělá inteligence navržena pro něco škodlivého, jako jsou hluboké podvody, nebezpečí je bezprecedentní. “

Software oživuje fotografie

Genealogický web MyHeritage představil minulý měsíc animační modul. Tato technologie známá jako Deep Nostalgia umožňuje uživatelům animovat fotografie prostřednictvím webových stránek MyHeritage. Společnost s názvem D-ID navrhla pro MyHeritage algoritmy, které digitálně obnovují pohyb lidských tváří. Podle webové stránky MyHeritage software aplikuje pohyby na fotografie a upravuje výrazy obličeje tak, jak se obvykle pohybují lidské tváře. Deep Nostalgia ukazuje, že falešné technologie se stávají dostupnějšími, uvedl v e-mailovém rozhovoru Lior Shamir, profesor výpočetní techniky na Kansas State University. Postupuje rychle a eliminuje i jemné rozdíly mezi falešným a skutečným obrazem a zvukem.

„Rovněž došlo k podstatnému pokroku směrem k hlubokému falešnému obsahu v reálném čase, což znamená, že v době video komunikace se generují přesvědčivá hluboká falešná videa,“ řekl Shamir. „Může se například uskutečnit schůzka Zoom s určitou osobou, zatímco vidí a slyší hlas úplně jiné osoby.“ V e-mailovém rozhovoru uvedl také rostoucí počet jazykových hlubokých padělků, uvedl Jason Corso, ředitel Stevensova institutu pro umělou inteligenci na Stevensově technologickém institutu. „Generování celých odstavců hlubokého falešného textu do konkrétní agendy je docela obtížné, ale moderní pokroky v hlubokém zpracování přirozeného jazyka to umožňují,“ dodal.

Jak detekovat hluboké falešné zprávy

Zatímco technologie detekce falešných detekcí je stále v rodící se fázi, existuje několik způsobů, jak si jednu všimnout, řekl Corso, počínaje ústy. „Variabilita vzhledu vnitřku úst, když někdo mluví, je velmi vysoká, takže je obtížné přesvědčivě animovat,“ vysvětlil Corso. „Dá se to udělat, ale je to těžší než zbytek hlavy. Všimněte si, jak videa Deep Nostalgia neprokazují schopnost fotografie říci„ miluji tě “nebo jinou frázi během hlubokého falešného stvoření. vyžadovalo by otevření a zavření úst, což je pro hluboké falešné generace velmi obtížné. “

Ghosting je další prozradí, dodal Corso. Pokud uvidíte rozmazání kolem okrajů hlavy, je to výsledek „rychlého pohybu nebo omezeného počtu pixelů dostupných ve zdrojovém obrazu. Ucho by mohlo na okamžik částečně zmizet nebo by se vlasy mohly rozmazat tam, kde byste to nečekali,“ on řekl. Při pozorování hlubokého falešného videa, například ostré čáry přes obličej, s tmavšími barvami na jedné straně a světlejšími na druhé, můžete také dávat pozor na barevné variace. „Počítačové algoritmy mohou často detekovat tyto vzorce zkreslení,“ řekl Shamir. „Ale hluboké falešné algoritmy rychle postupují. Je nevyhnutelné, že budou vyžadovány přísné zákony na ochranu před hlubokými falešnými a škodami, které mohou snadno způsobit.“