Deepfakes vysvětlil AI, díky kterému je falešná videa příliš přesvědčivá

  • Michael Fisher
  • 0
  • 4474
  • 366
reklama

Vidět znamená věřit. Přinejmenším to byl případ předtím, než jsme si uvědomili, že lidé by mohli nahrát videa k pohonu hoaxů a přepsat historii. I když jsme našli způsoby, jak odhalit většinu podvodů, existuje jeden technologický vývoj, který nabírá tempo tak rychle, že už brzy nebudeme vědět, jak říci, co je skutečné a co je falešné.

Deepfakes mění vše, co jsme považovali za možné, pokud jde o doktorovaná videa. Zde je vše, co o nich potřebujete vědět ...

Co jsou Deepfakes?

Termín deepfakes pochází z kombinace slov “hluboké učení” a “padělky”. Je to proto, že tato videa vytváří software umělé inteligence vyškolený v syntéze obrázků a videa. Tato umělá inteligence umí překrýt obličej jednoho subjektu (zdroj) na video jiného (cíl). Pokročilejší formy technologie dokážou syntetizovat zcela nový model člověka pomocí gesta a obrázků nebo videa subjektu, které si chtějí předstírat..

Tato technologie může vytvářet modely obličeje založené na omezených vizuálních datech, jako je například jeden obrázek. Čím více údajů musí AI zpracovat, tím realističtější je výsledek.

To je důvod, proč jsou politici a celebrity tak snadnými cíli pro hluboce potěšení, protože online je k dispozici tolik vizuálních dat, že software může použít. Vzhledem k tomu, že software deepfake je k dispozici na platformách s otevřeným zdrojovým kódem, lidé na internetu neustále vylepšují a staví na práci ostatních.

Počátky technologie Deepfake AI

Technologie za hlubokými padělky byla vyvinuta pro řadu účelů. Stejně jako Photoshop má software profesionální, zábavní a fandové použití. A stejně jako Photoshop, i když tvůrce nemá žádné škodlivé úmysly při vytváření softwaru, nezabránilo to lidem používat jej pro škodlivé účely..

Technologie výměny obličejů byla původně používána hlavně ve filmovém průmyslu. Jeden z nejznámějších případů je ve filmu Rogue One: A Star Wars Story v roce 2016. Ve filmu filmaři používali technologii výměny obličeje a syntézy videa k obnovení postavy Grand Moff Tarkin. Ve filmu byla také vytvořena mladší verze princezny Leia. V obou případech byly modely tváří původních herců položeny na samostatné herce.

Aplikace jako Snapchat také používají technologii výměny obličejů k vytvoření zábavných filtrů pro uživatele. Vývojáři těchto aplikací neustále zdokonalují detekci a sledování obličeje, aby tyto filtry používali efektivněji.

Mezitím jiní vyvinuli nástroje pro syntézu videa k vytvoření hologramů pro vzdělávací účely. Například jeden projekt vyvinul software pro syntézu videa a obličeje tak, aby svědectví pozůstalých z holocaustu mohla být prezentována jako interaktivní hologramy v muzeu.

Proč Deepfakes dělají lidi nervózní

Když si lidé uvědomili, že podvodníci a lidé hrající hoaxy použili Photoshop k vytvoření falešných obrazů, museli jsme být skeptičtější, co jsme považovali za důkaz. Naštěstí existuje mnoho způsobů, jak zjistit, zda byl obraz falešný, dokonce i pouhým okem.

Kromě toho je vytvoření přesvědčivého doktorského obrazu ve Photoshopu relativně náročné na pracovní sílu. Nejenže kdokoli může dát dohromady dva obrázky a učinit je tak realistickými.

Ale hluboké padělky jsou jiné. Strojové učení usnadňuje život 4 Algoritmy strojového učení, které utváří váš život 4 Strojové učení, algoritmy, které tvarují váš život Možná si to neuvědomíte, ale strojové učení je již všude kolem vás a může mít překvapivý vliv na váš život. Nevěříš mi? Možná vás překvapí. , ale v tomto případě je to mnohem jednodušší. Za prvé, software je široce a volně dostupný. Například FakeApp je oblíbenou volbou pro vytváření hlubokých padělků. Pro použití face-swap nepotřebujete pokročilé dovednosti, software to za vás udělá.

Vzhledem k tomu, že umělá inteligence a hluboké učení pomáhají vytvářet hluboké kouzla, tato technologie se také zlepšuje a stává se přesvědčivější rychlostí. To nebude trvat dlouho, než tyto úpravy nejsou pouhým okem viditelné.

Ve světě, ve kterém se objevují falešné zprávy, by se přesvědčivé prohlubování mohlo ukázat jako chaotická síla proti tomu, co považujeme za pravdivé.

K vzestupu hlubokých padělků dochází také v době, kdy syntéza hlasu AI také rychle postupuje. AI může nejen vytvářet falešná videa, ale může také generovat hlasové modely pro lidi.

To znamená, že byste nepotřebovali impersonátora, aby to znělo, jako by politik dělal pobuřující prohlášení. Místo toho můžete trénovat umělou inteligenci tak, aby napodobovala jejich hlas.

Důsledky deepfakes

Lidé již používají hluboké padělky pro škodlivé účely. Lidé často používali FakeApp k vytváření falešných videí hereček celebrit zabývajících se obsahem pro dospělé.

Gal Gadot, Daisy Ridley a Emma Watson jsou jen některé z hereček, na které se zaměřují falešná videa pro dospělé. Tyto hluboké padělky zaměňují tváře hereček za videa dospělých filmových hvězd.

Zatímco několik typů platforem a určité webové stránky pro dospělé tyto typy videí zakázaly, každý den se objevuje více. Některé webové stránky ve skutečnosti vytvářejí pro dospělé hluboce oblíbená videa pro dospělé na základě požadavků uživatelů.

Ve většině zemí se s tímto druhem obsahu dosud nezabývají žádné zákony, což ztěžuje kontrolu.

I když jsme stále ještě daleko od dystopie ovládané dezinformacemi a falešnými videonahrávkami, které vidíme ve filmech jako The Running Man, už jsme příliš dobře obeznámeni s účinky falešných zpráv Co je falešné zprávy a jak se šíří? Rychle? Co jsou falešné zprávy a jak se rychle šíří? Falešné zprávy trápí internet a nejhorší na tom je, že většina lidí to nemůže poznat, když to vidí. .

Deepfakes může být mocným nástrojem při šíření dezinformací. Nikdo nebyl orámován zločinem ani nepodváděl svou smrt pomocí hlubokých podvodů, ale co se stane, když bude těžké říct, která videa jsou skutečně skutečná?

Důsledky hlubokých podvodů používaných pro politické účely jsou dvojí. Za prvé, šíření falešných zpráv je mnohem snazší. Videa s větší pravděpodobností než text nebo obrázky přesvědčují lidi, že se skutečně stalo něco fiktivního.

Lidé již věří titulkům z falešných webových stránek bez důkazů podporujících jejich příběh. Najednou budou mít falešné příběhy “důkaz” ukázat politikům přiznávajícím se k přestupkům nebo k pobouřujícím výrokům.

Na druhé straně, hluboké padělky by také mohly povzbudit politiky, když se vyhýbají odpovědnosti. Vždy mohli snadno tvrdit, že zvukový nebo obrazový záznam je ve skutečnosti hluboce falešný.

Jak bojujeme proti hluboce?

Zatímco mnoho technologických společností se věnuje časům hlubokých podvodů, řada lidí vyvíjí nástroje pro boj proti škodlivým falešným videům. AI může bojovat s hackery a počítačovou kriminalitou Jak umělá inteligence bojuje s moderními hackery a počítačovou kriminalitou Jak umělá inteligence bude bojovat s moderními hackery a počítačovou kriminalitou Jak mohou společnosti bojovat proti hackerům s nedostatkem talentů v kybernetické bezpečnosti a počítačovou kriminalitou? S umělou inteligencí! , ale je také užitečná pro detekci manipulace AI ve videích.

Nadace AI vytvořila plugin prohlížeče s názvem Reality Defender, který pomáhá detekovat hluboce falešný obsah online. Další plugin, SurfSafe, také provádí podobné kontroly. Oba tyto nástroje mají za cíl pomoci uživatelům internetu poznat fikci od fikce.

Webové stránky pro kontrolu faktů, jako je Snopes, se také rozšířily o vyvolávání videí pro lékaře. Zatím však nemají nástroje pro automatické detekování hlubokých padělků.

Dokonce i americké ministerstvo obrany investovalo do softwaru pro detekci hlubokých padělků. Koneckonců, co by se stalo, kdyby se na internetu objevilo přesvědčivé video světového vůdce, prohlašující válku nebo odpálení rakety proti jiné zemi? Vlády potřebují nástroje k rychlému ověření legitimity videa.

Neúmyslné důsledky strojového učení

Není pochyb o tom, že technologie AI a hluboké strojové učení zlepšují náš život mnoha způsoby. Tato technologie má však také nezamýšlené důsledky.

Zatímco špatná data jsou hlavní překážkou algoritmů strojového učení, hraje roli také lidský element. Je těžké předvídat, jak lidé mohou používat určitou technologii pro škodlivé účely. Další informace o strojovém učení a minulých chybách naleznete v našem průvodci algoritmy strojového učení a proč se pokazí Co jsou algoritmy strojového učení? Jak fungují Co jsou algoritmy strojového učení? Zde jsou uvedeny, jak fungují Učební algoritmy stroje jsou navrženy tak, aby usnadňovaly život a zlepšovaly systémy, ale mohou mít špatné následky. . A přestože je pro vás obtížné identifikovat hluchoty jako takové, můžete se vyhnout falešným zprávám pomocí inteligentních zpravodajských aplikací. 5 Inteligentní zpravodajské aplikace, které vám pomohou vyhnout se falešným zprávám s důvěryhodnějšími zprávami. Chcete se zbavit falešných zpráv? Tyto inteligentní aplikace můžete použít k získání fakticky kontrolovaných a neutrálních zpráv. .




Bisher hat noch niemand einen Kommentar zu diesem Artikel abgegeben.

O moderní technologii, jednoduché a cenově dostupné.
Váš průvodce ve světě moderních technologií. Naučte se, jak používat technologie a pomůcky, které nás každý den obklopují, a naučte se, jak objevovat na internetu zajímavé věci.