Obsah článku
Dcera legendárního Karla Gotta se stala terčem odpudivého útoku, který využívá technologii umělé inteligence. Fanoušci si všimli něčeho podezřelého a začali pátrat. To, na co přišli, vyrazilo dech úplně všem.
Začalo to nevinně vypadajícím videem
Na sociálních sítích se začal šířit obsah, ve kterém figurovala mladičká Charlotta Gott — dcera Mistra, které je teprve devatenáct let. Na první pohled vypadalo všechno normálně. Hlas, obličej, pohyby. Jenže něco nesedělo.
Pozorní fanoušci rodiny Gottových si všimli drobných nesrovnalostí. Mimika občas zvláštně cukala. Pohyby rtů ne zcela odpovídaly slovům. A hlavně — Charlotta v tom videu říkala věci, které by nikdy neřekla.
Technologie, která dokáže ukrást vaši tvář
Ukázalo se, že někdo použil takzvaný deepfake. Jde o technologii umělé inteligence, která dokáže dokonale napodobit obličej i hlas jakéhokoli člověka. Stačí jí pár fotografií a pár sekund hlasové nahrávky. Zbytek si domyslí sama.
Výsledek? Video, které vypadá jako skutečné. Člověk na něm mluví, gestikuluje, usmívá se — a přitom o ničem neví. Nikdy před kamerou nestál. Nikdy ta slova nevypustil z úst.
Právě tohle se stalo Charlottě. Někdo vzal její veřejně dostupné fotky a záběry, hodil je do programu a vytvořil falešný obsah. Bez jejího vědomí. Bez jejího souhlasu.
Co fanoušci odhalili, tím ztuhli
Když fanoušci začali pátrat po původu videa, narazili na celou síť podobných podvodů. Charlotta nebyla jediná oběť. Deepfake technologie se v posledních měsících začala masivně zneužívat k vytváření falešných reklam, podvodných investičních nabídek a ještě mnohem horšího obsahu.
Falešná videa s tvářemi českých celebrit zaplavila internet. Využívají důvěru, kterou lidé k těmto osobnostem chovají. Cíl je prostý — vylákat peníze z důvěřivých obětí.
V případě Charlotty šlo o obzvláště odporný útok. Využít tvář devatenáctileté dívky, dcery zesnulého národního umělce, k podvodu — to překročilo hranici, kterou většina lidí považovala za nedotknutelnou.
Jak se bránit a co dělat
Rozpoznat deepfake není snadné, ale existují varovné signály. Sledujte oči — v deepfake videích často nepřirozeně mrkají nebo se dívají „skrz“ kameru. Všímejte si okrajů obličeje, kde bývá vidět rozmazání. A především — pokud vám někdo přes video nabízí zázračnou investici nebo produkt, buďte na pozoru.
Žádná celebrita vám přes sociální sítě nenabízí investiční příležitost. Žádná dcera slavného zpěváka vás neprosí, abyste někam posílali peníze. Každé takové video považujte za podvod, dokud se neprokáže opak.
Rodina Gottových se k situaci zatím veřejně nevyjádřila. Ale zprávy o tom, že zvažují právní kroky, kolují už několik dní.
Tohle se týká každého z nás
Nejděsivější na celé věci není samotný útok na Charlottu. Nejděsivější je, že stejnou technologií může kdokoli zaútočit na kohokoli. Na vaši matku. Na vašeho syna. Na vás. Stačí pár fotek z Facebooku.
Žijeme v době, kdy vaše vlastní tvář už nepatří jen vám. A to by mělo vyděsit každého.
Sdílejte tento článek — vaši blízcí by měli vědět, jak takový podvod poznat dřív, než bude pozdě. A co vy — narazili jste už na podobné falešné video? Napište do komentářů.

Zdroje


