Babišova falešná omluva a lákání na pohádkové zisky. Většina Čechů deepfake nepozná
Obsah dostupný jen pro předplatitele.
Přihlásit se můžete
zde.
Pokud nemáte předplatné, nebo vám vypršelo, objednat si ho můžete .
Obsah dostupný jen pro předplatitele.
Předplatné můžete objednat
zde.
Pokud nemáte předplatné, nebo vám vypršelo, objednat si ho můžete zde.
Na sociálních sítích se stále častěji šíří falešná vida zvaná deepfakes vytvořená pomocí umělé inteligence. Například po pozdvižení ohledně e-mailu expremiéra Andreje Babiše, v němž poptával citlivé informace na ministra zahraničí Jana Lipavského, pak internetem kolovala Babišova údajná omluva – na první pohled by mohla být reálná, ale šlo o podvrh. Napodobit něčí tvář či hlas může trvat pár minut. Podle nedávného průzkumu ale většina Čechů neví, že taková metoda vůbec existuje, nebo si s ní neví rady.
Šéf hnutí ANO vystupuje i v mnohých dalších falešných videích, která jsou většinou zaměřena na lákání lidí k investici. Babiš na nich většinou vypráví lidem o „pohádkové“ investiční příležitosti, jde ale o podvod.
Omluva 😎
— OstraVanda (@ostravanda_) March 11, 2024
(AI & Deepfake fun) pic.twitter.com/5SPBOaxukH
Sám Babiš se proti tomu nedávno ohrazoval. „Stále častěji mi píšete, že prý doporučuju nějaký finanční produkt nebo strategii. Prosím vás, NEVĚŘTE TOMU, JE TO PODVOD. Nějací podvodníci zneužívají moje jméno, fotku, někdy dokonce i hlas a obraz pomocí umělé inteligence. Jestli na to narazíte, nahlaste to prosím provozovateli sítě a upozorněte ostatní. Pokud toto budete sdílet, budu vám vděčný,“ uvedl šéf hnutí ANO na svém facebookovém profilu.
Polovina lidí neví, o co jde
Jenže fenomén deepfake videí stále mezi Čechy není známý. Deepfake je zdánlivě reálný, umělou inteligencí vytvořený obraz, zvuk nebo video, které se nezakládají na pravdě. Z průzkumu, který pro Středoevropskou observatoř digitálních médií (CEDMO) při Univerzitě Karlově udělala agentura Median, ale vyplývá, že většina z nás netuší.
Na otázku, co je deepfake, správně odpověděly dvě pětiny respondentů. Polovina zvolila odpověď nevím a necelá desetina odpověděla špatně. Současně více než třetina lidí, 35 procent, uvedla, že se s deepfake obsahem v posledních měsících setkala.
„V odpovědích respondentů se statisticky významně častěji objevovala správná varianta u mužů oproti ženám,“ uvedl datový analytik CEDMO Lukáš Kutil. Doplnil, že vyšší znalosti měli vysokoškolsky vzdělaní lidé, studenti a také OSVČ a podle regionu pak obyvatelé Prahy a středních Čech. „Z hlediska politických preferencí jsou to nejčastěji voliči koalic PirSTAN, ale také Trikolory, Svobodných a Soukromníků, což je zajímavé, protože se jedná o voliče dvou koalic, jejichž voličská základna se typicky nepřekrývá,“ uvedl Kutil.
Většina české společnosti nástroje umělé inteligence nevyužívá, v průzkumu to uvedly tři čtvrtiny lidí. Jednou či vícekrát denně je používá jen jedno procento dotázaných. Pět procent uvedlo, že je využívá několikrát do týdne. Více s těmito nástroji pracuje mladší generace.
Asi třetina dotázaných zaznamenala v lednu falešné video s ministrem vnitra Vítem Rakušanem (STAN), které se šířilo na sociálních sítích a v kterém urážel občany Karviné. Za autentické jej považovalo 17 procent respondentů.
Stačí chvilka
V současné době dokáže umělá inteligence (AI) napodobit mluvu člověka tak, že téměř nelze poznat rozdíl. V případě obrazu a videa to ještě dokonalé není, ale v blízké době to technologie dožene, soudí Barbara Zitová z Ústavu teorie informace a automatizace Akademie věd ČR.
„Technologie AI se rychle posouvá kupředu, neboť se zvedá výpočetní síla, experti sbírají větší množství dat a hlavně tím, jak je ta oblast stále zajímavější, tak ten výzkum začíná dělat více lidí,“ uvedla Zitová.
Vytvořit takzvaný deepfake je podle vědkyně možné vytvořit velice rychle. Stačí většinou dvě minuty toho daného člověka. Podle odbornice v dnešní době softwary nabízí jakousi ochranu v podobě souhlasu konkrétního člověka, ale určitě se najdou softwary, u kterých se to dá obejít. „U audia stačí i minutový záznam a z mnou zkoušené aplikace vím, že tam ani žádné omezení a potřeba souhlasu není,“ dodala Zitová.
Vytvořit deepfake podle Zitové dokáže i laik. „Technologie je dostupná široké veřejnosti. Některé firmy své služby začínají zpoplatňovat, avšak to neodradí ty, kteří se takovým podvrhem pokouší něčeho dosáhnout,“ řekla vědkyně.
Ověřit si identitu člověka na druhé straně telefonu lze nějakou informací, kterou znají pouze dotyční či nějakým heslem. Další možností je přemýšlet nad obsahem sdělení a v nejlepším případě zavolat danému člověku zpátky. „Je reálné, že budeme mít na mobilech aplikaci, která bude ověřovat, jestli je na druhé straně umělá inteligence nebo člověk,“ zmínila Zitová. Banky by podle ní měly odstoupit od ověřování identity hlasem.
Registrují i policisté
Podle policie jde o stále častější způsob podvodu. „V poslední době zaznamenáváme značný nárůst případů, kde se pachatelé snaží nalákat oběti na podvodné investice, za užití podvržených, tzv. deepfake videí. Jedná se o fiktivní rozhovory, které jsou upravené pokročilými technologiemi. Zpravidla se jedná o videa známých osobností, které doporučují určité investiční platformy. Podvodníci takto zneužívají důvěry ve známé osobnosti s cílem přimět oběti k investování na podvodné platformě,“ uvedla pro Echo24 policejní mluvčí Violeta Siřišťová.
Už téměř evergreenem jsou také klamavé reklamy, které nabízejí vysoké zisky z akcií do společnosti ČEZ. Internetoví podvodníci je často přes Google nebo Facebook propagují přes známé firmy a také politiky, ať už jde třeba o prezidenta Petra Pavla nebo premiéra Petra Fialu.
Obecně platí, že je nejlepším způsobem, jak se před podvodem s deepfakes ochránit, být obezřetný a nevěřit všemu, co uživatel vidí na internetu. Pokud se mu někdo bude snažit prodat nějaký finanční produkt nebo strategii, kterou doporučují známé osobnosti, měl by si to ověřit na oficiálních webových stránkách těchto osobností.
„Pachateli, potažmo pachatelům, v případě dopadení a odsouzení hrozí až pět let odnětí svobody,“ varují policisté.