V posledních dnech se na vašem WhatsApp nebo Instagramu objevily podivné videa? Například tytam, jak tygr odnáší spícího člověka, leopard procházející ulice Lucknow, leopard ve vstupu do domu v Pune, nebo jak sedící tygr pije alkohol od člověka? Po jejich shlédnutí jste byli udiveni, naskočila vám husí kůže nebo jste videa hned posílali dál? Zastavte se a přemýšlejte. Všechna tyto videa jsou falešná. Nebyla natočena skutečnými kamerami, ale byla vytvořena pomocí AI.
V dnešním světě sociálních médií vypadají videa generovaná AI tak realisticky, že je pro běžného uživatele velmi snadné se nechat napálit. V posledních šesti měsících došlo k obrovskému zlepšení aplikací pro generaci videí jako Sora, Kling a Luma. Nyní, pokud vložíte pouze jednu větu, může být během 10-15 sekund vytvořeno video, které vypadá velmi přesvědčivě. V důsledku toho se nyní šíří spousta falešných videí s tygry, leopardy, medvědy, psy a králíky.
Jak poznat falešná videa?
- Kvalita je velmi špatná: Pokud má video nízkou kvalitu, nevěřte mu hned. I obyčejné mobilní telefony dokážou zaznamenat jasná videa ve 4K rozlišení. Proč by mělo být toto video rozmazané? Takové otázky byste si měli klást, neboť AI videa často trpí nízkou kvalitou.
- Falešné CCTV záznamy: Aby se podvody skryly, jsou videa často prezentována jako CCTV záznamy. Často jsou tam pouze čísla místo data a času a kvalita zvuku bývá také podprůměrná.
- Extrémně perfektní vzhled: Pokud je pleť nadmíru lesklá, oči a nos dokonalé a vlasy/vzhled se pohybují nepřirozeně, je vysoká pravděpodobnost, že se jedná o AI. AI ještě nedokáže správně reprodukovat emoce v očích a detaily obličeje.
- Podívejte se na ruce a prsty: AI má stále potíže s detaily, jako jsou ruce a prsty. Když někdo skáče nebo běží, může se objevit nedoslýchavost nebo nesrovnalosti ve stínech, světle a anatomii těla.
- Zmizelé nebo měnící se detaily: Pamatujete si na video králíků skáčících na trampolíně? Tam jeden králík náhle zmizí a jiný změní svůj tvar. Takové detaily jsou často patrné.
- Krátká videa: Dlouhá videa obvykle vyžadují další náklady na vytvoření. Vzhledem k tomu, že většina virálních AI klipů je zdarma, zabírá pouze několik sekund.
- Vodoznak Sora: Na videích vytvořených Sora od OpenAI se objevuje vodoznak „Sora“. Ten může být zakryt různými metodami nebo rozmazán.
- Nejdůležitější je, může se to opravdu stát? Je možné, aby tygr seděl na ulici a pít alkohol od člověka? Pokud si tuto otázku položíte, 90 % falešných videí snadno odhalíte.
Například, policie v Nagpuru vydala varování osobě, která šířila fámy kvůli videu o pití alkoholu tygrem. Také videa leopardů z Pune byla lesními úřady označena za falešná. AI se stává čím dál chytřejší. Brzy budou tato videa vypadat ještě realističtěji. Je nezbytné si vytvořit zvyk, pokud uvidíte nějaké video, zastavte se na pár sekund a zkontrolujte uvedené aspekty, než ho sdílíte. Jinak budete nevědomky šířit falešné a děsivé fámy.









