17 kwietnia 2026
Jak rozpoznać filmy generowane przez AI? Praktyczny przewodnik weryfikacji wideo i deepfake’ów
inspiracje
Sztuczna inteligencja potrafi dziś tworzyć filmy niemal nieodróżnialne od prawdziwych nagrań. Deepfake to syntetyczny obraz lub zapis dźwiękowy imitujący realną osobę. Algorytm analizuje tysiące zdjęć, filmów i próbek głosu, po czym scala je w spójną cyfrową iluzję. Efekt: dowolna osoba może „powiedzieć” lub „zrobić” coś, czego nigdy nie zrobiła.
Technologia ta jest wykorzystywana do wyłudzeń finansowych, niszczenia reputacji i manipulacji politycznej. Granica między prawdą a fałszem zaciera się coraz szybciej. Pamiętaj: nagranie wideo nie jest już dowodem, a liczy się przede wszystkim jego weryfikowalne źródło.
PRZYKŁAD: WYŁUDZENIE FINANSOWE
W 2024 roku pracownik finansowy hongkońskiej firmy przelał 25 milionów dolarów oszustom po wideokonferencji, w której uczestniczył deepfake jego dyrektora generalnego1. Wszystkie twarze na ekranie były syntetyczne – tylko on był prawdziwy. Nie zweryfikował polecenia w żadnym innym kanale.
PRZYKŁAD: MANIPULACJA POLITYCZNA
W trakcie wyborów na Słowacji w 2023 roku w mediach społecznościowych rozpowszechniono nagranie audio, na którym lider partii Progresywna Słowacja rzekomo planował sfałszowanie wyników i podnosił ceny alkoholu. Nagranie pojawiło się dwa dni przed głosowaniem — w czasie obowiązywania ciszy wyborczej, która uniemożliwiała oficjalne dementi. Eksperci potwierdzili, że był to deepfake2.
Pułapki wizualne – na co patrzeć?
- Dłonie i palce: AI często generuje sześć palców lub nadaje im „roztopiony”, plastikowy kształt.
- Oczy i zęby: oczy bywają pozbawione blasku i „pływają” w oczodołach; zęby zlewają się w jedną białą plamę, zamiast tworzyć oddzielne elementy.
- Skóra i mimika: cera jest nienaturalnie gładka, gesty sztywne, a wyraz twarzy nie pasuje do treści wypowiedzi.
- Tło: elementy za postacią mogą się zniekształcać, skakać lub powtarzać w nielogiczny sposób.
- Oświetlenie: cienie i refleksy migoczą lub są rozmieszczone w sposób sprzeczny z fizyką.
PRZYKŁAD: BŁĘDY W TLE
W fałszywym nagraniu „wybuchu” przy Pentagonie z maja 2023 roku, które chwilowo wpłynęło na notowania giełdowe, tło za budynkiem wykazywało charakterystyczne zniekształcenia ogrodzenia i powtarzające się wzory w dymie – typowe artefakty generatorów obrazu działających na bazie dyfuzji3.
Przy podejrzanych nagraniach zatrzymaj film i oglądaj go klatka po klatce – błędy są najwyraźniej widoczne na krawędziach obiektów i w ruchu.
Test słuchu – problemy z dźwiękiem
- Minimalne opóźnienia między ruchem warg a dźwiękiem to jeden z najczęstszych błędów deepfake’ów.
- Syntetyczna mowa często brzmi płasko: brakuje w niej mikroemocji, naturalnych zawahań i indywidualnej intonacji. Pauzy nie odpowiadają interpunkcji.
- Sklonowany głos może mieć „metaliczny” pogłos lub być pozbawiony szumów otoczenia, typowych dla prawdziwych nagrań.
- Gdy głos brzmi spokojnie, a twarz wyraża silne emocje (lub odwrotnie), jest to silny sygnał ostrzegawczy.
PRZYKŁAD: KLONOWANIE GŁOSU W WYŁUDZENIU
W 2019 roku dyrektor brytyjskiej spółki energetycznej przelał 220 000 euro po tym, jak odebrał telefon od osoby brzmiącej identycznie jak jego przełożony z centrali w Niemczech – z charakterystycznym akcentem, intonacją i sposobem mówienia. Głos został sklonowany przez AI. Dyrektor nie zadzwonił z powrotem na znany mu numer, żeby potwierdzić polecenie4.
Długość i jakość techniczna
Większość klipów typu deepfake trwa od 5 do 10 sekund – generowanie dłuższego materiału jest kosztowne obliczeniowo i zwiększa ryzyko błędów. Krótkie, sensacyjne wideo powinno wzbudzać czujność.
Twórcy fałszywych treści celowo obniżają jakość nagrania – dodają szumy, silną kompresję lub symulują obraz ze „starego telefonu”, żeby zamaskować niedoskonałości algorytmu. Oficjalne materiały z ważnych wydarzeń są zazwyczaj dostępne w HD. Niska rozdzielczość w połączeniu z sensacyjną treścią to klasyczna kombinacja ostrzegawcza.
Narzędzia weryfikacji
- Etykiety platform. YouTube i TikTok oznaczają materiały wygenerowane przez AI; nie jest to system doskonały, ale warto go obserwować.
- Detektory wideo. Narzędzia takie jak TruthScan czy Hive Moderation analizują spójność oświetlenia, tekstury i metadane pliku. Traktuj wynik jako jeden z elementów weryfikacji, a nie ostateczny werdykt.
- Odwrotne wyszukiwanie obrazem. Zrób zrzut ekranu z pierwszej klatki i wgraj do Google Grafika lub TinEye. Często ujawnia to oryginalne zdjęcie, na podstawie którego powstał deepfake.
- Metadane pliku. W filmach AI dane o dacie, lokalizacji czy modelu kamery są zwykle puste, nielogiczne lub wskazują wprost na oprogramowanie do generowania treści.
- Poradniki NASK. Instytut NASK publikuje aktualne przewodniki „krok po kroku” dotyczące rozpoznawania manipulacji wizualnych.
Zdrowy rozsądek – najlepsza obrona
Żadne narzędzie nie zastąpi krytycznego myślenia. Zanim uwierzysz w sensacyjne nagranie, sprawdź: kto je opublikował? Czy to oficjalny kanał medium, czy anonimowe konto założone kilka dni temu? Czy inne zaufane źródła informują o tym samym wydarzeniu?
Stosuj test logiki: czy to, co widzisz, mogło się naprawdę wydarzyć? Jeśli nagranie pojawia się w jednym, nieznanym miejscu (szczególnie tuż przed ważnym wydarzeniem politycznym, sportowym lub finansowym) traktuj je z daleko posuniętą ostrożnością. Chwila refleksji przed kliknięciem „udostępnij” to prosta, ale skuteczna tarcza przed cyfrową manipulacją.
Zasada SIFT:
- Stop (zatrzymaj się)
- Investigate the source (sprawdź źródło)
- Find better coverage (znajdź inne relacje)
- Trace claims (śledź, skąd pochodzi twierdzenie)
To metoda stosowana przez fact-checkerów na całym świecie.
1 https://android.com.pl/finanse/687760-oszustwo-deepfake-hongkong/
2 https://forsal.pl/lifestyle/technologie/artykuly/9317391,ai-wplynela-na-wynik-wyborow-w-slowacji-polska-szczegolnie-narazona-n.html
3 https://www.bankier.pl/wiadomosc/Falszywe-zdjecie-od-AI-i-spadki-na-Wall-Street-czyli-pozar-Pentagonu-ktorego-nie-bylo-8545410.html
4 https://ithardware.pl/aktualnosci/dzieki_ai_podrobil_glos_szefa_firmy_energetycznej_i_ukradl_220000_euro-10140.html