Wszystkie materiały edukacyjne

17 kwietnia 2026

Jak rozpoznać filmy generowane przez AI? Praktyczny przewodnik weryfikacji wideo i deepfake’ów

inspiracje

Oglądanie wideo na telefonie komórkowym.

Sztuczna inteligencja potrafi dziś tworzyć filmy niemal nieodróżnialne od prawdziwych nagrań. Deepfake to syntetyczny obraz lub zapis dźwiękowy imitujący realną osobę. Algorytm analizuje tysiące zdjęć, filmów i próbek głosu, po czym scala je w spójną cyfrową iluzję. Efekt: dowolna osoba może „powiedzieć” lub „zrobić” coś, czego nigdy nie zrobiła.

Technologia ta jest wykorzystywana do wyłudzeń finansowych, niszczenia reputacji i manipulacji politycznej. Granica między prawdą a fałszem zaciera się coraz szybciej. Pamiętaj: nagranie wideo nie jest już dowodem, a liczy się przede wszystkim jego weryfikowalne źródło.

PRZYKŁAD: WYŁUDZENIE FINANSOWE

W 2024 roku pracownik finansowy hongkońskiej firmy przelał 25 milionów dolarów oszustom po wideokonferencji, w której uczestniczył deepfake jego dyrektora generalnego1. Wszystkie twarze na ekranie były syntetyczne – tylko on był prawdziwy. Nie zweryfikował polecenia w żadnym innym kanale.

PRZYKŁAD: MANIPULACJA POLITYCZNA

W trakcie wyborów na Słowacji w 2023 roku w mediach społecznościowych rozpowszechniono nagranie audio, na którym lider partii Progresywna Słowacja rzekomo planował sfałszowanie wyników i podnosił ceny alkoholu. Nagranie pojawiło się dwa dni przed głosowaniem — w czasie obowiązywania ciszy wyborczej, która uniemożliwiała oficjalne dementi. Eksperci potwierdzili, że był to deepfake2.

Pułapki wizualne – na co patrzeć?

  • Dłonie i palce: AI często generuje sześć palców lub nadaje im „roztopiony”, plastikowy kształt.
  • Oczy i zęby: oczy bywają pozbawione blasku i „pływają” w oczodołach; zęby zlewają się w jedną białą plamę, zamiast tworzyć oddzielne elementy.
  • Skóra i mimika: cera jest nienaturalnie gładka, gesty sztywne, a wyraz twarzy nie pasuje do treści wypowiedzi.
  • Tło: elementy za postacią mogą się zniekształcać, skakać lub powtarzać w nielogiczny sposób.
  • Oświetlenie: cienie i refleksy migoczą lub są rozmieszczone w sposób sprzeczny z fizyką.

PRZYKŁAD: BŁĘDY W TLE

W fałszywym nagraniu „wybuchu” przy Pentagonie z maja 2023 roku, które chwilowo wpłynęło na notowania giełdowe, tło za budynkiem wykazywało charakterystyczne zniekształcenia ogrodzenia i powtarzające się wzory w dymie – typowe artefakty generatorów obrazu działających na bazie dyfuzji3.

Przy podejrzanych nagraniach zatrzymaj film i oglądaj go klatka po klatce – błędy są najwyraźniej widoczne na krawędziach obiektów i w ruchu.

Test słuchu – problemy z dźwiękiem

  • Minimalne opóźnienia między ruchem warg a dźwiękiem to jeden z najczęstszych błędów deepfake’ów.
  • Syntetyczna mowa często brzmi płasko: brakuje w niej mikroemocji, naturalnych zawahań i indywidualnej intonacji. Pauzy nie odpowiadają interpunkcji.
  • Sklonowany głos może mieć „metaliczny” pogłos lub być pozbawiony szumów otoczenia, typowych dla prawdziwych nagrań.
  • Gdy głos brzmi spokojnie, a twarz wyraża silne emocje (lub odwrotnie), jest to silny sygnał ostrzegawczy.

PRZYKŁAD: KLONOWANIE GŁOSU W WYŁUDZENIU

W 2019 roku dyrektor brytyjskiej spółki energetycznej przelał 220 000 euro po tym, jak odebrał telefon od osoby brzmiącej identycznie jak jego przełożony z centrali w Niemczech – z charakterystycznym akcentem, intonacją i sposobem mówienia. Głos został sklonowany przez AI. Dyrektor nie zadzwonił z powrotem na znany mu numer, żeby potwierdzić polecenie4.

Długość i jakość techniczna

Większość klipów typu deepfake trwa od 5 do 10 sekund – generowanie dłuższego materiału jest kosztowne obliczeniowo i zwiększa ryzyko błędów. Krótkie, sensacyjne wideo powinno wzbudzać czujność.

Twórcy fałszywych treści celowo obniżają jakość nagrania – dodają szumy, silną kompresję lub symulują obraz ze „starego telefonu”, żeby zamaskować niedoskonałości algorytmu. Oficjalne materiały z ważnych wydarzeń są zazwyczaj dostępne w HD. Niska rozdzielczość w połączeniu z sensacyjną treścią to klasyczna kombinacja ostrzegawcza.

Narzędzia weryfikacji

  • Etykiety platform. YouTube i TikTok oznaczają materiały wygenerowane przez AI; nie jest to system doskonały, ale warto go obserwować.
  • Detektory wideo. Narzędzia takie jak TruthScan czy Hive Moderation analizują spójność oświetlenia, tekstury i metadane pliku. Traktuj wynik jako jeden z elementów weryfikacji, a nie ostateczny werdykt.
  • Odwrotne wyszukiwanie obrazem. Zrób zrzut ekranu z pierwszej klatki i wgraj do Google Grafika lub TinEye. Często ujawnia to oryginalne zdjęcie, na podstawie którego powstał deepfake.
  • Metadane pliku. W filmach AI dane o dacie, lokalizacji czy modelu kamery są zwykle puste, nielogiczne lub wskazują wprost na oprogramowanie do generowania treści.
  • Poradniki NASK. Instytut NASK publikuje aktualne przewodniki „krok po kroku” dotyczące rozpoznawania manipulacji wizualnych.

Zdrowy rozsądek – najlepsza obrona

Żadne narzędzie nie zastąpi krytycznego myślenia. Zanim uwierzysz w sensacyjne nagranie, sprawdź: kto je opublikował? Czy to oficjalny kanał medium, czy anonimowe konto założone kilka dni temu? Czy inne zaufane źródła informują o tym samym wydarzeniu?

Stosuj test logiki: czy to, co widzisz, mogło się naprawdę wydarzyć? Jeśli nagranie pojawia się w jednym, nieznanym miejscu (szczególnie tuż przed ważnym wydarzeniem politycznym, sportowym lub finansowym) traktuj je z daleko posuniętą ostrożnością. Chwila refleksji przed kliknięciem „udostępnij” to prosta, ale skuteczna tarcza przed cyfrową manipulacją.

Zasada SIFT:

  • Stop (zatrzymaj się)
  • Investigate the source (sprawdź źródło)
  • Find better coverage (znajdź inne relacje)
  • Trace claims (śledź, skąd pochodzi twierdzenie)

To metoda stosowana przez fact-checkerów na całym świecie.

 

 

1 https://android.com.pl/finanse/687760-oszustwo-deepfake-hongkong/
2 https://forsal.pl/lifestyle/technologie/artykuly/9317391,ai-wplynela-na-wynik-wyborow-w-slowacji-polska-szczegolnie-narazona-n.html
3 https://www.bankier.pl/wiadomosc/Falszywe-zdjecie-od-AI-i-spadki-na-Wall-Street-czyli-pozar-Pentagonu-ktorego-nie-bylo-8545410.html
4 https://ithardware.pl/aktualnosci/dzieki_ai_podrobil_glos_szefa_firmy_energetycznej_i_ukradl_220000_euro-10140.html

Materiały do pobrania