Loqal – новинний агрегатор Loqal
Новини

Дипфейки: як працює технологія обману та які загрози несе

Дипфейки: як працює технологія обману та які загрози несе
Zaxid.net • 1 хв читання

Уявіть ситуацію: у вашій новинній стрічці з’являється відео, де світовий лідер або зірка робить гучну заяву чи зізнається у скандальному вчинку. Відео наче переконливе – жести, голос і вигляд ідеально збігаються. Але чи точно воно справжнє?

Фото й відео більше не є безспірними доказами правдивості. Адже стрімкий розвиток штучного інтелекту (ШІ) дав змогу створювати реалістичні підробки – фейкові зображення, відео й аудіо, де змінюють обличчя, голос і жести. Один із найнебезпечніших проявів цього – дипфейки.

Дипфейки – це матеріали, створені за допомогою алгоритмів машинного навчання, які можуть імітувати зовнішність, голос і міміку реальних людей.

Раніше їх використовували переважно в кіно. Один із класичних прикладів – сцена з фільму «Форест Гамп», де головний герой тисне руку Джону Кеннеді. У ній завдяки цифровій обробці створювалась ілюзія взаємодії з історичною постаттю. У 1997 році Крістоф Бреглер, Мікеле Ковелл і Малкольм Слейні розробили технологію, яка автоматизувала синтез анімації обличчя з аудіо, що стало основою для майбутніх дипфейків.

Однак із часом ця технологія стала інструментом маніпуляцій. У 2018 році з’явилося відео, в якому Барак Обама говорить те, чого ніколи не казав, – усе завдяки дипфейку. У 2021 році британський телеканал Channel 4 опублікував фейкове новорічне привітання Королеви Єлизавети II. В Україні одним із перших зафіксованих випадків стало використання дипфейку для дискредитації публічного діяча Сергія Лещенка, коли його обличчя зімітували у фальшивому відео.

Окрім фейкових відео, стрімко поширюються і згенеровані фото та аудіоматеріали. У соцмережах боти часто публікують емоційні дипфейки, щоб викликати реакцію аудиторії чи закликати перейти за посиланнями.

«Дипфейки складно виявити через високий рівень реалістичності, якого досягають сучасні нейромережі. Вони можуть надзвичайно точно імітувати голос, міміку, жести. Саме через це людське око не завжди може помітити, що відео чи зображення – підробка. Особливо якщо ми бачимо це відео у прямому ефірі, де воно триває пару хвилин, і не маємо змоги сильно вгледітись або проаналізувати побачене», – каже експертка з цифрової безпеки Аліна Елєвтєрова.

Яскравий приклад – коли у 2022 році мери Берліна, Відня, Мадрида, Будапешта й Варшави зустрілись онлайн із фейковим Віталієм Кличком. Їхні розмови тривали до години, і політики почали щось підозрювати лише після дивних заяв «Кличка» про українських біженців та запитів щодо санкцій. Це й показує, наскільки правдоподібними можуть бути дипфейки і як легко вони можуть ввести в оману.

Росія активно застосовує дипфейки, створюючи відео, зокрема, для дискредитації українських військових та керівництва держави. У 2022 році в інтернеті з’явилося підроблене звернення Володимира Зеленського із закликом до українців скласти зброю. Хоча відео швидко викрили, його поява вкотре довела небезпеку подібних маніпуляцій.

«Дипфейки – це зброя в гібридному протистоянні. Завдяки їм можна добитися втрати довіри до керівництва країни, навіть спровокувати конфлікт усередині країни, яка стала об’єктом таких атак. Або ж добитися певних результатів на виборах, тобто підірвати ситуацію в країні силами самих громадян. Найяскравішими прикладами дипфейків, які використовує Росія, є спроби дискредитації українських лідерів та військових, а останнім часом – особливо представників ТЦК», – зазначає медіаекспертка Надія Баловсяк.

Соцмережі є головним майданчиком для поширення такого контенту. За оцінками Sprout Social, у 2025 році у світі налічується 5,17 мільярда користувачів соцмереж, і кожен з них щомісяця використовує в середньому 6,7 різних платформ. Це створює ідеальні умови для маніпуляцій: дипфейки можуть охоплювати мільйони людей, поширюючись швидше, ніж їх встигають спростувати. Люди лайкають, коментують і діляться відео, не підозрюючи, що стають мимовільними учасниками інформаційних атак.

Ба більше, для створення правдоподібних дипфейків потрібно все менше часу та коштів. До прикладу, у 2023 році професор Вортонської школи бізнесу Ітан Моллік створив дипфейк про себе, на що йому знадобилося тільки 8 хвилин і 11 доларів.

Державні структури намагаються знайти рішення, щоб захистити людей від небезпеки фейкового контенту. У 2023 році в ЄС уперше у світі розробили комплексний закон для врегулювання використання ШІ. У США низка штатів ухвалила закони для обмеження такого контенту.

Проте поки технологія розвивається швидше, ніж засоби її контролю, відповідальність за споживання інформації лежить на нас. Уважність, критичне мислення та перевірка джерел захистять від маніпуляцій у цифрову епоху.

Технології дипфейків швидко вдосконалюються, але навіть найреалістичніші підробки мають слабкі місця.

«Через технічні обмеження відео, як правило, залишають певні сліди, які можуть видати підробку. Наприклад, аномалії в морганні, неприродна текстура шкіри, розсинхрон голосу та міміки», – каже експерт із генеративного ШІ Олексій Мінаков.

Крім візуального аналізу, варто використовувати метод SIFT: зупиніться, дослідіть джерело, знайдіть підтвердження в авторитетних медіа та перевірте оригінальний контекст. Навіть якщо відео чи фото здається правдивим, спробуйте знайти альтернативні джерела інформації. Для глибшого аналізу існують спеціальні інструменти, як-от DeepFake-o-meter, InVID та Deepware Scanner.

«Найефективніший спосіб розпізнання дипфейків – це дивитися на першоджерело публікації відео. Якщо відео опублікував офіційний ресурс або авторитетне медіа, ймовірність дипфейку низька. Якщо ж джерело сумнівне (анонімні Telegram-канали чи маловідомі сайти), варто бути особливо уважним і аналізувати відео: звертати увагу на неприродні рухи обличчя, розмиті краї об’єктів», – додає Олексій Мінаков.

Якщо контент викликає сумніви, поставте собі запитання: чи немає в ньому чогось неприродного чи підозрілого? Часто саме ці перші відчуття допомагають виявити підробку.

Також можна вправлятись у розпізнаванні дипфейків на сайті Detect Fakes. Поєднання технологічних рішень із критичним мисленням дає змогу ефективніше орієнтуватися в сучасному інфопросторі.

Стаття створена в межах проєкту «Зміцнення правдивості, прозорості та демократії для протидії дезінформації», що втілюється ГО «Інтерньюз-Україна» за підтримки уряду Канади.