Deepfake видео внушава, че българският премиер призовава хората да споделят лични данни


Deepfake видео внушава, че българският премиер призовава хората да споделят лични данни

Публикувано вторник 10 октомври 2023 16:48

– Обновено вторник 10 октомври 2023

50a9a730b646dcd702bf75799a947e3efe3b61b9-ipad.jpg

Rossen BOSSEV / AFP България

Видеоклип, споделен в социалните мрежи в началото на октомври 2023 г., показва министър-председателя на България да говори на пресконференция, но с подменен звук. Според експерт става дума за т.нар. deepfake или видео, което е било подправено или създадено с изкуствен интелект. Видеото е представено като ''извънредна новина'' по телевизия NOVA; звучи така, сякаш Николай Денков казва на българските граждани, че могат да спечелят хиляди левове, ако споделят личните си данни. Във фалшификата е използван видеозапис от пресконференция на Министерския съвет през юни 2023 г.; гласът на министър-председателя, добавен към кадрите, е генериран от изкуствен интелект, заяви експерт пред Агенция Франс-Прес (AFP).

Правителството  и медията също опровергаха автентичността на видеоклипа, публикуван на 3 октомври 2023 г., като го определиха като deepfake.

В началото клипа виждаме логото на NOVA и водещия на новините Методи Владимиров. Текстът гласи: "Николай Денков излезе с важна новина! За всеки жител на България". След това водещият казва: "А сега към голямата новина в страната. Николай Денков съобщи важна новина за всички български граждани."

Следва видеозапис от изказване на Денков на пресконференция. Сивият фон, златните букви и българският герб подсказват, че мястото е входното фоайе на Министерския съвет в София.

Чуваме как Денков казва на българските граждани, че "точно сега животът ви ще се промени към по-добро" заради нова възможност за инвестиции от страна на руския петролен и газов гигант "Лукойл".

Хората "ще могат да печелят от 9 200 лв. на месец с минимална инвестиция", уж казва Денков във видеото. Минималната инвестиция е била намалена на 400 лева, изглежда казва премиерът и добавя, че "гарантирам парите ви с моята репутация". 

"Просто оставете данните си и наш специалист ще ви се обади и ще ви се обади".

Различни разминавания във видеото и сравнения с оригиналните кадри обаче доказват, че клипът е генериран с изкуствен интелект. Кабинетът на министър-председателя заявява, че Денков никога не е правил подобно обръщение.

94552d6b1efeace64dfc10e8b26fc9a57710ed94-ipad.jpg

Скрийншот на Facebook публикация, показваща манипулирано видео. Направен на 6 октомври 2023 г.

Правителството и NOVA опровергават

"Министър-председателят никога не е призовавал никого да предоставя свои лични данни по никакъв повод", се казва в съобщение на правителствената пресслужба, публикувано на 4 октомври 2023 г. В него видеото се описва като "deepfake", целящ "да събере неправомерно лични данни на потребителите като предпоставка за участие в инвестиционна схема."

"Злоупотребата с образа на премиера е докладвана на МВР като киберпрестъпление", се казва още в съобщението на правителствената пресслужба. 

В имейл до AFP, получен на 5 октомври, Милена Младенова, PR мениджър на NOVA, също отрече автентичността на видеото. "Като социално отговорна медия сме обезпокоени от изкуствено създадените видеа, с така наречената „deep fake” технология. Жертви на фалшивите новини стават както публични личности, така и водещи и репортери на NOVA", заяви тя в електронното писмо. 

Кадри от пресконференция

Анализирайки видеозаписи от пресконференции на Денков след назначаването му за министър-председател на 6 юни 2023 г., AFP установи, че в измамата е използван видеозапис от брифинг от  27 юни 2023 г. , в който участват министрите на правосъдието и на вътрешните работи.

Събитието е излъчено на страницата на Министерския съвет във Facebook.  В речта си Денков критикува ултра дясната партия "Възраждане", че призовава към насилие.

Като потърсихме датата на пресконференцията и ключови думи в YouTube, установихме, че видеото от събитието, качено от Нова телевизия в техния канал (архив), е със същия ракурс като това, използвано в deepfake видеото. 

8bbdaa55bf605d0c0f0c3ea7f77fa78590264d3f-ipad.jpg

Сравнение на стоп кадри от deepfake видео (първата и третата снимка) и от репортажа на NOVА (втората и четвъртата снимка). Направени от AFP на 6 октомври 2023 г.

Ако сравним deepfake видеото с предаването на живо от страницата на Министерския съвет във Facebook, ще видим, че това е едно и също видео:

 Експерт по изкуствен интелект: несъответствията предполагат deepfake

"Първото нещо, което отличава подобни 'дийп фейкове' са нетипичните и сензациони за дадената личност изказвания, твърдения и изяви", казва Мартин Стаменов, ръководител на отдела за изкуствен интелект в Sensika Technologies, компания за мониторинг на медии и социални мрежи, в съобщение до AFP на 5 октомври 2023 г.

Що се отнася до дълбокия фалшификат с Денков, Стаменов посочва някои несъответствия в аудиозаписа. "На 17-та секунда, където речта прави пауза след първата дума на следващото изречение:  “...инвестиционен проект в нашата страна със. Помощта на този проект ще можете…”.

"На 20-та секунда се чува нечистото и накъсано произнасяне на “9 200лв”, а имено “девет ейли двеста лева”", коментира той. Десет секунди по-късно се чува "грешното поставяне на ударението върху думата “гражданин”, което е един от най-издаващите белези за фалшиво видео."

"Най-голямо впечатление прави разбира се разминаването между движенията на устните и изговорените думи, което технологично е трудно постижимо, но се подобрява постоянно",  казва още експертът по изкуствен интелект пред AFP.

Ръст на deepfakes в България

Стаменов казва, че напоследък се наблюдава увеличение на подобни видеоклипове в България. "Tакива синтезиращи речи се справят все по-добре с по-малко данни, което прави възможно използването им и на български",  коментира Мартин Стаменов. Такива deepfakes са насочени към публични личности или "такива които, които имат голям обем от медийни изяви, което позволява на ИИ на научи техни лицеви изражения и глас."

"За да се засили усещането за достоверност, зачестяват манипулираните видеа, които се представят като извадка от новинарска емисия",  каза Младенова за AFP и добави, че телевизията "непрекъснато предупреждава българската общественост за бума на фалшиви видеа и разяснява в новините и актуалните предавания рисковете, които те крият."

NOVA наистина е третирала тази тема многократно тук, тук или тук.

AFP е опровергавала видеоклипове, генерирани от изкуствен интелект, например  тук, тук или тук

На 5 октомври 2023 г. Би Би Си съобщи, че най-големият ютубър в света MrBeast и двама водещи от Би Би Си са били използвани в deepfake, за да подмамят нищо неподозиращи хора онлайн.

9 октомври 2023 г.В първото изречение, след третото подзаглавие, е нанесена корекция в изписването на името на компанията.

Тази проверка е публикувана също от AFP Провери.

Всички права запазени. Всяко използване на съдържание на AFP на този уебсайт е предмет на условията за ползване, достъпни на https://www.afp.com/en/terms-use. С достъпа до и/или използването на каквото и да е съдържание на AFP, налично на този бсайт, вие се съгласявате да бъдете обвързани с гореспоменатите условия за ползване. Всяко използване на съдържанието на AFP е на ваша изключителна и пълна отговорност.

BROD

Последвайте ни