Deepfake видео внушава, че българският премиер призовава хората да споделят лични данни
Deepfake видео внушава, че българският премиер призовава хората да споделят лични данни
Публикувано вторник 10 октомври 2023 16:48
– Обновено вторник 10 октомври 2023
Copyright AFP 2017-2024. Всички права запазени.
Rossen BOSSEV / AFP България
Видеоклип, споделен в социалните мрежи в началото на октомври 2023 г., показва министър-председателя на България да говори на пресконференция, но с подменен звук. Според експерт става дума за т.нар. deepfake или видео, което е било подправено или създадено с изкуствен интелект. Видеото е представено като ''извънредна новина'' по телевизия NOVA; звучи така, сякаш Николай Денков казва на българските граждани, че могат да спечелят хиляди левове, ако споделят личните си данни. Във фалшификата е използван видеозапис от пресконференция на Министерския съвет през юни 2023 г.; гласът на министър-председателя, добавен към кадрите, е генериран от изкуствен интелект, заяви експерт пред Агенция Франс-Прес (AFP).
Правителството и медията също опровергаха автентичността на видеоклипа, публикуван на 3 октомври 2023 г., като го определиха като deepfake.
В началото клипа виждаме логото на NOVA и водещия на новините Методи Владимиров. Текстът гласи: "Николай Денков излезе с важна новина! За всеки жител на България". След това водещият казва: "А сега към голямата новина в страната. Николай Денков съобщи важна новина за всички български граждани."
Следва видеозапис от изказване на Денков на пресконференция. Сивият фон, златните букви и българският герб подсказват, че мястото е входното фоайе на Министерския съвет в София.
Чуваме как Денков казва на българските граждани, че "точно сега животът ви ще се промени към по-добро" заради нова възможност за инвестиции от страна на руския петролен и газов гигант "Лукойл".
Хората "ще могат да печелят от 9 200 лв. на месец с минимална инвестиция", уж казва Денков във видеото. Минималната инвестиция е била намалена на 400 лева, изглежда казва премиерът и добавя, че "гарантирам парите ви с моята репутация".
"Просто оставете данните си и наш специалист ще ви се обади и ще ви се обади".
Различни разминавания във видеото и сравнения с оригиналните кадри обаче доказват, че клипът е генериран с изкуствен интелект. Кабинетът на министър-председателя заявява, че Денков никога не е правил подобно обръщение.
Правителството и NOVA опровергават
"Министър-председателят никога не е призовавал никого да предоставя свои лични данни по никакъв повод", се казва в съобщение на правителствената пресслужба, публикувано на 4 октомври 2023 г. В него видеото се описва като "deepfake", целящ "да събере неправомерно лични данни на потребителите като предпоставка за участие в инвестиционна схема."
"Злоупотребата с образа на премиера е докладвана на МВР като киберпрестъпление", се казва още в съобщението на правителствената пресслужба.
В имейл до AFP, получен на 5 октомври, Милена Младенова, PR мениджър на NOVA, също отрече автентичността на видеото. "Като социално отговорна медия сме обезпокоени от изкуствено създадените видеа, с така наречената „deep fake” технология. Жертви на фалшивите новини стават както публични личности, така и водещи и репортери на NOVA", заяви тя в електронното писмо.
Кадри от пресконференция
Анализирайки видеозаписи от пресконференции на Денков след назначаването му за министър-председател на 6 юни 2023 г., AFP установи, че в измамата е използван видеозапис от брифинг от 27 юни 2023 г. , в който участват министрите на правосъдието и на вътрешните работи.
Събитието е излъчено на страницата на Министерския съвет във Facebook. В речта си Денков критикува ултра дясната партия "Възраждане", че призовава към насилие.
Като потърсихме датата на пресконференцията и ключови думи в YouTube, установихме, че видеото от събитието, качено от Нова телевизия в техния канал (архив), е със същия ракурс като това, използвано в deepfake видеото.
Ако сравним deepfake видеото с предаването на живо от страницата на Министерския съвет във Facebook, ще видим, че това е едно и също видео:
Експерт по изкуствен интелект: несъответствията предполагат deepfake
"Първото нещо, което отличава подобни 'дийп фейкове' са нетипичните и сензациони за дадената личност изказвания, твърдения и изяви", казва Мартин Стаменов, ръководител на отдела за изкуствен интелект в Sensika Technologies, компания за мониторинг на медии и социални мрежи, в съобщение до AFP на 5 октомври 2023 г.
Що се отнася до дълбокия фалшификат с Денков, Стаменов посочва някои несъответствия в аудиозаписа. "На 17-та секунда, където речта прави пауза след първата дума на следващото изречение: “...инвестиционен проект в нашата страна със. Помощта на този проект ще можете…”.
"На 20-та секунда се чува нечистото и накъсано произнасяне на “9 200лв”, а имено “девет ейли двеста лева”", коментира той. Десет секунди по-късно се чува "грешното поставяне на ударението върху думата “гражданин”, което е един от най-издаващите белези за фалшиво видео."
"Най-голямо впечатление прави разбира се разминаването между движенията на устните и изговорените думи, което технологично е трудно постижимо, но се подобрява постоянно", казва още експертът по изкуствен интелект пред AFP.
Ръст на deepfakes в България
Стаменов казва, че напоследък се наблюдава увеличение на подобни видеоклипове в България. "Tакива синтезиращи речи се справят все по-добре с по-малко данни, което прави възможно използването им и на български", коментира Мартин Стаменов. Такива deepfakes са насочени към публични личности или "такива които, които имат голям обем от медийни изяви, което позволява на ИИ на научи техни лицеви изражения и глас."
"За да се засили усещането за достоверност, зачестяват манипулираните видеа, които се представят като извадка от новинарска емисия", каза Младенова за AFP и добави, че телевизията "непрекъснато предупреждава българската общественост за бума на фалшиви видеа и разяснява в новините и актуалните предавания рисковете, които те крият."
NOVA наистина е третирала тази тема многократно тук, тук или тук.
AFP е опровергавала видеоклипове, генерирани от изкуствен интелект, например тук, тук или тук.
На 5 октомври 2023 г. Би Би Си съобщи, че най-големият ютубър в света MrBeast и двама водещи от Би Би Си са били използвани в deepfake, за да подмамят нищо неподозиращи хора онлайн.
9 октомври 2023 г.В първото изречение, след третото подзаглавие, е нанесена корекция в изписването на името на компанията.
Всички права запазени. Всяко използване на съдържание на AFP на този уебсайт е предмет на условията за ползване, достъпни на https://www.afp.com/en/terms-use. С достъпа до и/или използването на каквото и да е съдържание на AFP, налично на този бсайт, вие се съгласявате да бъдете обвързани с гореспоменатите условия за ползване. Всяко използване на съдържанието на AFP е на ваша изключителна и пълна отговорност.