Рисковете от дезинформация, генерирана от изкуствен интелект, в навечерието на изборите за Европарламент


Публикувано сряда 3 април 2024 13:28

11.jpg

Европейски граждани от 27-те страни на Европейския съюз ще гласуват за следващия Европейски парламент между 6 и 9 юни. По време на мандата на настоящия парламент ЕС беше изправен пред огромни и безпрецедентни предизвикателства, от пандемията на Covid-19 до войната в Украйна, която остави дълбоки белези в много европейски общества. Дезинформацията, която за повече от 85% от хората е тревожна, а 87% вярват, че вече е навредила на политиката на страните им, според глобалното проучване на ЮНЕСКО – дебне преди изборите, готова да използва пукнатините и сътресенията в държавите.

Способността на изкуствения интелект (ИИ) да генерира съдържание, което може да се използва за насърчаване на дезинформация, е, според изследователски статии и различни експерти, е сред най-тревожните тенденции в областта през последните години. През март Европейският парламент прие акта за ИИ, но неговите разпоредби няма да влязат в сила навреме за изборите за ЕС през 2024 г. Други правни инструменти на ЕС – по-специално DSA и DMA – потенциално могат да играят роля, но цялото законодателство в тази област е сравнително ново и все още неприлагано в реални условия.

Досега дезинформационното съдържание, генерирано от ИИ, все още е малка част от общата открита дезинформация в ЕС, според месечните доклади на мрежата за проверка на факти EDMO, но някои случаи бяха разпространени през последните няколко седмици и месеци и бяха развенчани от проверителите на факти.

Като се имат предвид четирите категории съдържание – изображения, генерирани от изкуствен интелект, аудио, видео и текст – и разглеждане на скорошни прецеденти (много от тях са изброени в този доклад на работната група на EDMO относно изборите в ЕС и в месечните кратки съобщения на EDMO), какво може да се очаква за предстоящите евроизбори?

Изображения, генерирани от ИИ

През последните месеци различни изображения, генерирани от ИИ, бяха разпространени в различни страни от ЕС, за да предадат дезинформация. Например изображение на трактори и бали слама пред Айфеловата кула в Париж преувеличи размерите на протестите на земеделците; изображение на Франс Тимерманс, бивш вицепрезидент на Европейската комисия и кандидат за алианса GroenLinks – PvdA на изборите в Нидерландия през 2023 г., в частен самолет, за който се предполага, че пътува на разходка до Малага, с вкусна храна на масата, надпис като доказателство за неговата неморалност; изображение на Доналд Тръмп с Джефри Епщайн, за дискредитиране на бившия американски президент; изображение на бездомна майка с деца, разпространено, за да предизвика враждебност срещу мигрантите в контекста на жилищната криза в Ирландия; изображение, в което целият под на една стая е осеян с кутии за пица, за което се твърди, че е на конференцията на Германската зелена партия, използвана за атака на партията и прочее.

Във всички тези случаи всички доказателства сочат, че изображенията не са реални, а са създадени с ИИ технология поради детайлите на самото изображение: ръцете, очите, формите и сенките – често странни, ако не и напълно нереални. Тази относителна лекота на забелязване на генерирани от ИИ изображения от експерти, но също и от потребители, е една от най-вероятните причини технологията да не е твърде използвана за производство на дезинформация. При скорошни кризи, като конфликта Израел/Хамас, добре познатата техника за повторно споделяне на стари изображения, обозначени подвеждащо за да се създаде впечатление, че са свързани с текущи събития, беше по-често срещана в сравнение с генерираните от  ИИ изображения.

Като се имат предвид прецедентите и текущата способност на ИИ да генерира изображения, възможно е да се предвиди ограничено или не особено въздействащо използване на дезинформация преди изборите за ЕС. Може да се очаква, че изображения, генерирани от ИИ, ще се създават за илюстрация на различни тези, например за фалшифицирани избори, подправяне на бюлетини, нелегални мигранти, участващи в изборите; или за изобличаване на политически фигури, които правят неща, които никога не са правили; както и за емоционални внушения относно теми от политически дебат и т.н.

Качеството им обаче позволява бързо и ефективно откриване и развенчаване дори от обикновени потребители. Възможно е количеството генерирани от ИИ изображения да не нарасне значително преди изборите над процентите, наблюдавани през предходните месеци. Техниката за повторно споделяне на стари изображения, в подвеждащ контекст е по-вероятно да се използва широко за разпространение на дезинформация.

Очевидно този сценарий може да се промени бързо, ако развитието на ИИ технологията направи създаването на изображения по-трудно за разграничаване от реалните.

Аудио, генерирано от ИИ

Като се имат предвид прецедентите, генерираното от ИИ аудио разпространение на дезинформация представлява най-голямото безпокойство в момента. Тази технология вече е способна да създава съдържание, което е много трудно да се разпознае като генерирано от ИИ за обикновения потребител – липсва визуален елемент, който помага за лесно разпознаване на генерирано съдържание, а инструментите за откриване на ИИ изглежда не успяват.

Един пример показва как тази техника за дезинформация може да бъде изключително вредна преди избори. В Словакия, само два дни преди парламентарните избори през септември 2023 г., хиляди потребители на социалните мрежи споделиха подозрителен аудиофайл, който се представяше за разговор между Михал Шимечка, председател на Progresívne Slovakia (PS), и журналистката Моника Тодова. Твърдеше се, че аудиото е запис на телефонен разговор между тях, в който те обсъждат как да манипулират изборите в полза на PS, включително купуване на гласове от ромската общност.

Качеството на звука беше лошо, така че различни експерти успяха да заключат с голяма степен на вероятност, че е генерирано от ИИ. Аудиозаписът обаче се разпространи широко по време на изборния мораториум и блокира евентуалната реакция на засегнатия.

Само преди няколко дни, Шимечка пак бе обект на подобна манипулация: в социалните мрежи се появиха различни публикации с предполагаем аудиозапис, на който той обсъжда плановете на партията за рязко поскъпване на бирата след изборите. Качеството на звука отново беше лошо, за да могат експертите и инструментите бързо да оценят ИИ произхода на съдържанието. Но междувременно фалшивото аудио се разпространи вирусно само няколко дни преди вота.

Друг пример е генерираното от ИИ аудио на американския президент Джо Байдън: два дни преди първичните избори в Ню Хемпшир през януари 2024 г., хиляди хора в щата получиха нещо, което изглежда е било автоматично обаждане, генерирано от изкуствен интелект. Глас, наподобяващ този на Байдън, съветва хората да не гласуват на първичните избори. Появи се и фалшиво аудио на майката на Алексей Навални, обвиняваща съпругата му Юлия Навална, че е безсърдечен опортюнист, отговорен за смъртта на сина си.

На база на тези случаи може да се каже, че генерираното от ИИ аудио съдържание вероятно ще е често срещано преди изборите за парламент в ЕС, поне в някои страни. Те могат да бъдат използвани за дискредитиране на политици, внушаване на теории на конспирацията относно почтеността на изборите и съветване на хората да не гласуват. Все пак не се очаква броят да е много голям, предвид досегашния опит и работата на експертите да открият изкуствения произход на съдържанието. Все пак е вероятно обикновените потребители да бъдат измамени с генерирано от ИИ аудио съдържание и ако това се случи в навечерието на изборите, може да е трудно изобличаването.

Струва си да се спомене и още един аспект на измама – разпространението на истинско аудио, информиращо населението за нещо, което действително се е случило преди гласуването – като смущаващо изказване на някой кандидат, уловено по случайност. Ако няма достатъчно време за реакция преди изборите, възможно е хората да бъдат подведени. В тази връзка е важно да се знае, че често основната цел на дезинформацията рядко е не да убеди хората, че е истина, а да изпрати послание, че е невъзможно да се знае истината и че всяка версия на реалността е еднакво възможна.

Видео, генерирано от ИИ

Технологията за създаване на видео, генерирано от ИИ, се развива бързо. Наскоро различни видеоклипове, създадени от ИИ, като се започне от текст, бяха споделени онлайн, което показва колко трудно е за средния потребител да идентифицира съдържанието като изкуствено, а не истинско. Най-модерният инструмент от този вид е Sora на OpenAI, компанията, която създаде ChatGPT. Sora беше обявена, показвайки своите възможности като инструмент за генериране на видеоклипове, по-реалистични от всякога, но все още не е публично достъпна, вероятно поради опасения за потенциални злоупотреби, сред които една от най-големите е свързана с дезинформацията.

Ограниченото пускане на най-добрите технологии е една от най-вероятните причини, поради които проверяващите факти в Европа все още не са открили дезинформационно съдържание, създадено по този начин: наличните видеоклипове, генерирани от текст, едва ли са достатъчно реалистични, за да минат като истински видеоклипове. Следователно настоящият риск от видеосъдържание, изцяло генерирано с ИИ, циркулиращо преди следващите избори в ЕС с цел да им се повлияе, изглежда нисък.

Ще бъде много по-вероятно да се открие дезинформационно съдържание, при което аудиото е генерирано от ИИ или променено и видеото е само леко модифицирано, за да потвърди аудиото. Промяната на видеото може да бъде фокусирана върху устните и изражението на лицето на говорещия, така че думите и устните/лицето да са синхронизирани. Технологията за постигане на този ефект вече е разработена, макар и често несъвършена, и се използва широко.

Различни организации от мрежата за проверка на факти EDMO откриха съдържание от този вид през последните месеци. Например, видеоизлъчване на France24 беше манипулирано, карайки един от неговите журналисти да каже неща, които никога не е казвал чрез използването на синхронизиране на устните. По-конкретно, в подправеното видео журналистът казва, че френският президент Еманюел Макрон е бил принуден да отмени посещението си в Украйна поради опасения от опит за убийство. Видео на Грета Тумбърг беше променено, така че да се чуе, че хората трябва да изберат „танкове и оръжия“. Видео на чешкия актьор Ондржей Ветчи, който започна да набира средства с цел изпращане в Украйна за закупуване на дронове, беше манипулирано, така че зовеше чехите да боготворят Степан Бандера (крайнодесен националистически украински политик, сътрудничил на нацистите по време на Втората световна война). Видеозапис на бившия началник на украинските въоръжени сили, генерал Валери Залужни, беше модифициран, сякаш обвинява президента Зеленски, че е предател и зове за въстание срещу правителството. Много други разкрити случаи, често свързани с политици (напр. Мелони, Бабиш, Денков), се оказват измамни.

Като се имат предвид тези прецеденти, може да се очаква подобно съдържание да се появи преди изборите за ЕС през 2024 г. за дискредитиране на политици, насърчаване на конспиративни теории, разпространение на фалшиви новини, които биха могли да навредят на демократичния процес. Заплахата може да се оцени като малко по-малка в сравнение с тази, породена от аудио, генерирано от изкуствен интелект, защото клиповете по-често предоставят повече елементи за разкриването на генерирането. Освен това съществуването на оригинално видео с различно аудио обикновено може лесно да бъде проверено. Все пак този вид съдържание може потенциално да подмами гражданите, преди да гласуват.

Текст, генериран от ИИ

Генерираните от изкуствен интелект текстове създават два вида проблеми. Ако текстът е генериран от потребител и потребителят няма да направи този текст публичен, съществува рискът – важен за тези Големи езикови модели (LLM), които нямат силни защитни механизми и са на база на противоречиви данни – информацията да потребителят да бъде неправилна или подвеждаща, и непроверена от проверители на факти, експерти и т.н. Както EDMO посочи в специална статия, съществува особен риск потребителите да повярват, че отговорите от чатботове, базирани на големи езикови модели (LLM), са най-правилните. От друга страна, ако генерираните от AI текстове са публично достъпни – напр. новинарски уебсайтове, които са изцяло направени от този вид съдържание или частни потребители, които споделят онлайн резултатите от техните заявки към LLM -, дезинформацията ще тече не по-различно от „традиционните“ фалшиви новини, генерирани от хора. Най-проблематичният аспект е обемът: ИИ теоретично позволява създаването на огромни количества текстова дезинформация на малка цена и за много кратко време. Освен това има възможност за автоматизиране и на разпространението на дезинформационно съдържание, т.е. чрез ботове.

Не е изключено това да се случи преди следващите избори, но въздействието му вероятно лесно ще бъде ограничено чрез точно прилагане на политиките на основните социални медийни платформи (напр. Meta, X, TikTok), насочени към откриване и противодействие на неавтентично поведение и координирани кампании за разпространение на дезинформация.

Заключение

Съдържанието, генерирано от изкуствен интелект, използвано за предаване на дезинформация, представлява значителен риск преди изборите за европарламент през 2024 г. То може да се използва за дискредитиране на политици и/или други обществени фигури, за разпространяване на неверни твърдения и теории на конспирацията и като цяло за атакуване на почтеността на демократичния процес.

Изображенията, генерирани от ИИ, представляват среден риск, като се има предвид текущото им качество. Видеоклиповете, генерирани от ИИ, са потенциално вредни, особено тези, при които видеото е реално и аудиото е променено с ИИ, но разобличаването им е сравнително лесно засега. Текстовете, генерирани от ИИ, понастоящем представляват относително нисък риск, но е важно да се реагира бързо и ефективно, за да се спре всяка кампания за дезинформация, насочена към използване на потенциално огромния обем дезинформация, който може да бъде създаден по този начин. Генерираните от ИИ аудиозаписи изглежда представляват най-големия риск: те са по-трудни за разобличаване и могат по-лесно да подмамят потребителите.

Първата и най-важна защита е информираността на гражданите: когато се сблъскат със съдържание, което предава силно емоционално послание, което влияе на решимостта им да гласуват или на техните политически предпочитания, но не е потвърдено от традиционните медии, те трябва да подходят със здравословен скептицизъм, да навлязат в подробности и да изчакат допълнително потвърждение преди да споделят новината – това е най-добрата практики, която може значително да намали разпространението на дезинформация.

Tags:

BROD

Последвайте ни