Галина Михайлова & Антон Иванов

DeepFake като средство за манипулация на хора

DeepFake като средство за манипулация на хора
DeepFake като средство за манипулация на хора

DeepFake като средство за манипулация на хора

Все по-често чувам: „О, не, това е самата истина! Даваха го по телевизията!“. Друг път „Аз съм го гледал на видеоклип, и то не по телевизията, а в една независима медия!“ или „Сигурен съм! Аз го видях с очите си!“.

Колко може да е сигурен човек с DeepFake технологията?

DeepFake е технология, която използва изкуствен интелект (AI) за манипулиране на видео или аудио записи. В тях изглежда, че някой казва или прави нещо, което всъщност никога не е правил.

Тази технология може да се използва за злонамерени цели, например разпространение на дезинформация, увреждане на репутация или създаване на фалшиви новини.

Как работи DeepFake?

DeepFake технологията се основава на два основни процеса:

  1. Събиране на данни: За да създаде DeepFake, алгоритъмът на AI се нуждае от достатъчно голямо количество данни за лицето или гласа на човека, когото се опитва да фалшифицира. Тези данни могат да бъдат събрани от различни източници. Събират се от социални медии, филми или телевизионни предавания.
  2. Синтез на изображения/звук: След като AI алгоритъмът има достатъчно данни, той може да ги използва за синтезиране на нови изображения или звуци. Те изглеждат така, сякаш са истински. Това се прави чрез процес, наречен „генеративно моделиране“. При този процес алгоритъмът научава моделите според данните и след това ги използва за създаване на нови данни. Новите клипове са подобни, но не са реални, не са истински.

Как DeepFake може да се използва за манипулация на хора?

DeepFake може да се използва за манипулация на хора по различни начини, например:

  • Разпространение на дезинформация: DeepFake видеоклипове могат да се използват за разпространение на фалшиви новини или за създаване на впечатлението, че някой е казал или направил нещо. А той всъщност не е. Това може да се използва за подкопаване на доверието в институциите или в конкретен лидер, за сеене на раздор или за манипулиране на общественото мнение.
  • Увреждане на репутация: DeepFake видеоклипове могат да се използват за увреждане на репутацията на някого. Например чрез създаване на видеоклип, който го показва да казва или прави нещо обидно или незаконно.
  • Създаване на фалшиви новини: DeepFake видеоклипове могат да се използват за създаване на фалшиви новинарски статии или за манипулиране на съществуващи новинарски статии. Могат да се използват от телевизии и други визуални медии. Това може да се използва за подвеждане на хора или за разпространение на пропаганда. Често се използват няколко различни варианта, понякога твърдящи коренно-противоположни неща, зрителят се „загубва“ из тях и още по-трудно може да прецени кое точно е истината.

Най-тъжното е, че потърпевшите обикновено не могат да се защитят по никакъв начин. Или дори да се защитят, DeepFake вече е изиграл ролята си: породени са съмнения, нарушена е репутацията, свалено е доверието от някого или някоя институция.

Как да се предпазим от DeepFake?

DeepFake технологията е все още в ранните си етапи на развитие, но става все по-сложна и реалистична, тъй като човек обикновено вярва най-много на собствените си очи.

Важно е да сте наясно с потенциалните опасности от DeepFake и да предприемете стъпки, за да се предпазите от манипулация. Ето някои съвети:

  • Бъдете винаги скептични към това, което виждате и чувате онлайн: Не вярвайте на всичко, което виждате или чувате онлайн. Не се поддържайте безрезервно към мисълта, че щом сте го видели със собствените си очи, то това е истина. Особено ако това изглежда твърде хубаво, за да е истина. Или ако е прекалено шокиращо, то най-вероятно не е истина.
  • Проверете източника: Преди да споделите или повярвате на информация, проверете източника. Проверете го минимум от три или повече различни места, на които все още имате доверие. (Лично аз, в днешно време, имам вече доверие единствено на себе си, при това не всеки път! 😉 ) Уверете се, че информацията идва от надежден източник и че е добре проучена. Проучете и източниците, от където се твърди, че е получена новината, ако изобщо има такива. Ако няма, или са споменати обобщено, то най-вероятно написаното е напълно измислено или поне частично невярно.
  • Обърнете внимание на детайлите: DeepFake видеоклиповете могат да съдържат фини улики, които показват, че не са истински. Например, може да има леки несъответствия в движението на устните, синхронизирането на звука или осветлението, разминаване на контури, цветни палитри, контраст и яркост, размазване на лицето или дигитални артефакти.
  • Използвайте здравия си разум: Ако нещо изглежда твърде привлекателно, за да е истина, най-вероятно е не е. Ако нещо изглежда прекалено шокиращо, също е много вероятно да не е истина. Ако определена личност е вкарана в нереални или нетипични за нея обстоятелства, вероятно никога не е била там. Използвайте здравия си разум, за да прецените дали и доколко дадена информация е възможно да е истинска. Бъдете песимист в подобни твърдения – отчитайте събитието за невярно, докато не докажете неоспоримо, че е истина. Позитивната нагласа не противоречи на този песимизъм, не го ограничавайте с подобни мисли.

Но нека не бъдем и толкова черногледи. Важно е да се отбележи, че DeepFake технологията може да се използва и с позитивна носоченост. С DeepFake могат да се създават реалистични специални ефекти за филми, видео игри или разтоварващи комични видеоклипове. Някои се създават за забавление или за образователни цели.

Въпреки това, важно е да сте наясно с потенциалните опасности от DeepFake и да можете да разпознаете фалшивите видеоклипове, когато ги видите.

DeepFake трябва да се използва отговорно и всички да са наясно с потенциалните опасности от злоупотребата с нея.

Ако не сте сигурни дали видеоклип е истински, най-добре е да го третирате като подозрителен и да не го споделяте, колкото и да е изкушаващо – злонамерения човек точно на това разчита – да ви въздейства дотолкова, че да го разпространите и да се заличи първоизточника.

Създателите на такива видеоклипове често се опитват да ги скрият от обществеността, за да избегнат откриване. Опитват се да скрият и авторството си, за да по-трудно идентифицирането на клиповете като фалшиви.

България изобщо не е назад в DeepFake технологията

И в България се появяват и изчезват видеоклипове, използвани за разпространение на дезинформация или за увреждане на репутацията на различни хора и институции. Някои дори станаха доста популярни, умишлено не споменавам никакви имена, за да не промотирам допълнително измамата:

  • През 2023 г. DeepFake видеоклип, показващ как български политик прави обидни изявления, беше разпространен онлайн. Видеоклипът беше фалшив, но успя да нанесе вреда на репутацията на политика.
  • През 2024 г. DeepFake видеоклип, показващ как български журналист чете фалшиви новини, беше излъчен по национална телевизия. Видеоклипът беше фалшив, но успя да заблуди много зрители.

Можете да проверите следните ресурси за повече информация за DeepFake на български език:

Важно е да се борим с дезинформацията, разпространявана чрез DeepFake видеоклипове – не само като я откриваме, а и като прекъсваме разпространяването ѝ и не споделяме фалшивите видеоклипове.

DeepFake като средство за манипулация на хора

Като сме информирани и бдителни, можем да помогнем за предпазване и на себе си и на другите от манипулация.

Публикуване на коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *