Софистицираната фузија на техники за вештачка интелигенција и создавање содржина, технологијата за веродостојно лажирање (deepfake) овозможува генерирање на хиперреалистични слики, видеа и аудио снимки кои можат убедливо да имитираат вистински поединци. Иновативната технологија deepfake овозможува вметнување на сличноста и изразите на една личност во друга, честопати замаглувајќи ги границите помеѓу фактите и измислиците.
И покрај ова, оваа технологија има и своја темна страна. Од неодамна, многумина забележуваат дека постои длабока загриженост за приватноста, довербата и злонамерна експлоатација. Како што се развива технологијата, така се зголемува и ризикот од нејзина злоупотреба, манифестирајќи се во сценарија каде лицата на поединците непречено се „прилепуваат“ на експлицитна содржина, со што се поттикнуваат различни форми на емоционална вознемиреност.
Минатата година се случи шокантниот случај на средношколката Франческа Мани и десетици други девојчиња во училиште во Њу Џерси. Девојчињата станаа жртви на deepfake порнографија откако неколку момчиња преземаа фотографии на девојчињата и ја искористија вештачката интелигенција за да ги претворат овие слики во порнографски материјал.
Глобалните поп-ѕвезди исто така ги почувствуваа последиците. Пејачката Тејлор Свифт беше една од најновите жртви, откако лажни порнографски снимки со нејзиниот лик брзо се проширија низ платформата X. Фотографиите циркулираа речиси цела недела минатиот месец.
И измамниците ја користат технологијата за финансиски придобивки. Па така, тука и неодамнешниот случај со еден финансиски работник во мултинационална фирма со седиште во Хонг Конг. Претставувајќи се како главен финансиски директор на компанијата во видео-конференција, измамници успеаја да го убедат работникот да изврши трансфер од 25 милиони долари.
Ниту Балканот не остана имун на вакви случаи. Mинатиот август се прошири deepfake видео каде српскиот политичар Драган Ѓилас ги критикува неговите поддржувачи и сопартијците на српската телевизија Pink.
Извор од Скопје изјави за IT Logs дека неодамна бил жртва на deep fake изнуда. Според податоците кои ги добивме, измамниците искористиле фотографии и видеа што изворот ги објавувал на различни канали на социјалните мрежи за да направат deepfake порно и потоа со таквата лажирана содржина да го уценуваат, барајќи финансиска исплата.
Алармантните случаи на deepfake манипулација кои ги наведовме овде се само дел од заканувачки бран на потенцијални закани. Леснотијата со која поединците можат да бидат таргетирани, погрешно претставени или искористени за финансиски придобивки, исто така, ја нагласува итната потреба од сеопфатни стратегии за да се спротивстави на претстојниот наплив на предизвици поврзани со deepfake технологијата.
(Не) верувајте на вашите очи и уши
Додека следните избори во САД се наѕираат на хоризонтот, застрашувачката употреба на deepfake технологија фрла сенка врз демократскиот процес со ширење дезинформации.
Според Филип Рајтингер, претседател и извршен директор на Глобалната Сајбер Алијанса, deep fake предизвикува сосема ново ниво на загриженост во врска со дезинформациите.
„Сите ние можеме да им веруваме на нашите очи и уши, и, како резултат на тоа, мултимедијалната содржина може директно да влијае на јавното мислење. Deepfake допринесува нашата доверба во сопствените сетила да биде разнишана и искористена за злонамерни цели. И ризикот влијае на сите, поткопувајќи ја веродостојноста на изборните процеси, дозволувајќи економски напади врз реномирани бизниси и многу повеќе“, вели Рајтингер за IT Logs.
Злонамерно создадените синтетички медиуми би можеле да се искористат за да се измислуваат погрешни говори, изјави или дејствија што им се припишуваат на кандидатите. За возврат, се наидува на конфузија и намалување на довербата на јавноста во автентичноста на политичкиот дискурс.
Дополнително, потенцијалот за deepfake да ги искористат ранливостите во платформите на социјалните медиуми и да влијаат врз гласачите преку ширење измамнички содржини предизвикува загриженост за отпорноста на демократските процеси против технолошки предизвикана субверзија.
„Фабрикуваната содржина, со потенцијал да го поколеба јавното мислење и да ги наруши политичките процеси, претставува огромен предизвик за демократскиот наратив. Треба внимателно да ги испитаме мултимедијалните содржини за суптилни неправилности и неприродни движења, како и да ја потврдиме автентичноста на содржината преку вкрстено референцирање со доверливи извори“, вели аналитичар за сајбер безбедност Суад Сефери за IT Logs.
Организациите како што е Глобалната Сајбер Алијанса работат заедно со многу општествени актери во поддршка на напорите да се спречи употребата на технологијата, вклучително и вештачката интелигенција, за наштетување на луѓето, додава Рајтингер.
„Ова ги вклучува напорите да се обезбедат онлајн животите на луѓето и бизнисите на начин на кој ќе има помал ризик за напади. Паралелно со ова, треба да се заземат и политички напори за намалување на ефикасноста на deepfake во обидите за манипулирањето со јавното мислење“, вели тој за IT Logs.
Разликување на вистината од фикцијата
Поради сево ова, за да се заштити интегритетот на изборниот процес од подмолното влијание кое произлегува од deepfake манипулациите будноста и силните мерки за сајбер-безбедност стануваат исклучително важни.
„Знаењето, откако ќе се сподели, станува еден вид колективна тврдина. Незабележливата природа на deepfake, исто така, нè поттикнува да негуваме не само технолошка одбрана, туку и длабоко човечка отпорност“, истакнува Сефери.
За Билјана Лили, експерт за сајбер-безбедност и претседавач со сајбер патеката на форумот за безбедност во Варшава, штетите што ги предизвикуваат deepfake содржините веќе може да се видат преку сè поприсутни примери и нивните далекусежни последици.
Дополнително, како што deepfake се инфилтрира во политичките арени, ерозијата на довербата на јавноста и потенцијалот за мешање во изборите стануваат сè поочигледни. Овие примери кои се развиваат не само што ја нагласуваат итната потреба за силни контрамерки, туку служат и како потсетник за длабоките општествени предизвици што ги носи deepfake технологијата.
„Deepfake аудио и видео содржините ги таргетираа политичките лидери и познатите личности ширум светот. Се размножуваше во воените зони за да го наруши моралот и да извлече тактичка предност, како на пример во руската војна против Украина; како и во услови на мир, со цел да се обесхрабри учеството на гласачите, како што е неодамнешниот аудио deepfake на американскиот претседател Бајден. Исто така, deepfake првенствено се користи за генерирање порно слики или видеа на познати личности, особено на жени, како во последниот случај на deep fake порно сликите на Тејлор Свифт“, објаснува Лили.
Иако сè уште нема цврсто решение на хоризонтот, според неа, секогаш постои можност за владина регулација, особено кога станува збор за различните платформи каде што се дистрибуира таква содржина.
„Овој пример ја покажува огромната потреба за владино регулирање на платформи кои немаат или немаат соодветни политики за следење, идентификување и симнување на таква содржина од нивните мрежи“. Заклучува Лили.
[…] Софистицираната фузија на техники за вештачка интелигенција и создавање содржина, технологијата за веродостојно лажирање (дипфејк) овозможува генерирање на хиперреалистични слики, видеа и аудио снимки кои можат убедливо да имитираат вистински поединци. Но, оваа технологија има и своја темна страна. Прочитај повеќе […]
[…] за зголемен број на напади. Додадете ги на ова алатките за генерирање на глас, слики и видеа со помош на вештачка интелигенција, и измамата на […]