Кинески хакери и вештачка интелигенција се потенцијална опасност за изборите во САД, Јужна Кореја и Индија оваа година, предупредува Microsoft. Технологијата и начинот на кој ќе биде реализирано ова, веќе ги поминаа првите тестови во обидите за влијание на изборите во Тајван.
Кина користи лажни профили на друштвените мрежи за да направи раздор и за да влијае на изборите во САД, така што ќе имаат најдобар исход за Кина. Покрај злоупотребата на друштвените мрежи, забележан е и пораст на содржина генерирана од вештачка интелигенција која се користи за остварување на овие цели.
„Додека населението во Индија, Јужна Кореја и Соединетите Држави се упатува кон гласачките места, веројатно ќе видиме кинески напади и влијанија, а до одреден степен и севернокорејски сајбер напаѓачи, кои работат на таргетирање на овие избори“, се вели во извештајот на Microsoft.
Безбедносните експерти на Microsoft забележале промена во праксата на повеќе профили на друштвените мрежи поврзани со Кинеската комунистичка партија. Профилите започнале да поставуваат контроверзни прашања, за да откријат што прави најмногу поделба кај гласачкото тело. Експертите на Microsoft се сомневаат дека податоците се собираат за претседателските избори во САД. За овие прашања се користи и содржина генерирана со помош на вештачка интелигенција.
Дел од овие теми ги вклучуваат: излетувањето на возот од шините во Кентаки во ноември 2023 година; шумските пожари во Мауи во август 2023 година; истурањето на отпадната јапонска нуклеарна вода; употребата на дрога во САД; имиграциските политики; и расните тензии во САД.
Накратко за користењето на вештачката интелигенција и за ширењето на дезинформации
Microsoft ги атрибуира споменатите активности на кинеската државна хакерска група Storm 1376. Еве кои се некои од правците во кои насочуваат дел од комуникацијата.
Пожарите на Мауи се направени со тајно оружје. Според информациите кои се споделуваат, американската армија во август 2023 тестирала супер тајно оружје на Хаваи. За време на овие тестови, намерно го запалиле островот Мауи.
Владата на САД намерно го предизвикала излетувањето на возот во Кентаки. Написи кои се осврнуваат на излетувањето од шините на возот натоварен со сулфур во Кентаки ги насочуваат читателите да размислат за тоа дали намерно се крие нешто.
Конечно веројатно и најдобрата кампања досега. Намерно истурање на радиоактивна вода во Тихиот Океан. Водата е од Фукушима, а Меѓународната агенција за атомска енергија анализираше дека планираното етапно истурање е безбедно. Кампањата вклучува и видеа на Годзила, веројатно како обид за сугестија од опасности од мутации.
Обиди за влијание на изборите во Тајван
Иако за потенцијалната употреба во иднина може да се шпекулира, она што е сигурно е дека Storm 1376 веќе се обиделе да влијаат на изборите во Тајван. Дел од акциите биле поставување на лажен аудио разговор од еден од претседателските кандидати за кое Microsoft смета дека е креиран со помош на вештачка интелигенција.
На крај, обидите за влијание биле неуспешни, па Вилиам Лаи победил и покрај напорите на кинеските хакери. Групата дури користела генерирана содржина во која со помош на вештачка интелигенција биле креирани водители кои читале измислени вести за приватниот живот на Лаи и неговите вонбрачни деца.
За генерирање на видеата на водителите, напаѓачите ја користеле CapCut алатката креирана од TikTok, пишува Guardian.
Meta ќе започне за одбележување на содржина генерирана со вештачка интелигенција
Се чини дека во насока на намалување на опасноста од измамите се промените кои ги најави Meta. Компанијата зад Facebook и Instagram најави дека ќе започне со пошироко одбележување на содржини генерирани со вештачка интелигенција. Meta ќе додаде нова етикета „Made with AI“ која ќе покажува дали за креирањето на некоја објава е користена вештачка интелигенција.
Етикетата ќе може да ја стават самите објавувачи на содржините, но ако не го направат ова, Meta ќе го прави наместо нив. Технологијата која ја користи компанијата следи повеќе невидливи маркери со чија помош детектира генерирана содржина.
Според оваа најава Meta нема да ја отстранува содржината генерирана со вештачка интелигенција, но ќе ја одбележува за да биде јасно видливо кога за уредување или генерирање се користени вакви алатки. Ова не значи дека ќе може да се објавува сѐ. Содржината и натаму подложи на сите правила за објави. Не може да се користи за влијание на изборните процеси, за потикнување на насилство, малтретирање и слично, пренесе Axios.