Deep fakes видеата земаат сѐ поголем замав

Avatar img-thumbnail img-circle

во Свет

Холивудската ѕвезда Скарлет Јохансон се предава, таа смета дека нема начин на кој може да се справи со лажните видеа. Веќе има десетици видеа на кои е монтирано нејзиното лице, и не постои начин да се отстранат.

„Секако нема преголемо влијание врз мене, луѓето не помислуваат дека сум јас во порното колку понижувачки и да е ова. Мислам дека е бескорисно да се обидуваш да ги отстраниш, законски интернетот е огромна дупка црнила која се јаде самата. За жал има многу повознемирувачки содржини на скриениот интернет од ова.

Мислам, има човек во Хонг Конг кој се прослави креирајќи вештачка интелигенција со мојот лик. Бркањето на ова за мене е неплодна работа, но сосем е поинаку за некој кој ќе остане без работа ако сликите му се користат вака.“, вели Скарлет Јохансон за Washington Post.

Deep fakes се нарекуваат видеа со експлицитна содржина на кои со помош на вештачка интелигенција се монтираат ликовите на најчесто јавни личности, иако и обичните луѓе се жртви на оваа технологија. За креирање на видеата потребно е повеќе трпение отколку било каква вештина.

Сè што треба е видео врз кое ќе се монтира и куп слики врз база на кои ќе се направи и ликот на „жртвата“. Овие слики денес може да се соберат од друштвените мрежи или како што е случај со Скарлет Јохансон со собирање на слики од филмовите во кои глумат.

Потоа овие слики се пуштаат низ вештачка интелигенција и се креира виртуелниот лик. Овој модел понатаму се „лепи“ врз лицето во видеото. Сѐ ова е автоматски, и речиси не бара речиси никаква интервенција од креаторот. Секако мало техничко познавање е потребно, но има доволно документација и за оние кои не се технички подготвени.

Она што веројатно е и очекувано е различниот начин на кој се креираат овие видеа за на пример актерите и актерките. Речиси без исклучок ликовите на актерките се вметнуваат на порнографска содржина. Главите на актерите се поставуваат на смешни видеа.

Засега главни жртви се јавните личности, но сѐ почесто се појавуваат видеа на обични луѓе. Дури постои и пазар за креирање на видеата. Цената на едно видео е 20 долари.

Google, Reddit, па и платформите како Pornhub ја отстрануваат оваа содржина од своите сервиси, сепак ова не е едноставно. Google на пример оваа содржина ја одбележува како „involuntary synthetic pornographic imagery“.

Единствена добра вест е дека засега се препознава кога некое видео е креирано со deep fakes. Сепак она што е клучно е да се направат сериозни обиди за надминување на проблемите, пред тие да станат преголеми.

Дел од експертите го обвинија Google во овој случај, додавајќи дека компанијата е несериозна бидејќи ја отворила технологијата без да размисли.

„Што ако некој биолог каже: Ова е многу кул вирус; да видиме што ќе стане ако јавноста дојде до него. Ова е неприфатливо“, вели професорот Хани Фарид.

Стани премиум член и доби пристап до сите содржини, специјален попуст на над 2.200 производи во ИТ маркет, верификуван профил и можност за огласување на ИТ Огласник. Плус ќе го поддржиш медиумот кој го градиме цели 16 години!

basic

членство

42 ден./мес

зачлени се

1337

членство

125 ден./мес

зачлени се
* плаќањето е на годишно ниво

Доколку веќе имаш премиум членство, најави се тука.

Subscribe
Notify of
guest
0 Коментари
Newest
Oldest Most Voted
Inline Feedbacks
View all comments