Meta AI се извини за халуцинациите во резултатите за обидот за атентат на Трамп

Неодамнешниот инцидент во кој асистентот со вештачка интелигенција од Meta AI не прикажуваше точни резултати за обидот за атентат на Доналд Трамп е добар пример за ограничувањата со кои доаѓаат генеративните моделите за вештачка интелигенција.

Meta AI неточно одговараше на прашањето за неодамнешниот обид за атентат на поранешниот претседател и актуелен кандидат за претседател Доналд Трамп. Всушност моделот има добар одговор, но податоците кои ги презентира се некомплетни. Ова секако не е изненадување, моделите не се тренираат на актуелни податоци и немаат пристап до нив.

Сепак, оваа ситуација покажа дека ако сакаме доверливи и точни резултати за актуелни настани, сѐ уште ќе треба да се помачиме.

Технички предизвици

Генеративните системи за вештачка интелигенција, како оние развиени од Мета, Google, Open AI и други технолошки гиганти, се познати по нивната способност да генерираат текст сличен на луѓето. Овие системи можат да произведат и нешто што е познато како „халуцинации“ – лажни или погрешни информации што не се засновани на реалноста. Токму халуцинациите се причина за погрешниот одговор во случајот со прашањето за атентатот на Трамп.

„Овие одговори се нарекуваат халуцинации, и се широкораспространет проблем во индустријата, присутен кај сите системи за генерирање со вештачка интелигенција и е актуелен предизвик за тоа како вештачката интелигенција ќе се справува со настаните во реално време во иднина. Како сите генеративни системи за вештачка интелигенција, моделите може да вратат неточни или несоодветни резултати, а ние ќе продолжиме да ги решаваме овие проблеми и да ги подобруваме овие карактеристики како што се развиваат, и повеќе луѓе ги споделуваат своите забелешки.“, објасни Meta на својот блог.

Ова е поголем проблем кога системите за вештачка интелигенција се користат за информации за реално време или контроверзни настани, и поважно ако корисникот не е свесен за овие ограничување.

Одговорите на вештачката интелигенција се засновани на сетовите на информации на кои е трениран моделот. Без разлика колку е добар самиот модел, информациите кои се неточни, некомплетни или имаат „вградени предрасуди“ се проблем. Во случајот со атентатот, Meta AI едноставно немаше пристап до податоци. Наместо да остават импровизации, во Meta ги спречија сите одговори поврзани со него.

„Наместо Meta AI да дава неточни информации за неуспешниот обид за атентат, ја програмиравме едноставно да не одговара на прашања за тоа откако се случи – и наместо тоа, да даде генерички одговор, не можеше да даде никакви информации. Ова е причината зошто некои луѓе пријавија дека нашата вештачка интелигенција одбива да зборува за настанот“.

Предизвиците на податоци во реално време

Додавањето на податоци и вести како што се случуваат, во реално време не е едноставен предизвик за системите за вештачка интелигенција. Процесот може да има грешки. Во реално време е потешко да се процени колку некој податок е релевантен, дали е дезинформација или лажна вест. Вештачката интелигенција не може да направи разлика помеѓу кредибилитетот на изворите за информации доволно брзо.

Етички предизвици

Покрај техничките, постојат и етички предизвици. Потенцијалот вештачката интелигенција да шири лажни информации може да има сериозни последици, особено кога вклучува настани од висок профил или политички чувствителни настани.

Во моментов сѐ уште се води дебата за тоа кој е виновен кога вештачката интелигенција ќе сподели грешка или ќе сподели информации кои се опасни и може да им наштетат на корисниците. Довербата во технолошките компании е клучна, особено кога тие управуваат со платформи кои шират информации до јавноста. Одговорот на јавноста на инциденти како овој може да ја намали довербата, бидејќи корисниците може да станат скептични за точноста на содржината генерирана од вештачка интелигенција. Одлуката на компаниите да ограничат одговори на некои теми како што направи Meta, е лесно да се помеша со обид за цензура, уште повеќе кај неинформираните корисници. И покрај ова, компаниите мора да направат проценка и да го спречат ширењето на дезинформации.

Примерот со Трамп е уште еден добар пример за друга платформа. Освен на Meta обвинувањата за цензура се раширија и на Google. Ова веројатно и не е изненадување со оглед на тоа дека добар дел од десничарите во САД ја имаат изгубено довербата во технолошките компании. И Google мораше да реагира на обвинувањата дека функцијата за автоматско комплетирање (autocomplete) во пребарувачот ги цензурира резултатите за обидот за атентат пренесе Verge.

„Еве нѐ повторно, уште еден обид за МЕСТЕЊЕ НА ИЗБОРИТЕ!!! рече Трамп во објава на Truth Social. „GO AFTER META AND GOOGLE“.

TL; DR

Случајот на Meta и веста за обидот за атентат на Доналд Трамп се одличен потсетник за тоа дека сме сѐ уште рано во ерата на вештачката интелигенција, но и за одговорноста која доаѓа со вртоглавото прифаќање на технологијата.

Како што системите за вештачка интелигенција стануваат се поинтегрирани во секојдневниот живот, решавањето на овие технички и етички предизвици ќе биде од клучно значење за да се обезбеди дека му служат на јавниот интерес и не предизвикуваат штета. Компаниите мора да продолжат да ги усовршуваат своите системи, да ја зголемат транспарентноста и да се вклучат во отворен дијалог со јавноста за да изградат доверба и да обезбедат етичка употреба на вештачката интелигенција.

Стани премиум член и доби пристап до сите содржини, специјален попуст на над 2.200 производи во ИТ маркет, верификуван профил и можност за огласување на ИТ Огласник. Плус ќе го поддржиш медиумот кој го градиме цели 16 години!

basic

членство

42 ден./мес

зачлени се

1337

членство

125 ден./мес

зачлени се
* плаќањето е на годишно ниво

Доколку веќе имаш премиум членство, најави се тука.

Subscribe
Notify of
guest
0 Коментари
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
види ги сите огласи на kariera.it.mk