Вештачката интелигенција е супер корисна алатка која значително ја олеснува работата. Ако ја користите, на пример преку ChatGPT веројатно веќе сте забележале дека понекогаш податоците кои ги добивате не се точни. Ова не е проблем кога ќе ги препознаете грешките, но што ако направите превид.
Директорот на Open AI, Сем Алтман, неколку пати повтори дека ChatGPT има способност да прикажува погрешни податоци кои ќе делуваат како вистински. Сепак се чини дека ова не е доволно потенцирано, и од време, на време, сите го забораваме. Пред некоја недела имавме одлично потсетување дека сѐ што ќе ни покаже ChatGPT не е вистина…
ChatGPT си исхалуцинирал судска одлука
Роберто Мата минатата година поднесе судска тужба против колумбискиот авиопревозник Avianca. Во текот на летот металната количка која се користи за послужување на храна и пијалак во авионот го удрила и го повредила неговото колено. Адвокатот Стивен Шварц кој го претставувал Роберто Mата, на барањето на адвокатите на Avianca за прекин на спорот поради застареност, поднел претставка до Судот во Менхетн, Њујорк.
Претставката која Шварц ја поднел до судот е изработена со помош на ChatGPT. Во неа се наведени пресуди во неколку судски спорови. Но, адвокатите на одбраната не успеале да ги пронајдат овие пресуди.
Причината е едноставна, ниту еден од овие спорови не е вистински. ChatGPT си ги генерирал во документот, иако никогаш не се случиле. Мартинез против Delta Air Lines, Зикерман против Korean Air Lines и Варгес против China Southern Airlines се наведени, но не постојат.
Мистеријата беше разоткриена минатата недела. Шварц потврдил дека го користел ChatGPT за претставката. Дури и на неговите дополнителни прашања за тоа од каде се овие случаи, вештачката интелигенција имала одговор – „Од базите на податоци на Westlaw и LexisNexis“, пренесе CBS.
Понекогаш може да генерира погрешен податок…
Ова е предупредувањето кое Open AI го испраќа до корисниците на ChatGPT, ама се чини дека Open AI не го прави ова доволно јасно. Развивачите веќе имаат имплементирано решение кое го известува корисникот дека нема пристап до податоци понови од 2021 година, но истовремено нема известување дека ChatGPT може да си измисли факти и да продолжи да генерира уште погрешни податоци.
Вообичаено овие приказни се забавни за раскажување со пријателите, ама не сите приказни се безопасни. На пример ChatGPT измислувал приказни за професор по право. Во овие генерирани текстови професорот бил обвинет за сексуална злоупотреба. За ова дознал случајно, откако негов колега ги видел и го предупредил за ова, пренесе Verge.
Сличен проблем имаа и студентите од Texas A&M универзитетот. ChatGPT ги обвини сите студенти дека нивните есеи се генерирани со помош на вештачка интелигенција. За среќа професорот откри дека станува збор за грешка, но не пред да им се закани дека никој нема да положи, и нема да добијат дипломи.
Проблеми кои ќе бидат надминати
Вештачката интелигенција секако ќе продолжи да се развива и резултатите ќе бидат подобри. Добар пример за ова е пребарувањето во Bing кое користи ист енџин како ChatGPT, ама покажува подобри резултати. Дополнително во одговорите може да видите и линкови од кои Bing ги генерирал информациите и на кои може да прочитате повеќе.
Еден од проблемите е предизвикан и од корисниците. Самиот ChatGPT не може да направи разлика кога текстот кој го генерира мора да биде без грешки, ниту пак има како да провери.
Вештачката интелигенција која генерира текст има проблем ако треба да провери дали тоа што го генерира е точно. Поради ова, до моментот во кој ChatGPT ќе покажува проверени информации развивачите треба да изнајдат решение да прикажуваат соодветни предупредувања. „Понекогаш може да генерира погрешен податок…“ не треба да биде единствена порака која ќе дојде како предупредување до корисникот.