Connect with us

технологии

OpenAI обяви защо AI модели „халюцинират“ и как да се избегне това

Редакция

Published

on

На 15 март 2024 г. компанията OpenAI публикува ново изследване, в което обяснява защо големите езикови модели (LLMs) понякога „халюцинират“ или генерират неверни отговори. Според тях, алгоритмите, използвани в чатботовете, награждават моделите за предположения, вместо да признават, когато не знаят отговора.

Изследването подчертава, че „халюцинациите“ произлизат от грешки в бинарната класификация, при която LLMs категоризират нови наблюдения в една от две категории. Причината за продължаващите халюцинации е, че моделите са „оптимизирани да бъдат добри тестови участници, а предположенията при несигурност подобряват представянето на тестовете“. Учените сравняват това с ученици, които предполагат отговори на въпроси с избор от множество опции, за да получат точки, вместо да оставят отговора празен.

Как AI моделите могат да се подобрят

LLMs работят с точкова система, която им дава точка за правилен отговор и нула за пропуснати или невярно предоставени отговори. Въпреки новите разработки, OpenAI признава, че ChatGPT моделите в общия случай разпространяват неверни факти в 40 процента от отговорите си. Тази информация бе потвърдена от проучване на американската компания NewsGuard.

Изследването на OpenAI разкрива, че чатботовете, обучавани предварително и след това, се учат да предвиждат следващата дума в големи количества текст. Въпреки че някои области, като правописа и граматиката, следват ясни правила, има теми и типове данни, които AI трудно би могъл да разпознае. Например, алгоритмите могат да класифицират изображения, когато те са етикетирани с „котка или куче“, но ако са етикетирани след рождения ден на домашния любимец, чатботът няма да може да ги класифицира точно.

Бъдещето на AI и как да се избегнат халюцинации

Едно от основните заключения на изследователите е, че моделите никога няма да бъдат 100 процента точни, тъй като „някои реални въпроси по същество са неотговаряеми“. За да се ограничат халюцинациите, потребителите могат да инструктират LLM да отговаря с „не знам“, ако не знае отговора, и да модифицират съществуващата точкова система за типовете отговори, които предоставя.

Тези новини идват само няколко седмици след като OpenAI пусна новия модел GPT-5, който се твърди, че е „имунизиран“ срещу халюцинации и има 46 процента по-малко неверни факти в сравнение с предшественика си GPT-4.

Нашият редакторски екип е посветен на предоставянето на точно и навременно отразяване на новините. С ангажимент към журналистическата почтеност, ние ви донасяме историите, които са най-важни за нашата общност.

свят1 минута ago

Взрив в украинска жп гара: Четирима загинали при инцидент

политика2 минути ago

Русия нанася удари на Днепропетровска област с дронове и артилерия

топ новини2 минути ago

Coinbase отчита рекорден ръст на транзакциите с x402 за един месец

туризъм3 минути ago

Открийте магията на Рождественския базар в Тренто, Италия

здравеедин час ago

Пристига грипният сезон в Европа: Какво да очакваме?

бизнеседин час ago

Индексът BIST 100 на Турция с ръст над 3 процента в петък

технологииедин час ago

ЕС обвинява Meta и TikTok в нарушение на цифровите правила

спорт2 часа ago

Григор Димитров избира промяна след труден сезон

свят2 часа ago

Белгия блокира 140 милиарда евро за Украйна, отлага помощта на ЕС

политика2 часа ago

Планирания заем за репарации за Украйна на стойност 140 млрд. евро

топ новини2 часа ago

Русия атакува Днепропетровска област с бомби и дронове

туризъм3 часа ago

Британците избират Португалия пред Испания заради по-ниски разходи

здраве3 часа ago

Великобритания извърши най-голямото изземване на нелицензирани лекарства

бизнес4 часа ago

Солана се позиционира като „Уолстрийт“ на Web3

технологии4 часа ago

Часови прекъсвания на електричеството в 12 региона на Украйна

спорт4 часа ago

Най-добрите кейсове за отваряне в CS2 през 2025 г.

свят4 часа ago

SWISS стартира първия си полет с Airbus A350-900

топ новини5 часа ago

Катрин Конъли спечели президентските избори в Ирландия

туризъм5 часа ago

Лидери от Ангола, Мозамбик и Египет обсъждат туризма в Африка

здраве6 часа ago

Властите в Обединеното кралство задържаха хиляди нелицензирани инжекции за отслабване

технологии2 седмици ago

KOBIA ускорява растежа на малките и средни предприятия в Азербайджан

спорт7 дни ago

Капитанът на Кристъл Палас Марк Гуехи напуска клуба догодина

свят2 седмици ago

Тръмп постигна мирно споразумение в Газа – войната свърши

туризъм3 седмици ago

Новата система за влизане и излизане на ЕС стартира на 12 октомври

политика3 седмици ago

Британски пътници в Европа: Нови проверки на границите от 12 октомври

свят3 седмици ago

САЩ призовават съюзниците в ООН да изолират Куба заради Русия

образование2 седмици ago

Излишното време пред екран влияе негативно на учебните резултати

политика3 седмици ago

България среща най-силния хибриден удар, заяви премиерът Желясков

здраве2 седмици ago

Италия води в потреблението на канабис сред младите в ЕС

спорт2 седмици ago

САЩ доминира на световното първенство по стрелба с пушка

свят2 седмици ago

САЩ наложиха санкции на сръбския нефтен гигант НИС

здраве3 седмици ago

Японски учени откриха биологичната причина за мозъчната мъгла при Long COVID

свят4 седмици ago

Фридрих Мерц предупреждава: Европа на ръба на война с Русия

топ новини2 седмици ago

Никола Саркози ще изтърпи присъда от 5 години затвор на 21 октомври

здраве2 седмици ago

Ню Йорк съди технологични гиганти за психичното здраве на младите

свят4 седмици ago

Германия предупреждава: Европа на ръба на войната с Русия

свят6 дни ago

Тръмп поставя дипломацията на първо място, Зелевски се връща без новини

здраве2 седмици ago

Глобалната продължителност на живота се възстановява, но предизвикателствата остават

образование3 седмици ago

Стивън Кинг – най-забраненият автор в училищата в САЩ

спорт1 седмица ago

Световният шампион по вдигане на тежести Карлос Насар обмисля да напусне България

Trending

© Всички права запазени. Този уебсайт предлага новини и образователно съдържание с информационна цел. Въпреки че се стремим към точност, не гарантираме пълнотата или надеждността на предоставената информация. Съдържанието не трябва да се приема като професионален съвет. Препоръчваме на читателите да проверяват фактите и при необходимост да се консултират със специалисти. Не носим отговорност за загуби или неудобства, произтичащи от използването на информацията на този сайт.