технологии
Изследване разкрива недостатъци в отговорите на AI чатботове за самоубийство

Изследване на непрофитната организация РАНД Корпорейшън установи, че водещите AI чатботове, включително ЧатGPT, не успяват да предоставят последователни отговори на запитвания, свързани с темата за самоубийството. Въпреки че тези чатботове имат ефективни механизми за защита срещу високорискови въпроси, потребителите могат да заобиколят тези ограничения, задавайки запитвания с умерен риск.
Изследването, публикувано в списанието Психиатрични услуги, показва, че ЧатGPT и Клауд дават адекватни отговори на много нискорискови въпроси, като информация за проценти на самоубийства по региони, в 100% от случаите. Обаче, когато става въпрос за въпроси с умерен риск, например за насоки за хора с suicidal thoughts, чатботовете не предоставят последователни отговори.
Проблеми с отговорите на AI чатботовете
Изследователите от РАНД Корпорейшън съставиха списък от 30 въпроса, свързани с самоубийствата, и помолиха експертни клиницисти да оценят всеки от тях с числов рейтинг на риска. Всеки от въпросите е бил зададен на ЧатGPT, Клауд и Джемини 100 пъти, което е довело до 9 000 отговора за анализ.
Резултатите показват, че Клауд е по-вероятно да предостави директни отговори в сравнение с ЧатGPT, докато Джемини рядко е генерирал директни отговори на въпроси, свързани със самоубийства, независимо от нивото на риск. Според Раян МакБейн, главен автор на изследването, чатботовете предоставят адекватни отговори за много нискорискови и много високорискови въпроси, но остават значителни разлики в отговорите на междинни нива.
Необходимост от подобрения в AI системите
Въпреки наличието на механизми за безопасност, изследването подчертава, че чатботовете остават уязвими на манипулации, които могат да доведат до предоставяне на съвети за самоубийство. Нортийстърн университет наскоро публикува проучване, показващо, че популярни чатботове могат да бъдат манипулирани да дават съвети за самоубийство и самонараняване.
В отговор на изследването, представител на OpenAI заяви, че ЧатGPT е обучен да насърчава потребителите, които изразяват мисли за самоубийство, да се свързват с психични здравни специалисти и че предоставя линкове към ресурси, като кризисни линии. Според МакБейн, съществува необходимост от допълнителна прецизност, за да се гарантира, че чатботовете предоставят безопасна и ефективна информация за психичното здраве, особено в ситуации, свързани с suicidal ideation.
-
топ новини1 месец ago
Нови избори за директор на Българската национална телевизия
-
свят2 месеца ago
Смъртен инцидент на летището в Бергамо: Мъж погълнат от двигател на самолет
-
топ новини4 седмици ago
Зелевски: Операциите ни продължават, Русия ще получи отговор
-
бизнес1 месец ago
Как малките и средни предприятия в България променят дигитализацията
-
образование1 месец ago
Kruu създава партньорства за иновации в образованието
-
бизнес1 месец ago
Пазарът на имоти в София: Продажбите надминават наемите
-
топ новини1 месец ago
Нови мирни преговори между Русия и Украйна насрочени за сряда
-
топ новини2 месеца ago
Тръмп обмисля нова военна помощ за Украйна
-
образование1 месец ago
Руски ученици спечелиха медали на Международната олимпиада по математика
-
туризъм4 седмици ago
Русия възобновява редовни полети до Северна Корея след десетилетия
-
свят2 месеца ago
Премиерът на Северна Македония обвини България в нарушаване на идентичността
-
свят1 месец ago
В Украйна парламентът приема законопроект, който заплашва независимостта на антикорупционните агенции