технологии
Ново проучване: Чатботовете не дават надеждни отговори за самоубийства

Според ново проучване, популярните AI чатботове, включително ЧатGPT, не дават последователни отговори на запитвания, свързани с темата за самоубийствата. Изследователите от RAND Corporation призовават за донастройка на чатботовете, за да се гарантира, че техните отговори са в съответствие с експертни насоки по въпросите, свързани с самоубийства.
Технологиите на OpenAI, Антропик и Google разполагат с ефективни механизми за защита срещу високорискови запитвания. Въпреки това, потребителите могат да заобиколят тези ограничения, задавайки въпроси с умерен риск. Проучването, публикувано в списание Психиатрични услуги, установява, че чатботовете отказват да отговорят директно на много високорискови въпроси, които биха могли да насърчат самоубийствени действия.
ЧатGPT и Клод от Антропик дават подходящи отговори на много нискорискови запитвания, като например информация за самоубийствата по региони, в 100% от случаите. Въпреки това, те не са толкова последователни, когато става въпрос за умерени рискови запитвания, например за насоки за хора, които имат самоубийствени мисли.
Необходимост от подобрения в отговорите на чатботовете
Изследването разкрива, че Клод е далеч по-склонен от ЧатGPT да предоставя директни отговори на запитвания, свързани с самоубийства. Гемини, друг чатбот на Google, рядко предоставя директни отговори, независимо от нивото на риск. За разлика от тях, ЧатGPT и Клод отговарят на запитвания, касаещи потенциални методи за саморазрушение, когато не са формулирани като свързани със самоубийства.
Изследването включва 30 въпроса, свързани с темата за самоубийствата, на които експертни клиницисти присвоили оценка на риска. Запитванията били подадени 100 пъти през ЧатGPT, Клод и Гемини, което е довело до 9 000 отговора за анализ. Според Раян МакБейн, водещият автор на изследването, чатботовете дават последователни отговори на много нискорискови и много високорискови въпроси, но остават значителни разлики в отговорите на въпросите с междинен риск.
В отговор на проучването, представител на OpenAI заяви, че ЧатGPT е обучен да насърчава потребителите, които изразяват мисли за самоубийство или саморазрушение, да се свържат с психични здравни специалисти. Компанията работи по разработването на автоматизирани инструменти, които по-ефективно да откриват случаи на психичен или емоционален стрес.
Изследването подчертава необходимостта от допълнителна донастройка на чатботовете, за да осигурят безопасна и ефективна информация за психичното здраве, особено в ситуации с високи рискове, свързани със самоубийствени мисли.
-
топ новини1 месец ago
Нови избори за директор на Българската национална телевизия
-
свят2 месеца ago
Смъртен инцидент на летището в Бергамо: Мъж погълнат от двигател на самолет
-
топ новини4 седмици ago
Зелевски: Операциите ни продължават, Русия ще получи отговор
-
бизнес1 месец ago
Как малките и средни предприятия в България променят дигитализацията
-
образование1 месец ago
Kruu създава партньорства за иновации в образованието
-
бизнес1 месец ago
Пазарът на имоти в София: Продажбите надминават наемите
-
топ новини2 месеца ago
Тръмп обмисля нова военна помощ за Украйна
-
топ новини1 месец ago
Нови мирни преговори между Русия и Украйна насрочени за сряда
-
туризъм4 седмици ago
Русия възобновява редовни полети до Северна Корея след десетилетия
-
образование1 месец ago
Руски ученици спечелиха медали на Международната олимпиада по математика
-
свят2 месеца ago
Премиерът на Северна Македония обвини България в нарушаване на идентичността
-
свят1 месец ago
В Украйна парламентът приема законопроект, който заплашва независимостта на антикорупционните агенции