технологии
Ново проучване: Чатботовете не дават надеждни отговори за самоубийства

Според ново проучване, популярните AI чатботове, включително ЧатGPT, не дават последователни отговори на запитвания, свързани с темата за самоубийствата. Изследователите от RAND Corporation призовават за донастройка на чатботовете, за да се гарантира, че техните отговори са в съответствие с експертни насоки по въпросите, свързани с самоубийства.
Технологиите на OpenAI, Антропик и Google разполагат с ефективни механизми за защита срещу високорискови запитвания. Въпреки това, потребителите могат да заобиколят тези ограничения, задавайки въпроси с умерен риск. Проучването, публикувано в списание Психиатрични услуги, установява, че чатботовете отказват да отговорят директно на много високорискови въпроси, които биха могли да насърчат самоубийствени действия.
ЧатGPT и Клод от Антропик дават подходящи отговори на много нискорискови запитвания, като например информация за самоубийствата по региони, в 100% от случаите. Въпреки това, те не са толкова последователни, когато става въпрос за умерени рискови запитвания, например за насоки за хора, които имат самоубийствени мисли.
Необходимост от подобрения в отговорите на чатботовете
Изследването разкрива, че Клод е далеч по-склонен от ЧатGPT да предоставя директни отговори на запитвания, свързани с самоубийства. Гемини, друг чатбот на Google, рядко предоставя директни отговори, независимо от нивото на риск. За разлика от тях, ЧатGPT и Клод отговарят на запитвания, касаещи потенциални методи за саморазрушение, когато не са формулирани като свързани със самоубийства.
Изследването включва 30 въпроса, свързани с темата за самоубийствата, на които експертни клиницисти присвоили оценка на риска. Запитванията били подадени 100 пъти през ЧатGPT, Клод и Гемини, което е довело до 9 000 отговора за анализ. Според Раян МакБейн, водещият автор на изследването, чатботовете дават последователни отговори на много нискорискови и много високорискови въпроси, но остават значителни разлики в отговорите на въпросите с междинен риск.
В отговор на проучването, представител на OpenAI заяви, че ЧатGPT е обучен да насърчава потребителите, които изразяват мисли за самоубийство или саморазрушение, да се свържат с психични здравни специалисти. Компанията работи по разработването на автоматизирани инструменти, които по-ефективно да откриват случаи на психичен или емоционален стрес.
Изследването подчертава необходимостта от допълнителна донастройка на чатботовете, за да осигурят безопасна и ефективна информация за психичното здраве, особено в ситуации с високи рискове, свързани със самоубийствени мисли.
-
топ новини3 месеца ago
Нови избори за директор на Българската национална телевизия
-
туризъм3 месеца ago
Русия възобновява редовни полети до Северна Корея след десетилетия
-
образование3 месеца ago
Kruu създава партньорства за иновации в образованието
-
развлечения2 месеца ago
Излезе мемоарът на Вирджиния Джуфре ‘Nobody’s Girl’ след смъртта ѝ
-
развлечения2 месеца ago
Излезе мемоарът на Вирджиния Дюфре „Nobody’s Girl“ след смъртта ѝ
-
образование3 месеца ago
Руски ученици спечелиха медали на Международната олимпиада по математика
-
развлечения2 месеца ago
Излиза мемоарът на Вирджиния Джиуфре ‘Nobody’s Girl’ след смъртта ѝ
-
развлечения2 месеца ago
Мемоарите на Вирджиния Джафре „Nobody’s Girl“ излизат след смъртта ѝ
-
развлечения2 месеца ago
Мемоарът на Вирджиния Дюфре „Nobody’s Girl“ излиза след смъртта ѝ
-
туризъм2 месеца ago
Валѐта – най-красивото пристанище за круизи в света
-
свят3 месеца ago
Смъртен инцидент на летището в Бергамо: Мъж погълнат от двигател на самолет
-
топ новини3 месеца ago
Питбул атакува семейство и куче в село Кошарица