технологии
Ново проучване: Чатботовете не дават надеждни отговори за самоубийства
Според ново проучване, популярните AI чатботове, включително ЧатGPT, не дават последователни отговори на запитвания, свързани с темата за самоубийствата. Изследователите от RAND Corporation призовават за донастройка на чатботовете, за да се гарантира, че техните отговори са в съответствие с експертни насоки по въпросите, свързани с самоубийства.
Технологиите на OpenAI, Антропик и Google разполагат с ефективни механизми за защита срещу високорискови запитвания. Въпреки това, потребителите могат да заобиколят тези ограничения, задавайки въпроси с умерен риск. Проучването, публикувано в списание Психиатрични услуги, установява, че чатботовете отказват да отговорят директно на много високорискови въпроси, които биха могли да насърчат самоубийствени действия.
ЧатGPT и Клод от Антропик дават подходящи отговори на много нискорискови запитвания, като например информация за самоубийствата по региони, в 100% от случаите. Въпреки това, те не са толкова последователни, когато става въпрос за умерени рискови запитвания, например за насоки за хора, които имат самоубийствени мисли.
Необходимост от подобрения в отговорите на чатботовете
Изследването разкрива, че Клод е далеч по-склонен от ЧатGPT да предоставя директни отговори на запитвания, свързани с самоубийства. Гемини, друг чатбот на Google, рядко предоставя директни отговори, независимо от нивото на риск. За разлика от тях, ЧатGPT и Клод отговарят на запитвания, касаещи потенциални методи за саморазрушение, когато не са формулирани като свързани със самоубийства.
Изследването включва 30 въпроса, свързани с темата за самоубийствата, на които експертни клиницисти присвоили оценка на риска. Запитванията били подадени 100 пъти през ЧатGPT, Клод и Гемини, което е довело до 9 000 отговора за анализ. Според Раян МакБейн, водещият автор на изследването, чатботовете дават последователни отговори на много нискорискови и много високорискови въпроси, но остават значителни разлики в отговорите на въпросите с междинен риск.
В отговор на проучването, представител на OpenAI заяви, че ЧатGPT е обучен да насърчава потребителите, които изразяват мисли за самоубийство или саморазрушение, да се свържат с психични здравни специалисти. Компанията работи по разработването на автоматизирани инструменти, които по-ефективно да откриват случаи на психичен или емоционален стрес.
Изследването подчертава необходимостта от допълнителна донастройка на чатботовете, за да осигурят безопасна и ефективна информация за психичното здраве, особено в ситуации с високи рискове, свързани със самоубийствени мисли.
-
развлечения3 месеца agoИзлиза мемоарът на Вирджиния Джиуфре ‘Nobody’s Girl’ след смъртта ѝ
-
развлечения3 месеца agoМемоарът на Вирджиния Дюфре „Nobody’s Girl“ излиза след смъртта ѝ
-
развлечения3 месеца agoИзлезе мемоарът на Вирджиния Джуфре ‘Nobody’s Girl’ след смъртта ѝ
-
развлечения3 месеца agoМемоарите на Вирджиния Джафре „Nobody’s Girl“ излизат след смъртта ѝ
-
развлечения3 месеца agoИзлезе мемоарът на Вирджиния Дюфре „Nobody’s Girl“ след смъртта ѝ
-
туризъм3 месеца agoВалѐта – най-красивото пристанище за круизи в света
-
образование4 месеца agoРуски ученици спечелиха медали на Международната олимпиада по математика
-
образование4 месеца agoKruu създава партньорства за иновации в образованието
-
туризъм4 месеца agoРусия възобновява редовни полети до Северна Корея след десетилетия
-
топ новини4 месеца agoПитбул атакува семейство и куче в село Кошарица
-
топ новини5 месеца agoНови избори за директор на Българската национална телевизия
-
свят5 месеца agoСмъртен инцидент на летището в Бергамо: Мъж погълнат от двигател на самолет
