технологии
Изследване: AI чатботове не отговарят адекватно на въпроси за самоубийство

Изследване на RAND Corporation разкрива, че водещите AI чатботове, включително ChatGPT, не предоставят консистентни отговори на запитвания, свързани с темата за самоубийството. Според проучването, популярните чатботове на OpenAI, Anthropic и Google имат задействани механизми за безопасност, но потребителите могат да заобиколят тези защити, задавайки въпроси с умерен риск.
Въпреки че ChatGPT и Claude на Anthropic дават адекватни отговори на много нискорискови запитвания, свързани със самоубийствата, когато става въпрос за въпроси с умерен риск, резултатите са по-малко последователни. Например, запитвания за насоки за хора с suicidal thoughts не получават винаги адекватни отговори. Изследването, публикувано в списанието Psychiatric Services, подчертава необходимостта от допълнителна настройка на тези модели, за да се гарантира, че отговорите им съответстват на експертните насоки.
Разрив в отговорите на чатботовете
Според Ryan McBain, водещ автор на изследването, „чатботовете са синхронизирани с експертните оценки за много ниски и много високи рискови въпроси, но остава значителна вариабилност в отговорите на въпросите с междинни нива.“ Изследователите съставили списък от 30 въпроса, свързани с темата за самоубийството, и поискали от експерти да оценят риска на всеки от тях.
Всеки от тези въпроси бил тестван с ChatGPT, Claude и Google Gemini 100 пъти, което довело до анализ на 9 000 отговора. Резултатите показват, че Claude е по-склонен да предостави директни отговори в сравнение с ChatGPT, докато Gemini рядко отговаря пряко на въпроси, свързани със самоубийството, независимо от нивото на риск.
Необходимост от по-добри механизми за безопасност
В отговор на проучването, говорител на OpenAI заяви, че ChatGPT е обучен да насърчава хората, които изразяват мисли за самоубийство или самонараняване, да се свържат с психичноздравни специалисти и предлага линкове към ресурси, като кризисни горещи линии. Те добавиха, че компанията разработва автоматизирани инструменти за по-ефективно откриване на психически или емоционален стрес.
Изследването подчертава необходимостта от допълнителна прецизност, за да се гарантира, че чатботовете предоставят безопасна и ефективна информация за психичното здраве, особено в ситуации с висок риск, свързани с suicidal ideation. Съществуването на пропуски в предоставянето на информация може да доведе до трагични последици и изисква сериозно внимание от страна на разработчиците на AI технологии.
-
топ новини1 месец ago
Нови избори за директор на Българската национална телевизия
-
свят2 месеца ago
Смъртен инцидент на летището в Бергамо: Мъж погълнат от двигател на самолет
-
топ новини4 седмици ago
Зелевски: Операциите ни продължават, Русия ще получи отговор
-
бизнес1 месец ago
Как малките и средни предприятия в България променят дигитализацията
-
образование1 месец ago
Kruu създава партньорства за иновации в образованието
-
бизнес1 месец ago
Пазарът на имоти в София: Продажбите надминават наемите
-
топ новини2 месеца ago
Тръмп обмисля нова военна помощ за Украйна
-
топ новини1 месец ago
Нови мирни преговори между Русия и Украйна насрочени за сряда
-
туризъм4 седмици ago
Русия възобновява редовни полети до Северна Корея след десетилетия
-
образование1 месец ago
Руски ученици спечелиха медали на Международната олимпиада по математика
-
свят2 месеца ago
Премиерът на Северна Македония обвини България в нарушаване на идентичността
-
свят1 месец ago
В Украйна парламентът приема законопроект, който заплашва независимостта на антикорупционните агенции