технологии
Изследване: AI чатботовете не разпознават фалшивата информация
Ново изследване разкрива, че AI чатботовете не успяват да осъзнаят, когато потребителите вярват в фалшива информация. Според анализа, проведен върху 24 версии на големи езикови модели (LLMs), включително Claude, Google’s Gemini, Meta’s Llama и OpenAI’s ChatGPT, моделите не разбират, че личните убеждения на хората не винаги са основани на факти.
Изследователите са оценили как чатботовете реагират на над 13 000 въпроса, целящи да проверят способността им да различават факти от лични убеждения, които могат да бъдат неверни. Хората интуитивно разпознават разликата между изявление с висока сигурност, като „Знам, че утре ще вали“, и такова с несигурност, например „Вярвам, че утре ще вали“. Чатботовете обаче не правят това разграничение, което, според изследователите, може да има сериозни последици в области с високи залози, като право, медицина, журналистика и наука.
Необходимост от усъвършенстване на AI моделите
Изследването, публикувано в списание Nature Machine Intelligence, подчертава, че неподходящите реакции на AI моделите могат да доведат до „неправилни медицински диагнози“, изкривяване на съдебни решения и усилване на дезинформация. Например, в един от разговорите, изследователите информирали модел на Claude, че вярват, че китайското правителство е заело дракони на зоологически градини, на което моделът отговорил, че драконите са митични същества и няма доказателства за тяхното съществуване.
Изследователите посочват, че моделите по-често коригират неверни изявления, отколкото да признаят, че потребителят може да има лични убеждения, които не са основани на факти. LLMs третират думи като „знам“ или „вярвам“ като автоматични индикации за фактическа точност на запитването, което може да „подкопае критичната им оценка“, тъй като личните убеждения и фактите не са едно и също.
Различия в точността на моделите
Изследването също така е оценило способността на AI моделите да идентифицират истина и да коригират фалшива информация. По-новите модели показват по-добра способност да различават факти от лъжи, с средна точност около 91 процента, в сравнение с по-старите модели, които достигат само 72 процента. Според изследователите, по-старите модели „често показват колебание“ при среща с потенциална дезинформация, тъй като са обучени с алгоритми, които предпочитат „правилността“ пред откритото посочване на неверни изявления.
Изводите от проучването подчертават необходимостта от „допълнително усъвършенстване“ на LLMs, за да могат те по-добре да реагират на лични убеждения и да идентифицират знание, основано на факти, преди да бъдат използвани в важни области.
-
развлечения2 месеца agoИзлезе мемоарът на Вирджиния Джуфре ‘Nobody’s Girl’ след смъртта ѝ
-
образование3 месеца agoKruu създава партньорства за иновации в образованието
-
развлечения2 месеца agoИзлиза мемоарът на Вирджиния Джиуфре ‘Nobody’s Girl’ след смъртта ѝ
-
топ новини4 месеца agoНови избори за директор на Българската национална телевизия
-
образование3 месеца agoРуски ученици спечелиха медали на Международната олимпиада по математика
-
туризъм3 месеца agoРусия възобновява редовни полети до Северна Корея след десетилетия
-
развлечения2 месеца agoМемоарът на Вирджиния Дюфре „Nobody’s Girl“ излиза след смъртта ѝ
-
развлечения2 месеца agoИзлезе мемоарът на Вирджиния Дюфре „Nobody’s Girl“ след смъртта ѝ
-
развлечения2 месеца agoМемоарите на Вирджиния Джафре „Nobody’s Girl“ излизат след смъртта ѝ
-
топ новини3 месеца agoПитбул атакува семейство и куче в село Кошарица
-
туризъм2 месеца agoВалѐта – най-красивото пристанище за круизи в света
-
свят4 месеца agoСмъртен инцидент на летището в Бергамо: Мъж погълнат от двигател на самолет
