технологии
Изследване: AI чатботовете не разпознават фалшивата информация
Ново изследване разкрива, че AI чатботовете не успяват да осъзнаят, когато потребителите вярват в фалшива информация. Според анализа, проведен върху 24 версии на големи езикови модели (LLMs), включително Claude, Google’s Gemini, Meta’s Llama и OpenAI’s ChatGPT, моделите не разбират, че личните убеждения на хората не винаги са основани на факти.
Изследователите са оценили как чатботовете реагират на над 13 000 въпроса, целящи да проверят способността им да различават факти от лични убеждения, които могат да бъдат неверни. Хората интуитивно разпознават разликата между изявление с висока сигурност, като „Знам, че утре ще вали“, и такова с несигурност, например „Вярвам, че утре ще вали“. Чатботовете обаче не правят това разграничение, което, според изследователите, може да има сериозни последици в области с високи залози, като право, медицина, журналистика и наука.
Необходимост от усъвършенстване на AI моделите
Изследването, публикувано в списание Nature Machine Intelligence, подчертава, че неподходящите реакции на AI моделите могат да доведат до „неправилни медицински диагнози“, изкривяване на съдебни решения и усилване на дезинформация. Например, в един от разговорите, изследователите информирали модел на Claude, че вярват, че китайското правителство е заело дракони на зоологически градини, на което моделът отговорил, че драконите са митични същества и няма доказателства за тяхното съществуване.
Изследователите посочват, че моделите по-често коригират неверни изявления, отколкото да признаят, че потребителят може да има лични убеждения, които не са основани на факти. LLMs третират думи като „знам“ или „вярвам“ като автоматични индикации за фактическа точност на запитването, което може да „подкопае критичната им оценка“, тъй като личните убеждения и фактите не са едно и също.
Различия в точността на моделите
Изследването също така е оценило способността на AI моделите да идентифицират истина и да коригират фалшива информация. По-новите модели показват по-добра способност да различават факти от лъжи, с средна точност около 91 процента, в сравнение с по-старите модели, които достигат само 72 процента. Според изследователите, по-старите модели „често показват колебание“ при среща с потенциална дезинформация, тъй като са обучени с алгоритми, които предпочитат „правилността“ пред откритото посочване на неверни изявления.
Изводите от проучването подчертават необходимостта от „допълнително усъвършенстване“ на LLMs, за да могат те по-добре да реагират на лични убеждения и да идентифицират знание, основано на факти, преди да бъдат използвани в важни области.
-
развлечения8 месеца agoМемоарите на Вирджиния Джафре „Nobody’s Girl“ излизат след смъртта ѝ
-
развлечения8 месеца agoИзлезе мемоарът на Вирджиния Дюфре „Nobody’s Girl“ след смъртта ѝ
-
развлечения8 месеца agoИзлиза мемоарът на Вирджиния Джиуфре ‘Nobody’s Girl’ след смъртта ѝ
-
развлечения8 месеца agoМемоарът на Вирджиния Дюфре „Nobody’s Girl“ излиза след смъртта ѝ
-
туризъм8 месеца agoВалѐта – най-красивото пристанище за круизи в света
-
развлечения8 месеца agoИзлезе мемоарът на Вирджиния Джуфре ‘Nobody’s Girl’ след смъртта ѝ
-
наука7 месеца agoБългария на кръстопът: М人口 намаление и висока смъртност
-
развлечения7 месеца agoСемейството на Даян Кийтън благодари на феновете след смъртта ѝ
-
развлечения7 месеца agoДиана Кийтън почина на 79 години, семейството ѝ разкри причината за смъртта
-
топ новини8 месеца agoЖена на Навални твърди, че съпругът ѝ е отровен в затвора
-
технологии7 месеца agoИзследване: Wikipedia оцелява, но изкуственият интелект заплашва бъдещето ѝ
-
спорт8 месеца agoБългария загуби с 0:3 от Грузия, шансовете за Световното в危на
