технологии
Ударни данни за безопасността на AI инструменти: Лесно заобикаляне на мерките
Съгласно ново проучване, безопасността на инструментите за изкуствен интелект (AI) може да бъде заобиколена за по-малко от минута. Изследването на компанията Cisco установи, че AI системите „забравят“ своите мерки за безопасност, когато потребителят води дълги разговори. Това повишава вероятността инструментите да предоставят опасна или неподходяща информация.
В хода на своето изследване, Cisco анализира големите езикови модели (LLMs), стоящи зад популярни AI чатботове като тези на OpenAI, Mistral, Meta, Google, Alibaba, Deepseek и Microsoft. Проучването обхваща 499 разговора, при които се използва техника, наречена „мулти-обратни атаки“. Чрез нея злонамерени потребители задават множество въпроси на AI инструментите, за да заобиколят мерките за безопасност.
Резултати от проучването
Изследователите установили, че в 64 процента от случаите, когато задавали множество въпроси, успявали да получат злонамерена информация. В контекста на разговора, успехът при задаване на само един въпрос е едва 13 процента. Резултатите варират в зависимост от модела, като например Google’s Gemma показва 26 процента успех, докато моделът на Mistral достига 93 процента.
Тези данни подсказват, че мулти-обратните атаки могат да позволят разпространението на опасно съдържание или дори да дадат на хакери „неразрешен достъп“ до чувствителна информация на компании. Според Cisco, AI системите не успяват да запомнят и прилагат своите правила за безопасност по време на по-дълги разговори, което дава възможност на атакуващите да усъвършенстват запитванията си и да избегнат мерките за сигурност.
Отговорност и безопасност
Моделите на Mistral, както и тези на Meta, Google, OpenAI и Microsoft, работят с отворени LLMs, което позволява на обществеността да получи достъп до конкретните параметри за безопасност, на които са обучени моделите. Cisco отбелязва, че тези модели често притежават „по-основни вградени функции за безопасност“, което прехвърля отговорността за безопасността на потребителя, който използва информация с отворен код, за да персонализира своя модел.
Най-важното е, че компаниите, произвеждащи AI, вече са подложени на критика за недостатъчните мерки за безопасност, които улесняват адаптацията на техните системи за криминални цели. Например, през август 2023 г. американската компания Anthropic съобщи, че престъпници са използвали нейния модел Claude за извършване на мащабни кражби и изнудване на лични данни, изисквайки откуп от жертви, който понякога надхвърля 500 000 долара (около 433 000 евро).
Тези констатации подчертават необходимостта от по-сериозен подход към безопасността на AI инструментите, особено в контекста на нарастващите заплахи, свързани с киберпрестъпността.
-
образование3 месеца agoKruu създава партньорства за иновации в образованието
-
развлечения2 месеца agoИзлиза мемоарът на Вирджиния Джиуфре ‘Nobody’s Girl’ след смъртта ѝ
-
развлечения2 месеца agoИзлезе мемоарът на Вирджиния Джуфре ‘Nobody’s Girl’ след смъртта ѝ
-
топ новини4 месеца agoНови избори за директор на Българската национална телевизия
-
туризъм3 месеца agoРусия възобновява редовни полети до Северна Корея след десетилетия
-
образование3 месеца agoРуски ученици спечелиха медали на Международната олимпиада по математика
-
развлечения2 месеца agoМемоарът на Вирджиния Дюфре „Nobody’s Girl“ излиза след смъртта ѝ
-
развлечения2 месеца agoМемоарите на Вирджиния Джафре „Nobody’s Girl“ излизат след смъртта ѝ
-
развлечения2 месеца agoИзлезе мемоарът на Вирджиния Дюфре „Nobody’s Girl“ след смъртта ѝ
-
топ новини3 месеца agoПитбул атакува семейство и куче в село Кошарица
-
туризъм2 месеца agoВалѐта – най-красивото пристанище за круизи в света
-
свят4 месеца agoСмъртен инцидент на летището в Бергамо: Мъж погълнат от двигател на самолет
