INSAIT: DeepSeek моделите се провалят на технически тестове за съответствие с европейските правила за сигурност и надеждност

Двете организации, заедно с швейцарския университет ETH Zurich създадоха COMPL-AI - първата рамка в ЕС, която превръща регулаторните нормативни изисквания в конкретни технически проверки

INSAIT: DeepSeek моделите се провалят на технически тестове за съответствие с европейските правила за сигурност и надеждност
INSAIT: DeepSeek моделите се провалят на технически тестове за съответствие с европейските правила за сигурност и надеждност Източник: Пресцентър на МОН

 Сериозни пропуски в съответствието на дестилираните модели на DeepSeek съгласно Европейския акт за изкуствения интелект (EU AI Act). Това устанява изследване на Института за изкуствен интелект и компютърни технологии (INSAIT) към Софийския университет проведено съвместно с водещата технологична компания LatticeFlow. Дестилацията на големи модели кaто DeepSeek в по-малки е стандартен процес който ги прави много по-практични и по-ефикасни за бизнеса и организациите.


Припомняме, че двете организации, заедно с швейцарския университет ETH Zurich създадоха COMPL-AI - първата рамка в ЕС, която превръща регулаторните нормативни изисквания в конкретни технически проверки. Чрез нея се тестват някои от най-популярните модели за изкуствен интелект, за да се оцени съответствието им съгласно европейските правила (OpenAI, Meta, Google, Anthropic, Mistral AI и Alibaba).


Дестилираните модели на DeepSeek постигат добри резултати в ограничаването на токсичното съдържание, но изостават в ключови регулаторни аспекти като киберсигурност и управление на предразсъдъците. Това повдига въпроси относно тяхната готовност за внедряване в корпоративна среда. 


Оценката, проведена съвместно с LatticeFlow AI, обхваща два от най-популярните дестилирани модела на DeepSeek: DeepSeek R1 8B (базиран на Meta’s Llama 3.1 8B) и DeepSeek R1 14B (базиран на Alibaba’s Qwen 2.5 14B) - двата с близо 400 000 изтегляния. Тя показва и как DeepSeek моделите се сравняват с тези на OpenAI, Meta, Google, Anthropic, Mistral AI, Alibaba и др. 


Крайните резултати показват, че тези DeepSeek модели заемат последните места в класацията в сравнение с другите тествани модели по отношение на киберсигурност. Те показват повишени рискове от "отвличане на цели" (goal hijacking) и "изтичане на промптове” (prompt leakage) в сравнение с базовите си версии. Това може да е проблем не само защото увеличава вероятността AI моделът да бъде подведен да изпълнява непредвидени действия (отвличане на цели), но и защото увеличава риска от разкриване на поверителна информация (изтичане на промптове). В резултат, тези слабости намаляват надеждността на моделите и правят използването им в сигурни бизнес среди значително по-рисковано.


DeepSeek моделите са и под средното ниво в класацията по отношение на пристрастност и показват значително по-големи предразсъдъци от своите базови модели. Оценката за пристрастност (bias) при AI моделите измерва доколко техните отговори са обективни, неутрални и справедливи спрямо различни социални, културни, етнически, полови и политически групи. В случая с DeepSeek моделите, резултатите показват, че те са под средното ниво в класацията или с други думи - моделите проявяват по-силни предразсъдъци в сравнение с други AI модели, тествани от COMPL-AI.

 

Нещо повече, те показват значително по-големи предразсъдъци от своите базови модели – тоест в процеса на модифициране DeepSeek моделите са се влошили в този аспект в сравнение с оригиналните модели Llama 3.1 (Meta) и Qwen 2.5 (Alibaba). Това може да е проблем не само защото ще генерират небалансирани отговори по чувствителни теми, но и да насърчават дезинформация по различни теми. 


Въпреки останалите пропуски, моделите на DeepSeek показват добри резултати в управлението на токсичността, надминавайки дори своите базови версии. Оценката за токсичност в контекста на AI модели се отнася до способността на един езиков модел да идентифицира, минимизира или предотврати генерирането на вредно, обидно или неприемливо съдържание. Това включва съдържание, което може да бъде расистко, сексистко, дискриминационно, заплашително или по друг начин вредно за потребителите.

 

В случая с оценката на DeepSeek моделите чрез COMPL-AI, беше установено, че те се справят добре с ограничаването на токсично съдържание, дори по-добре от своите базови модели (Meta’s Llama 3.1 и Alibaba’s Qwen 2.5). Това означава, че те по-рядко генерират неподходящ или обиден текст, което е важен аспект за съответствието им с регулациите на EU AI Act.
Пълните резултати от оценката на INSAIT и DeepSeek са достъпни на https://compl-ai.org)

Още от "Бизнес и финанси"

Данъчното облагане на технологичните гиганти и свръхбогатите е в застой при Тръмп

Близо 140 държави сключиха сделка през 2021 г. за данъчно облагане на мултинационалните компании – споразумение, договорено под егидата на ОИСР, което още не е приложено

Прочетете повече прочетете повече

БАБХ: Твърденията, че вносното агнешко месо, може да бъде "пробутано" като българско, са абсолютно неверни

Подобни предположения подвеждат българските потребители и уронват авторитета на Агенцията като отговорен държавен орган, заявяват още от БАБХ

Прочетете повече прочетете повече

Томислав Дончев: Можем да получим второ плащане по НПВУ до края на годината

Дончев заяви, че кабинетът е предложил ангажиментът на страната ни за либерализация на пазара на дребно за битовите потребители да отпадне и да бъде въведен на по-късен етап

Прочетете повече прочетете повече

Евростат: Яйцата в ЕС поскъпват, в България поевтиняват

Сред страните от ЕС най-високо увеличение на годишната инфлация при яйцата е регистрирано в Чехия (скок на цената с 46% през март 2025 г. спрямо март 2024 г.), следвана от Словакия (с 29,8%) и Унгария (с 26,1%)

Прочетете повече прочетете повече

Теменужка Петкова: България е готова за еврозоната

Като приоритети за правителството тя посочи и членството ни в Организация за икономическо сътрудничество и развитие, както и усвояването на парите по Плана за възстановяване и борбата със сивата икономика

Прочетете повече прочетете повече

Последни новини

Най-четени