Институтът INSAIT: DeepSeek ограничава токсичното съдържание, но изостава в управлението на предразсъдъците

Изследване на Института за изкуствен интелект и компютърни технологии (INSAIT) към Софийския университет установи, че китайската програма за изкуствен интелект DeepSeek се проваля на техническите тестове за съответствие с европейските правила за сигурност и надеждност.

Как DeepSeek се учи от "западните" чатботове и може ли да му се вярва
Програмата постига добри резултати в ограничаването на токсичното съдържание (вредно, обидно или неприемливо съдържание), но изостава в киберсигурността и управлението на предразсъдъците. Това повдига въпроси за готовността за внедряване в корпоративна среда, уточняват от института.
DeepSeek моделите са и под средното ниво за пристрастност и показват значително по-големи предразсъдъци. Това може да е проблем не само защото ще генерират небалансирани отговори по чувствителни теми, но и да насърчават дезинформация по различни теми, пише още в анализа.
