#AI_RedTeaming

2025-02-05

DeepSeek vs Mixtral: что безопаснее использовать для корпоративного чат-бота?

Выпуск языковой модели DeepSeek R1 наделал много шума в начале этого года. Сначала в AI-сообществе с восхищением обсуждали, как китайцам удалось получить качество генерации текста на уровне передовых западных моделей при меньших затратах на обучение. Затем восторг сменился жёсткой критикой о политической предвзятости, копировании моделей OpenAI и доступности истории запросов всем желающим. В этой статье я решил проверить безопасность использования DeepSeek в чат-боте для поддержки студентов в сравнении с открытой моделью Mixtral. Кто победил?

habr.com/ru/companies/raft/art

#LLM #mixtral #deepseek #RAG #AI_RedTeaming #AI_Security

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst