Китайский разработчик ИИ DeepSeek представил свою экспериментальную модель V3.2-Exp 29 сентября 2025 года, внедрив инновационную технологию разреженного внимания, которая значительно снижает вычислительные издержки при сохранении уровня производительности, сопоставимого с ведущими системами искусственного интеллекта.
Модель V3.2-Exp дебютирует с технологией DeepSeek Sparse Attention (DSA) — механизмом, который, по заявлению компании на платформе для разработчиков Hugging Face, впервые обеспечивает «тонкозернистое разреженное внимание». Эта технология позволяет модели обрабатывать длинные текстовые последовательности до 64 раз быстрее традиционных методов, при этом снижая использование памяти на 30–40% и повышая эффективность обучения примерно на 50%.
Источник: t.me