Google выпустила EmbeddingGemma — компактную нейросеть для смартфонов на 308 млн параметров

Google выпустила революционную компактную нейросеть EmbeddingGemma с открытым кодом, которая способна работать прямо на мобильных устройствах без подключения к интернету. Модель содержит 308 миллионов параметров, но при этом требует менее 200 МБ оперативной памяти и обрабатывает текст с минимальной задержкой в 15 миллисекунд.

Google выпустила EmbeddingGemma — компактную нейросеть для смартфонов на 308 млн параметров

В тестах MTEB она продемонстрировала лучшие результаты среди всех открытых моделей до 500 миллионов параметров. EmbeddingGemma поддерживает более 100 языков, включая русский, и может работать с контекстом до 2048 токенов. Это первая модель в семействе Gemma, ориентированная не на генерацию текста, а на его понимание и поиск информации. Нейросеть уже доступна для коммерческого использования и интеграции с популярными инструментами разработки.

EmbeddingGemma представляет собой специализированную модель для создания текстовых эмбеддингов, которая кардинально отличается от предыдущих генеративных версий Gemma. Ключевая особенность новинки заключается в возможности автономной работы на смартфонах и планшетах благодаря компактному размеру и оптимизированной архитектуре.

Модель использует инновационную схему репрезентации MRL, позволяющую гибко настраивать размер эмбеддингов от 128 до 768 измерений в зависимости от требований конкретной задачи.

Практическое применение EmbeddingGemma охватывает широкий спектр задач искусственного интеллекта. Модель идеально подходит для создания локальных RAG-систем, которые могут работать без постоянного подключения к серверам. Разработчики мобильных приложений получили мощный инструмент для реализации семантического поиска, автоматической категоризации контента и кластеризации данных прямо на устройствах пользователей.

Техническая совместимость EmbeddingGemma впечатляет своей универсальностью. Модель интегрируется с ведущими фреймворками и платформами, включая sentence-transformers, llama.cpp, MLX, LiteLLM, LangChain, LlamaIndex, Weaviate, Ollama и Cloudflare. Такая широкая поддержка существенно упрощает внедрение нейросети в существующие проекты и позволяет разработчикам быстро адаптировать её под специфические требования.

Многоязычная поддержка модели открывает новые возможности для создания глобальных приложений. EmbeddingGemma обучена на более чем 100 языках и демонстрирует стабильное качество работы с текстами различной сложности. Способность обрабатывать контекст до 2048 токенов делает её эффективной для анализа объёмных документов, длинных пользовательских запросов и сложных текстовых структур.

Доступность модели через ведущие платформы машинного обучения значительно облегчает её внедрение. Google предоставила EmbeddingGemma через Hugging Face, Kaggle и Vertex AI, сопроводив релиз подробной документацией и практическими примерами интеграции. Коммерческая лицензия позволяет использовать модель в продакшн-проектах без ограничений, что особенно важно для корпоративных разработчиков.