[Docker][DevOps][AI]
28 июля 2025 г.

Docker Compose добавляет поддержку LLM ‘models’ и облачную разгрузку для агентских приложений

Конфигурация LLM models в Compose

Docker Compose 2.38.0 добавляет новый верхний уровень models, позволяя разработчикам определять большие языковые модели непосредственно в файле Compose. Теперь сервисы могут указывать настройки модели — такие как имя модели, версия и требования к ресурсам — наряду с контейнерами, упрощая локальную разработку и развертывание агентских приложений без отдельных инструментов оркестрации ML (docs.docker.com).

Унифицированные рабочие процессы AI-агентов

Разработчики могут объявлять агентов и инструменты, совместимые с Протоколом Контекста Модели (MCP), в docker-compose.yml, а затем запускать целые агентские стеки с помощью одной команды docker compose up. Compose интегрируется из коробки с популярными AI-фреймворками — LangGraph, Embabel, Vercel AI SDK, Spring AI, CrewAI, Google’s ADK и Agno — что делает прототипирование и итерацию интеллектуальных рабочих процессов простыми с использованием знакомых определений YAML (sdtimes.com).

Облачная разгрузка Docker для выполнения на облачном масштабе

Помимо локальной поддержки, Docker Offload позволяет командам разгружать ресурсоемкие AI-нагрузки в облачные среды (например, Google Cloud Run, Azure Container Apps) с помощью того же CLI Compose. Эта гибридная модель обеспечивает бесшовное масштабирование: разработчики создают и тестируют локально, а затем используют управляемые облачные ресурсы для производственного вывода, не изменяя определения Compose (sdtimes.com).

Источник: Docker Compose получает новые функции для создания и запуска агентов - SD Times

Читать далее

Присоединяйтесь к нашему сообществу