Задание: Нейронные сети. Техническая консультация: Архитектура Multi-Agent системы (LLM Orchestration & Self-hosted) (Дистанционная работа)
Мне нужна глубокая консультация по проектированию и реализации персонального AI-ассистента со сложной логикой. Система будет работать на моем сервере (локальное ядро), но использовать топовые модели через API.
Основные технические требования к системе, подлежащие обсуждению:
Multi-Agent Debate: Реализация логики «спора» между несколькими моделями одновременно (GPT, Claude, Gemini, Grok) с ролями (Аналитик, Критик, Финализатор).
RAG & Dynamic Context: Механизм динамического подключения/отключения контекста из локальных папок (PDF, Excel), Google Таблиц и парсинга веба в реальном времени.
Vision & Multimodal: Обработка данных с фото (OCR + Vision) для подгрузки в контекст.
Инфраструктура: Развертывание Self-hosted решения (Docker/Python) с безопасным WebUI, доступным с мобильных устройств через HTTPS/авторизацию.
Token Management: Система контроля лимитов и логирования затрат при многоуровневых запросах.
Цель консультации:
Валидация выбранного стека (LangGraph, CrewAI, AutoGen или кастомное решение на Python).
Оценка сложности реализации «памяти проекта» (Vector DB) в связке с мультиагентной средой.
Оценка бюджета на разработку и ежемесячное содержание (API tokens).
Анализ рисков задержек (Latency) при нескольких раундах обсуждения моделей.
Кого я ищу:
Специалиста уровня AI Solution Architect или Lead AI Engineer, имеющего опыт создания агентских систем (не просто чат-ботов). Необходимо понимание, как синхронизировать контекст между моделями разных провайдеров и обеспечивать безопасность локальных данных.
В отклике, пожалуйста, укажите:
Кратко — на каких фреймворках рекомендовано строить такую логику (Multi-agent debate) и почему.
какойц ваш опыт работы в подобных проектах