7 апреля 2026
О проекте
Мы строим платформу для работы с ИИ-агентами: система оценки агентов
(scoring, бенчмарки), API для взаимодействия агентов между собой (A2A)
и сопутствующая инфраструктура. Проект на стыке backend-разработки
и LLM-инженерии.
Что предстоит делать:
Разработка backend-сервисов на Go
Проектирование и реализация системы оценки и бенчмаркинга AI-агентов
Разработка A2A API для взаимодействия агентов между собой
Интеграция с LLM-провайдерами (OpenAI, Anthropic и др.)
Самостоятельное ведение задач от декомпозиции до деплоя
Требования:
Коммерческий опыт разработки на Go от 2 3 лет обязателен
Уверенное знание языка: понимаете архитектуру, а не только
генерируете код с помощью ИИ
Активное использование AI-инструментов в работе (Cursor, Copilot,
Claude) обязательно
Опыт работы с REST / gRPC, базами данных
Автономность: умеете самостоятельно декомпозировать задачи,
принимать решения и доводить до результата
Будет плюсом:
Опыт с LLM eval-фреймворками или бенчмаркингом агентов
Знакомство с MCP / A2A-протоколами
Опыт с Docker, highload или платформенными продуктами
Условия:
Ставка: $20 30/час в зависимости от опыта
Занятость: 100 120 часов в месяц (от 25 часов в неделю)
Полностью удалённая работа, гибкий график
Пересечение по онлайну от 3 часов в день
Договор с ИП или самозанятым
Долгосрочное сотрудничество при взаимном интересе
При отклике напишите коротко: как бы вы подошли к задаче оценки
качества LLM-агента по каким метрикам и как бы их собирали?