13 февраля 2026
Мы формируем в компании AI Platform Team которая отвечает за всю инфраструктуру AI: от выбора моделей до их продуктовой эксплуатации.
Наша задача дать продуктам объективную и воспроизводимую систему оценки LLM. Чтобы каждое решение смена модели, обновление промпта, настройка RAG принималось на основе метрик, а не интуиции.
Нам важно, чтобы вы имели практический опыт построения систем оценки качества LLM/ML-моделей. Необходимо строить бенчмарки, управлять датасетами, внедрять human-in-the-loop процессы, настраивать observability-стек (Langfuse) и встраивать eval-пайплайны в CI/CD.
Чтобы команды разработки видели чёткие цифры: точность, латентность, стоимость, регрессии.
ЧЕМ ПРЕДСТОИТ ЗАНИМАТЬСЯ:
Проектирование и развитие системы оценки качества LLM и AI-функций (чат, генерация, RAG, агенты) для продуктов Битрикс24.
Построение и поддержка бенчмарков: разработка сценариев, формирование и версионирование датасетов, подбор метрик для сравнения моделей и конфигураций.
ЧТО МЫ ОЖИДАЕМ ОТ КАНДИДАТА:
ТАКЖЕ ДЛЯ НАС ВАЖНО:
БУДЕТ ПЛЮСОМ:
ЧТО МЫ ПРЕДЛАГАЕМ: