Вакансия: AI / LLM Engineer
Описание вакансии
AI / LLM Engineer
О проекте
Ищем AI / LLM Engineer в команду, которая развивает AI-продукты и внедряет большие языковые модели в production-сервисы. Основной фокус создание надёжных решений на базе LLM: от прототипирования до масштабируемых систем с контролем качества, latency и стоимости. Важно уметь превращать LLM-функциональность в стабильные продуктовые сервисы и выстраивать эффективные процессы работы с AI-инструментами (human + AI).
Чем предстоит заниматься
Проектировать и развивать LLM-based сервисы (RAG, AI-ассистенты, генеративные фичи);
Интегрировать LLM API и open-source модели в backend-системы;
Разрабатывать RAG-пайплайны: ingestion, embeddings, retrieval, reranking;
Работать с vector DB (индексация, поиск, оптимизация);
Развивать prompt management и evaluation (качество ответов);
Оптимизировать latency и стоимость inference;
Обеспечивать надёжность и безопасность (guardrails, fallback-стратегии);
Настраивать мониторинг, логирование и поддержку сервисов;
Взаимодействовать с продуктовой и ML-командой.
Ключевое стратегическое требование
Native-пользователь AI-инструментов обязательно.
Мы ищем специалиста, который ежедневно использует ИИ-инструменты в инженерной работе: для исследования решений, подготовки черновиков документации, анализа логов и инцидентов, генерации технических артефактов, автоматизации рутинных задач и ускорения операционной работы. Важно уметь:
- писать и поддерживать промпты / шаблоны ;
- вести библиотеку полезных артефактов и рабочих паттернов;
- выстраивать hybrid-workflow (человек + ИИ) с обязательным review результата;
- понимать риски LLM: галлюцинации, утечки, ограничения контекста и закладывать проверки и контроли качества в инженерные процессы.
Наши ожидания
Обязательно:
- Коммерческий опыт разработки от 4 лет в одном из направлений: ML / AI;
- Сильный Python : уверенная разработка сервисов, интеграций, пайплайнов или backend-логики;
- Практический опыт работы с LLM : через API и/или open-source модели;
- Опыт внедрения AI / LLM-решений в production , а не только в формате PoC, pet-project или исследовательских прототипов;
- Понимание и практический опыт построения RAG -систем: ingestion, chunking, embeddings, retrieval;
- Опыт работы с vector DB и/или инструментами векторного поиска;
- Понимание prompt engineering и умение проектировать устойчивые сценарии взаимодействия с моделью;
- Базовое понимание ML / LLM-механики : embeddings, inference, ограничения LLM, причины галлюцинаций;
- Опыт интеграции LLM-функциональности в backend / продуктовые сервисы;
- Понимание ключевых trade-offs при разработке AI-сервисов : latency / cost / quality;
- Опыт оценки качества AI-ответов : ручная валидация, метрики, eval-подходы, пользовательский или продуктовый фидбек;
- Понимание способов повышения надежности AI-систем : guardrails, fallback-стратегии, grounding, structured output;
- Опыт разработки: Git, code review, тестирование, логирование, сопровождение сервисов.
Будет плюсом:
- Опыт работы с open-source LLM (LLaMA, Mistral и др.);
- Опыт fine-tuning или адаптации моделей под прикладные задачи;
- Опыт с NLP / ML за пределами простой интеграции LLM API;
- Опыт построения более сложных RAG-сценариев: hybrid search, reranking, multi-step retrieval;
- Опыт работы с фреймворками LangChain, LlamaIndex и аналогами;
- Опыт работы с инструментами evaluation / observability для LLM-систем (например, LangSmith и др.);
- Опыт оптимизации AI-сервисов по стоимости, скорости ответа и качеству результата;
- Опыт работы с Docker / Kubernetes;
- Опыт работы с AWS / GCP / Azure;
- Опыт проектирования отказоустойчивых и масштабируемых AI-сервисов;
- Понимание вопросов безопасности AI-систем, включая защиту данных, ограничения ответов и базовые риски prompt injection.
Этапы:
Скрининг (30 минут);
Техническое интервью (1 час 30 минут).
Условия:
Работу в аккредитованной IT-компании с сильной инженерной культурой;
Возможность не просто поддерживать инфраструктуру, а проектировать и развивать платформенные решения;
Конкурентный уровень дохода, обсуждаемый индивидуально по вашему опыту и экспертизе;
Гибкий график и полностью удалённый формат работы;
Высокий уровень автономности, минимум бюрократии и реальное влияние на архитектурные решения;
Сложные и интересные задачи на стыке AI, backend и ML.
Пожалуйста, прикрепите к отклику скрининг по требованиям: отметьте плюсы напротив навыков, которыми вы владеете, и минусы напротив тех, которых у вас нет. Это поможет улучшить и ускорить рассмотрение отклика.
Например:
- Коммерческий опыт разработки от 4 лет в одном из направлений: backend / ML / AI; +
- Сильный Python: уверенная разработка сервисов, интеграций, пайплайнов или backend-логики; +
- Практический опыт работы с LLM: через API и/или open-source модели; +