8 июля 2025
Ozon Банк компания, в которой тесно переплетаются финансы и IT. Мы создаём новые для рынка продукты и сервисы для физических и юридических лиц. Гордимся атмосферой в командах: каждый сотрудник может влиять на процессы и пути к результату.
Сейчас мы ищем middle NLP DS в команду, которая занимается всеми NLP-задачами в компании. Мы создаём RAG для различных бизнес-направлений, чат-бот поддержки, реализуем speech-to-text решения, OCR с использованием LLM, кодогенерацию. А также работаем с любыми другими запросами от бизнеса, связанными с текстовыми данными.
Модели напрямую влияют на доходность компании и определяют итоговую прибыль. Мы развиваем мощности нашего ЦОД для прикладных и исследовательских задач и самостоятельно прорабатываем и запускаем решения в прод.
Наш стек: Vertica, PostgreSQL, Clickhouse, Labelstudio, pytorch + accelerate, tritonserver в k8s, QDrant, Elasticsearch, Langchain
Вам предстоит:
Активно участвовать во всех проектах команды
Решать задачи для чат-бота поддержки
На первом этапе использовать модели для поддержки операторов (суммаризация, парафраз, RAG), затем переходить к полной автоматизации с помощью LLM
Развивать вместе с командой STT- и TTS-направления для обработки звонков
Мы ожидаем:
Умение внятно излагать мысли и представлять результаты своей работы
Уверенный Python, умение разбираться в чужом коде
Понимание основных принципов, алгоритмов и метрик классического ML
Опыт решения бизнес-задач с использованием классических и трансформерных NLP-моделей
Понимание, какая NLP-модель для каких случаев подойдёт лучше
LLM понимание принципов работы, а также ограничений в применении тех или иных моделей
Будет плюсом:
- Навыки prompt engineering-а и использования structured outputs и function calling у моделей
Потенциально будем разворачивать агентские системы, поэтому будет плюсом опыт работы с такими фреймворками например, smolagents
Опыт деплоя трансформерных моделей с использованием какого-либо фреймворка: vllm, sglang
Понимание того, как работает в таких фрейворках обработка запросов и как её можно ускорить
Опыт с tritonserver и tensorrt-LLM