17 марта 2026
Привет! Мы SHEVEREV, аккредитованная IT-компания, занимающаяся разработкой веб-сервисов и мобильных приложений различной сложности.
Мы создаем цифровые продукты, которые меняют мир. От платформ для онлайн-обучения до удобных сервисов для путешествий. Мы работаем с лидерами российского и зарубежного рынков, решая самые сложные задачи с помощью передовых технологий.
На данный момент мы ищем Data-аналитик (DWH) на аутстаффинг-направление.
Обязанности:
Глубокий анализ источников в MSSQL . Вы будете разбираться в "археологии" данных: выявлять бизнес-сущности, скрытые зависимости и регламентные операции, чтобы перенести это в новую систему без потерь.
Проектирование устойчивых и масштабируемых моделей данных с использованием методологии Data Vault 2.0 . Обеспечение прозрачности, полной истории изменений (SCD) и возможности восстановления данных на любой момент времени.
Создание и поддержка трансформационных слоев в dbt (сырой слой, слой данных, витрины). Применение знаний нормализации/денормализации, схем звезда и снежинка для баланса между аналитикой и производительностью.
Проектирование сложных DAG в Apache Airflow . Управление зависимостями между загрузкой из Kafka , инкрементальной загрузкой из Postgres/Clickhouse и запуском dbt-моделей. Настройка мониторинга и алертов.
Разработка на Python пайплайнов для выгрузки данных из MSSQL и MongoDB в объектное хранилище ( S3 ) и аналитическую БД ( Clickhouse ).
Ведение технической документации, версионирование моделей (Git), внедрение практик DataOps для автоматического тестирования данных и безопасного деплоя.
Опыт работы с данными: от 6 лет (Senior) / от 4 лет (Middle+) .
Глубокое понимание реляционных БД (Postgres, MSSQL). Написание сложных запросов с оконными функциями, CTE это ваша повседневность.
Знание нормальных форм, Data Vault, схем звезда/снежинка. Умение строить модели под аналитические задачи.
dbt: Коммерческий опыт разработки и шаблонизации в dbt (обязательно).
Airflow: Опыт настройки сложных DAG, мониторинга, управления зависимостями.
Python: Уверенный уровень для написания ETL-кода.
Стек: S3, Kafka, MSSQL, Postgres, MongoDB, Clickhouse.
DataOps: Понимание CI/CD, Git, тестирования данных.
Будет плюсом:
Опыт в финтехе / инвестиционных платформах.
Знание Docker.