Разработчик Python/Pyspark, Платформа АБ-тестов, Стенды метрик (удаленная работа)

5 июля 2024

Уровень зарплаты:
з.п. не указана
Требуемый опыт работы:
Не указан

Вакансия: Разработчик Python/Pyspark, Платформа АБ-тестов, Стенды метрик

Описание вакансии


Каждый день продуктовые команды в Ozon проводят десятки АБ-экспериментов. После завершения этих экспериментов необходимо быстро и точно оценить влияние на ключевые показатели: количество заказов, прибыль, конверсии и многие другие.

Мы создали платформу, которая помогает продакт-менеджерам и аналитикам легко проводить AB тесты и принимать обоснованные решения на основе данных. Десятки миллионов покупателей пользуются сайтом ежедневно, создавая огромный поток событий, платформа отвечает за вычисление более 700 метрик и различных статистических тестов для них, создание удобной платформы для заведения и предварительного анализа метрик, инфраструктуры для аудита метрик (АА-тесты), разработки решений для постанализа экспериментов, создание инструментов для корректного заведения АБ-тестов (MDE, Sequential testing), алертинга по проблемным данным и возможностью ранней остановки, KPI-монитора с интеграцией АБ-экспериментов.

Мы ищем в команду Python разработчика с опытом работы в Big Data

Наш стек: Airflow - для управления графами вычислений, обработка данных происходит в Apache Spark. Данные для расчётов берутся из HDFS, куда они агрегируются из разных источников: ClickHouse, Kafka, PostgreSQL, Vertica. Рассчитанные метрики сохраняются в БД и отдаются наружу с помощью сервисов на Go

Что вам предстоит:

  • Разработка автоматизированной платформы расчета метрик и статистических тестов для всего Ozon.
  • Создание и поддержка различных платформенных инструментов для улучшения всего процесса проведения АБ-тестов.

  • Поиск путей оптимизации текущих решений для поддержания постоянного и стабильного масштабирования системы.

  • Развитие существующей архитектуры по интеграции новых источников данных от внешних команд.

Что от вас ожидаем:

  • Опыт разработки на Python от 2-х лет.
  • Опыт работы с hadoop/spark/pyspark, либо YT/YQL.
  • Понимание принципов обработки больших данных.
  • Знакомство с логическими моделями хранения данных, понимание зачем они нужны.

Будет плюсом:

  • Базовые знания SQL.
  • Понимание теории вероятностей и статистики, базовых алгоритмов.
  • Желание разбираться в архитектуре приложений/систем, наши расчёты должны работать максимально точно, надёжно и быстро7.

Мы предлагаем:

  • Динамично и быстроразвивающийся бизнес, ресурсы, возможность сделать вместе лучший продукт на рынке e-commerce.
  • Свободу действий в принятии решений.
  • Достойный уровень заработной платы.
  • Профессиональную команду, которой мы гордимся.
  • Возможность развиваться вместе с нашим бизнесом.