Cheelee - это платформа коротких видео с механикой Watch2Earn, которая платит всем пользователям за просмотр ленты. Более 500 инфлюенсеров (50+ звезд интернета и ТВ) и внутренний продюсерский центр участвуют в постоянном создании эксклюзивного контента. Крутой момент зайти в проект, о котором узнает весь мир через пару лет, на начальном этапе = )
Требования:
- Python/SQL;
- Знание статистики и теории вероятностей;
- Понимание классических алгоритмов и структур данных;
- Умение строить и проверять статистические гипотезы;
- Практический опыт работы в ML.
Желательно:
- Опыт работы с antifraud системами;
- Опыт работы с ClickHouse;
- Опыт работы с высоконагруженными системами;
- Опыт аналитики финансовых и экономических данных;
- Умение писать production код.
Чем предстоит заниматься:
- Анализ данных и поиск аномалий. В приложении много разных игровых механик с использованием крипто-валюты. Надо будет смотреть на пользовательское поведение с разных сторон, искать аномалии и возможных мошенников;
- Строить ML модели, которые позволяют на основе пользовательского поведения выявлять аномалии и классифицировать мошенников;
- Развивать и разрабатывать сервис антифрода. Строить графовые базы данных.
Команда антифрода включает в себя две ветки: разработка сервиса антифрода и аналитика пользовательского поведения. Сервис хранит информацию о пользователях в собственной базе данных, автоматически банит пользователей по фиксированным правилам и оповещает другие микросервисы о мошенниках через Saga. В аналитике предстоит заниматься поиском аномалий и паттернов, построением ML моделей, разработкой и внедрением новых правил по поиску мошенников.
Технологии
В компании пишем сервисы на python (FastAPI, Faust), go и C++. Все крутится в AWS. Легкие сервисы разворачиваем в k8s-кластере, ML сервисы в AWS Sagemaker. Раскатываем через Gitlab CI. В питоне активно используем mypy, pylint, flake, isort, bandit - без прохождения линтеров пайплайн не пропустит merge request.
Пользовательские события отправляются сервисами на бэкенде в kafka. Из кафки мы собираем все в ClickHouse используя движок kafka в самом CH. Любое изменение схемы в БД версионируем через миграции. Продуктовые метрики и дашборды строим в Datalens. Еще используем self-hosted Redis Stack и PostgreSQL Мониторинг с помощью: prometheus, grafana, sentry, kibana.