12 февраля 2026
Коротко о нас:
Компания СККИА резидент Сколково и технопарка Университетский . Мы занимаемся цифровизацией энергетики (Smart Grid). Наш продукт ПАК Регистратор , система IIoT, которая мониторит трансформаторные подстанции, предотвращает аварии и ищет потери электричества в масштабах города.
Ищем Data Platform Engineer , который построить и будет поддерживать конвейер доставки данных от железа до аналитики.
Вакансия идеально подходит как вторая работа (Pet-project, за который платят): минимум созвонов, отсутствие легаси и полная свобода в выборе времени работы.
Стек и задачи
Вам предстоит работать с данными телеметрии (временные ряды, высокочастотные измерения).
Основные задачи:
Ingestion: Проектирование и поддержка MQTT шлюза для сбора данных с Edge-устройств ( Регистраторов ).
Processing: Обработка потоков данных через RabbitMQ (и Celery). Организация очередей для ML-моделей.
Storage: Организация хранения масштабируемых данных измерений IIoT в ClickHouse .
Pipeline: Обеспечение доставки данных для ML-инженеров (мы используем PyTorch для предиктивной аналитики) и сервисов фронтенда.
Кого мы ищем
Нам нужен инженер уровня Middle, который понимает архитектуру событийно-ориентированных систем.
Почему это лучший вариант для второй работы
AI-boost: Мы официально покупаем и предоставляем сотрудникам доступ к Perplexity и Coding AI (Codex/Z.AI) . Мы хотим, чтобы вы тратили меньше времени на бойлерплейт и больше на архитектуру.
Реальный график: У нас нет трекеров активности. Задачи ставятся на спринт, когда вы их делаете ночью или в выходные решать вам.
Здравый смысл: Минимум бюрократии. Прямое общение с техлидом и ML-инженером.
Инженерный вызов: Это не очередной CRUD. Это работа с реальным физическим миром, где ваши данные помогают предотвращать веерные отключения света.
Условия
Если вы хотите работать с Highload/IoT стеком в спокойном режиме и без отрыва от основной деятельности присылайте резюме!
Пару слов от себя: Напишите, пожалуйста, приходилось ли вам работать с капризными источниками данных (IoT, нестабильная сеть, дубли). Если да как вы обеспечивали целостность данных? Если нет какой ваш самый интересный кейс по настройке пайплайнов?
Технический мини-вопрос: Мы пишем данные в ClickHouse. Данные поступают с датчиков постоянно и небольшими пакетами. Почему плохая идея делать INSERT в ClickHouse на каждое сообщение от устройства, и как бы вы архитектурно решили эту задачу, имея в стеке RabbitMQ?