Data Engineer( Red Petroleum )
08 Апреля 2026
Город:
Бишкек
Занятость:
Полная занятость
Компания "Red Petroleum"
Обязанности:-
Подключать новые источники к централизованному DWH: настраивать инкрементальные загрузки и CDC, обеспечивать идемпотентность.
-
Проектировать и развивать модели данных в dbt (staging → core → marts): писать понятные модели, тесты, документацию и фиксировать происхождение данных.
-
Настраивать и поддерживать Airflow: строить DAG-и, управлять зависимостями и расписаниями, обрабатывать ошибки и «повторы», выполнять добор исторических данных;
-
Использовать сенсоры (ожидание файлов/событий) и контролировать целевые сроки обновления витрин.
-
Совместно с другими специалистами ДИТ эксплуатировать и управлять VMs на GCP: развёртывание и обновления, мониторинг, резервное копирование/восстановление, управление секретами и доступами.
-
Держать хранилище быстрым и экономичным: оптимизировать ClickHouse и PostgreSQL под объёмы и типовые запросы (партиционирование, материализованные представления, TTL и т. п.).
-
Реализовывать интеграции: разрабатывать и поддерживать интеграции через REST API (аутентификация, пагинация, лимиты) и автоматизировать обмен файлами по SFTP/FTPS; вести версионирование форматов и обработку ошибок.
-
Обеспечивать качество и безопасность данных: автоматические проверки свежести/корректности, работа с PII, актуальные эксплуатационные инструкции.
Требования:
-
Продвинутый SQL в PostgreSQL и ClickHouse; практическая оптимизация запросов и схем.
-
Отличное знание Python для процессов ELT и небольших сервисов (базовые FastAPI/Flask).
-
Опыт с dbt: модели, тесты, документация, работа с data lineage.
-
Опыт с Airflow: разработка DAG-ов, сенсоры, управление зависимостями и ошибками.
-
Паттерны ELT: CDC, SCD 1/2, корректные операции загрузки/обновления (MERGE/UPSERT).
-
Интеграции: уверенно работать с REST API и автоматизацией обмена по SFTP.
-
Инфраструктура: Linux + GCP VMs, Git, базовый Docker, CI для сборки/тестов dbt.
-
Terraform/Ansible для воспроизводимых сред.
Будет преимуществом
Понимание жизненного цикла ML (MLflow, batch-скоринг), опыт работы над DS/ML/AI проектами. -
Умение работать с потоковыми данными в т.ч. с Kafka, Redis или аналог.
Наблюдаемость: Great Expectations, OpenLineage, Prometheus/Grafana.
Подача данных в Power BI/Tableau/Metabase. -
Опыт в домене логистики/TMS, телематики Wialon, CRM/loyalty.
Совместно с владельцами источников и вендорами интегрировать и поддерживать их подключение к DWH с согласованными SLA. -
Работать с BI/Analyst и Senior DS над витринами и фичами для аналитики и ML
-
Пятидневную рабочую неделю (с 8:30 до 17:30);
-
Комфортный офис в центре города;
-
Фитнес-зал для сотрудников;
-
Премии и корпоративные поездки за счёт компании;
-
Обучение и повышение квалификации при необходимости за счёт компании;
-
Отлично развитую корпоративную культуру.
Зарегистрируйтесь или войдите, чтобы открыть контакты работодателя
Прикрепите резюме для отклика
Уже с нами?
Войдите, чтобы отправить резюме
01 Апреля
Управляющий директор Учебного Центра( Red Petroleum )
Бишкек
Компания "Red Petroleum" О проекте Мы запускаем новый Учебный центр, ищем Управляющего директора , который возьмёт на себя полный цикл...
04 Апреля
Middle Strong / Senior Data Analyst (Product Analyst)
Бишкек
Компания "ММАРКЕТ" MMarket - быстрорастущий маркетплейс в Кыргызстане, который уверенно идёт к национальному лидерству в e-commerce. Мы -...
25 Марта
Senior AI Python Engineer – Life Sciences Domain
Балыкчы
Компания "ОсОО ЭПАМ Системз" EPAM is seeking a skilled Senior AI Python Engineer to join our Life Sciences and Healthcare projects, focusing...
16 Марта
Бишкек
Компания "ОсОО ЭПАМ Системз" We seek a highly skilled Python Engineer with expertise in cloud computing and a strong focus on integrating AI...
16 Марта
Бишкек
Компания "C-Technology" Обязанности: • Осуществление контроля качества разрабатываемых продуктов, а также выявление и анализ ошибок и проблем,...
Вакансия размещена в отрасли