Что предстоит делать:
-
Разрабатывать и поддерживать ETL/ELT-процессы в Airflow
-
Интегрировать новые источники данных (CRM, API, логи)
-
Оптимизировать производительность запросов и пайплайнов
-
Обеспечивать качество данных и настраивать мониторинг
-
Участвовать в проектировании архитектуры данных
Что важно для нас:
-
Опыт работы с SQL (JOINs, CTE, оконные функции)
-
Практические навыки Python (pandas, requests)
-
Опыт разработки DAG-ов в Airflow
-
Знание принципов ETL/ELT и работы с API
-
Базовые навыки работы с Docker
-
Опыт настройки мониторинга (Grafana и etc)
Будет плюсом:
-
Опыт с Kubernetes, GitLab CI/CD
-
Знание облачных платформ (AWS/GCP/Yandex Cloud)
-
Опыт работы с инструментами Data Quality (например, Great Expectations)
-
Понимание BI-инструментов (DataLens, Metabase)
Этапы:
Интервью с рекрутером
Техническое интервью с Team Lead
Интервью с CDO