CLICK

Head of Data Engineering

Не указана
  • Ташкент
  • Полная занятость
  • Полный день
  • От 3 до 6 лет

Click— ведущая финтех-компания Узбекистана и обладатель лицензии №1 как «Платежная организация».Наша история началась в 2011 году с революционного стартапа, который впервые познакомил страну с мобильным банкингом. Сегодня Click — это национальная компания с мультифункциональной платформой Click SuperApp, которая объединяет финансовые, сервисные и бизнес-решения.

Обязанности:

  • Руководство отделом дата-инженеров: постановка задач, приоритезация, контроль качества кода и сроков;

  • Наставничество: развитие компетенций инженеров, проведение code review, формирование культуры обмена знаниями;

  • Участие в формировании инженерных практик (best practices, стандарты, codestyle);

  • Проектирование и развитие Data Lakehouse (S3 + Iceberg + Spark/Flink + Trino/ClickHouse);

  • Организация слоёв хранения DWH (Data Vault 2.0);

  • Разработка и оптимизация ETL/ELT пайплайнов на PySpark/Flink и Airflow;

  • Развитие Data Quality в части загрузки данных и формирования витрин данных: контроль целостности, полноты и актуальности данных;

  • Участие в проектировании системных интеграций, API и сервисов для доступа к данным;

  • Плотная работа с Data Analysts, Product Analysts и Data Scientists для реализации витрин и моделей;

  • Совместная работа с DevOps и платформенной командой для обеспечения стабильности и мониторинга контура;

Требования:

  • 5+ лет опыта в Data Engineering, включая проектирование и развитие DWH/Data Lake/Data Lakehouse;

  • Опыт в роли тимлида или техлида (постановка задач, code review, развитие команды);

  • Глубокое знание SQL (CTE, оконные функции, оптимизация больших запросов);

  • Опыт разработки пайплайнов на Python + PySpark (будет плюсом знание Scala, Java);

  • Практический опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL;

  • Практический опыт работы с хранилищами S3: MinIO, Ceph, Apache Ozone;

  • Опыт работы с оркестрацией (Airflow) и интеграций данных из разных источников (БД, API, файлы);

  • Понимание современных подходов к моделированию данных: Kimball, Inmon, Data Vault, Medallion;

Будет плюсом:

  • Опыт работы со стримингом (Kafka, Flink, Spark Streaming).

  • Знание и опыт с Apache Iceberg / Delta Lake / Hudi.

  • Опыт работы с Data Catalog (Open Metadata, DataHub, etc.) процессов.

  • Знание Kubernetes, Docker, CI/CD.

  • Опыт внедрения и эксплуатации платформенных решений в продакшене.

  • Участие в развитии комьюнити (конференции, митапы, open-source).

Условия:

  • Работа в сильной и сплоченной технической команде.

  • Двигаемся в сторону дата-ориентированной организации.

  • Верим в факты, исследования и метрики, а не на слово.

  • Фокусируемся на ценностях для пользователя.

  • Свобода действий и возможность влиять на развитие бизнеса.

  • Гибридный формат.

  • Официальное трудоустройство по ТК УЗ.

  • Мы являемся резидентами IT-парка, что позволяет нашим специалистам получить IT-визу.

  • Возможность развивать личный бренд на конференциях, митапах и внутренних событиях.