Click— ведущая финтех-компания Узбекистана и обладатель лицензии №1 как «Платежная организация».Наша история началась в 2011 году с революционного стартапа, который впервые познакомил страну с мобильным банкингом. Сегодня Click — это национальная компания с мультифункциональной платформой Click SuperApp, которая объединяет финансовые, сервисные и бизнес-решения.
Обязанности:
-
Руководство отделом дата-инженеров: постановка задач, приоритезация, контроль качества кода и сроков;
-
Наставничество: развитие компетенций инженеров, проведение code review, формирование культуры обмена знаниями;
-
Участие в формировании инженерных практик (best practices, стандарты, codestyle);
-
Проектирование и развитие Data Lakehouse (S3 + Iceberg + Spark/Flink + Trino/ClickHouse);
-
Организация слоёв хранения DWH (Data Vault 2.0);
-
Разработка и оптимизация ETL/ELT пайплайнов на PySpark/Flink и Airflow;
-
Развитие Data Quality в части загрузки данных и формирования витрин данных: контроль целостности, полноты и актуальности данных;
-
Участие в проектировании системных интеграций, API и сервисов для доступа к данным;
-
Плотная работа с Data Analysts, Product Analysts и Data Scientists для реализации витрин и моделей;
-
Совместная работа с DevOps и платформенной командой для обеспечения стабильности и мониторинга контура;
Требования:
-
5+ лет опыта в Data Engineering, включая проектирование и развитие DWH/Data Lake/Data Lakehouse;
-
Опыт в роли тимлида или техлида (постановка задач, code review, развитие команды);
-
Глубокое знание SQL (CTE, оконные функции, оптимизация больших запросов);
-
Опыт разработки пайплайнов на Python + PySpark (будет плюсом знание Scala, Java);
-
Практический опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL;
-
Практический опыт работы с хранилищами S3: MinIO, Ceph, Apache Ozone;
-
Опыт работы с оркестрацией (Airflow) и интеграций данных из разных источников (БД, API, файлы);
-
Понимание современных подходов к моделированию данных: Kimball, Inmon, Data Vault, Medallion;
Будет плюсом:
-
Опыт работы со стримингом (Kafka, Flink, Spark Streaming).
-
Знание и опыт с Apache Iceberg / Delta Lake / Hudi.
-
Опыт работы с Data Catalog (Open Metadata, DataHub, etc.) процессов.
-
Знание Kubernetes, Docker, CI/CD.
-
Опыт внедрения и эксплуатации платформенных решений в продакшене.
-
Участие в развитии комьюнити (конференции, митапы, open-source).
Условия:
-
Работа в сильной и сплоченной технической команде.
-
Двигаемся в сторону дата-ориентированной организации.
-
Верим в факты, исследования и метрики, а не на слово.
-
Фокусируемся на ценностях для пользователя.
-
Свобода действий и возможность влиять на развитие бизнеса.
-
Гибридный формат.
-
Официальное трудоустройство по ТК УЗ.
-
Мы являемся резидентами IT-парка, что позволяет нашим специалистам получить IT-визу.
-
Возможность развивать личный бренд на конференциях, митапах и внутренних событиях.