LIAN — системный интегратор с фокусом в аналитике и управлении данными.
Мы работаем в трех направлениях:
1. Автоматизация управленческой отчетности (BI) в малом и среднем бизнесе. Строим хранилища данных, настраиваем сбор и интеграцию, разрабатываем отчеты и дэшборды. Наш стек в BI включает все современные инструменты, в том числе open-source ПО.
2. Заказная разработка аналитических систем. Когда у нашего клиента есть специфичный запрос, мы разрабатываем аналитические системы с нуля. Часто применяем подходы BigData, Data Science, актуальные подходы к программному анализу данных и прогнозированию.
3. Запуск и ресурсное обеспечение команд разработки в комплексных проектах цифровой трансформации. Мы усиливаем команды наших партнеров и клиентов собственными сотрудниками и обеспечиваем максимально быстрый старт новых проектов. Среди наших заказчиков - крупные системные интеграторы, банки, нефтегазовые, химические производства, логистические компании, стартапы.
Мы приглашаем талантливого и опытного Разработчика AirFlow присоединиться к нашему проекту и вместе воплотить амбициозные задачи в жизнь!
Требования:
- Опыт с Apache Airflow более 1 года: написание и поддержка DAG, настройка пайплайнов и мониторинга
- Python на уровне разработки ETL/ELT и создания кастомных операторов Airflow
- Уверенное владение SQL и опыт работы с реляционными СУБД (Postgres, Oracle, MS SQL или др.)
- Понимание принципов ETL/ELT и интеграции данных
- Базовый опыт с Hadoop / Spark или другими Big Data технологиями
- Знание Git и работы в Linux
- Технический английский — чтение документации
- Коммуникабельность, готовность к активному взаимодействию с командами аналитиков и разработчиков DWH
- Критическое мышление, аналитический подход, ответственность за результат
- Желание учиться и развиваться
Задачи:
- Разработка, тестирование и поддержка пайплайнов данных в Airflow (DAG, таски, шаблоны)
- Автоматизация процессов загрузки, трансформации и доставки данных для аналитики и отчетности
- Мониторинг, логирование и оптимизация производительности существующих процессов
- Взаимодействие с аналитическими и DWH‑командами для уточнения требований и оценки качества данных
- Участие в развитии архитектуры ETL/ELT и улучшении процедур инцидент‑менеджмента
Технологический стек:
- Обязательный: Apache Airflow, Python, SQL, Git, Linux
- Дополнительно: Spark, Hive, Jenkins, PowerDesigner, Hadoop
Что мы предлагаем:
- Удобный формат трудоустройства на ваш выбор: ИП или через самозанятость.
- Удалённый формат работы.
- Возможности профессионального роста и участие в крупном проекте.
- Конкурентная заработная плата.
- Профессиональное развитие и участие в интересных проектах с реальным влиянием на бизнес.
- Дружная команда, регулярные митинги и прозрачный процесс приоритизации задач.
В нашей команде работают профессионалы с разносторонним опытом и стремлением к развитию. У нас ты сможешь решать интересные профессиональные задачи, сталкиваться с новыми вызовами и раскрывать свой потенциал.
Готов присоединиться к нам?
Откликайся — мы обязательно свяжемся с тобой!