- Создавать ETL/ELT-процессы, которые работают стабильно даже при десятках терабайт данных;
- Развивать Lakehouse-архитектуру (Iceberg + Spark + Trino);
- Строить мощный аналитический слой на Greenplum / CloudberryDB и PostgreSQL;
- Использовать dbt для трансформаций и Airflow как основной оркестратор;
- Основной стек, с которым ты будешь работать:
- Airflow - оркестрация всех пайплайнов
- dbt - трансформации и моделирование данных
- PostgreSQL + Greenplum / CloudberryDB - основные хранилища
- Lakehouse (Apache Iceberg + Spark + Trino) - опционально, но очень желательно.
- Опыт разработки и поддержки ETL/ELT пайплайнов от 2-3 лет;
- Уверенное владение Airflow, Phyton и dbt;
- Хорошее понимание SQL и опыт работы с аналитическими БД (Greenplum, PostgreSQL или аналогами);
- Понимание принципов построения Data Warehouse / Data Lakehouse;
- Опыт работы с Spark и Trino будет большим плюсом;
- Умение писать чистый, поддерживаемый и тестируемый код;
- Желание развиваться и улучшать архитектуру данных.
Что мы предлагаем:
- Возможность работать с современным и востребованным стеком (Lakehouse, Iceberg, CloudberryDB);
- Влияние на архитектуру платформы - твои идеи будут услышаны;
- Задачи разного уровня сложности: от поддержки и оптимизации до построения новых слоев данных;
- Команда профессионалов, которые любят данные и не боятся сложных вызовов;
- Официальное трудоустройство в соответствии с ТК РК;
- Гибкий график работы (08:30–17:30 / 09:00–18:00 / 09:30–18:30);
- Ежегодный оплачиваемый отпуск — 28 календарных дней;
После прохождения испытательного срока:
- Кафетерий льгот (медицинское страхование, обучение, спорт, развитие детей, авиа- и ж/д билеты);
- Два дополнительных дня Day Off в год;
- Гибридный формат работы (2 дня - в офисе, 3 дня - удаленка);
Дополнительно:
- Лечебное пособие в размере одного оклада при выходе в отпуск (после 1 года работы, при отпуске от 14 дней).