Что делать?
  • Создавать ETL/ELT-процессы, которые работают стабильно даже при десятках терабайт данных;
  • Развивать Lakehouse-архитектуру (Iceberg + Spark + Trino);
  • Строить мощный аналитический слой на Greenplum / CloudberryDB и PostgreSQL;
  • Использовать dbt для трансформаций и Airflow как основной оркестратор;
  • Основной стек, с которым ты будешь работать:
    - Airflow - оркестрация всех пайплайнов
    - dbt - трансформации и моделирование данных
    - PostgreSQL + Greenplum / CloudberryDB - основные хранилища
    - Lakehouse (Apache Iceberg + Spark + Trino) - опционально, но очень желательно.
Если у вас:
  • Опыт разработки и поддержки ETL/ELT пайплайнов от 2-3 лет;
  • Уверенное владение Airflow, Phyton и dbt;
  • Хорошее понимание SQL и опыт работы с аналитическими БД (Greenplum, PostgreSQL или аналогами);
  • Понимание принципов построения Data Warehouse / Data Lakehouse;
  • Опыт работы с Spark и Trino будет большим плюсом;
  • Умение писать чистый, поддерживаемый и тестируемый код;
  • Желание развиваться и улучшать архитектуру данных.

Что мы предлагаем:

  • Возможность работать с современным и востребованным стеком (Lakehouse, Iceberg, CloudberryDB);
  • Влияние на архитектуру платформы - твои идеи будут услышаны;
  • Задачи разного уровня сложности: от поддержки и оптимизации до построения новых слоев данных;
  • Команда профессионалов, которые любят данные и не боятся сложных вызовов;
  • Официальное трудоустройство в соответствии с ТК РК;
  • Гибкий график работы (08:30–17:30 / 09:00–18:00 / 09:30–18:30);
  • Ежегодный оплачиваемый отпуск — 28 календарных дней;

После прохождения испытательного срока:

  • Кафетерий льгот (медицинское страхование, обучение, спорт, развитие детей, авиа- и ж/д билеты);
  • Два дополнительных дня Day Off в год;
  • Гибридный формат работы (2 дня - в офисе, 3 дня - удаленка);

Дополнительно:

  • Лечебное пособие в размере одного оклада при выходе в отпуск (после 1 года работы, при отпуске от 14 дней).