Какие обязанности будет выполнять сотрудник:
- Разработка и поддержка DAG-ов в Apache Airflow.
- Написание коннекторов к внешним API (REST, GraphQL).
- Оптимизация и поддержка баз данных PostgreSQL (написание сложных запросов, DDL).
- Участие в разработке бэкенда аналитической платформы (FastAPI).
- Подготовка пайплайнов для векторизации данных (под задачи RAG/AI). Какой точно продукт ожидается от сотрудника?: Стабильно работающая ETL-инфраструктура (Airflow), чистые и валидные данные в хранилище, доступные для BI-аналитиков.
-
Высшее (желательно техническое: IT, мат. моделирование).
-
Опыт работы Data Engineer или Python Backend Developer от 2-х лет.
-
Опыт работы с Airflow и реляционными базами данных.
-
Требования к профессиональным знаниям (программы, языки): Python (Middle),
-
SQL (Advanced),
-
Docker, Git.
-
Английский на уровне чтения технической документации.
Какие компетенции являются критичными?:
- Уверенное владение Python (pandas, requests, asyncio).
- Опыт работы с Apache Airflow (написание DAGs).
- Глубокое понимание SQL и работы PostgreSQL.
- Умение работать с API (понимание JSON, методов HTTP, авторизации).Какие компетенции будут преимуществом:
-
Опыт работы с FastAPI.
-
Знание DevOps практик (CI/CD).
-
Понимание принципов работы векторных баз данных и LLM.
- график работы 5/2,
- конкурентная заработная плата,
- корпоративная медицинская страховка,
- возможности для профессионального роста,
- доброжелательная и поддерживающая команда молодых специалистов,
- офис на левом берегу в современном деловом стиле,
- возможность влиять на развитие продукта и улучшение процессов клиентов.