Мы строим платформу для Retrieval-Augmented Generation (RAG), которая позволяет работать с пользовательскими базами знаний — от небольших коллекций до больших, динамически обновляемых корпусов.
Наша цель — сделать RAG не набором скриптов, а универсальной, расширяемой системой, на которой можно быстро собирать и проверять сложные LLM-сценарии.
После завершения базовой платформы команда будет двигаться в сторону многошаговых и агентных сценариев: от DeepResearch-подходов до более сложных orchestration-пайплайнов.
Почему эта роль может быть интересна:
- Возможность повлиять на архитектуру RAG-платформы, а не только на отдельные компоненты
- Работа на стыке search × LLM × systems engineering
- Переход от классического RAG к более сложным reasoning и agent-based сценариям
- Задачи, где важны не только модели, но и то, как они встроены в систему
Задачи
- Проектировать и развивать RAG-пайплайны: ingestion, chunking, indexing, retrieval, reranking, generation
- Исследовать и внедрять подходы к улучшению качества поиска и генерации: hybrid search, query rewriting, multi-hop retrieval
- Строить инструменты для работы с разными типами знаний (тексты, документы, структурированные данные)
- Разрабатывать и автоматизировать оценку RAG-систем
- Участвовать в развитии следующих поколений систем: agentic workflows, multi-step reasoning, DeepResearch-сценарии
Требования
- Уверенный Python и опыт промышленной разработки
- Опыт с PyTorch или другими DL-фреймворками
- Понимание принципов работы LLM и Transformer-архитектур
- Опыт с retrieval-задачами, поиском или NLP (необязательно именно RAG, но близко)
Будет плюсом
- Опыт построения RAG-систем (embeddings, vector DB, rerankers)
- Знание подходов из information retrieval: BM25, dense retrieval, hybrid search
- Опыт с оценкой retrieval и LLM
- Понимание multi-step LLM-сценариев или агентных систем
- Опыт проектирования платформ или библиотек, а не только отдельных моделей
