Вакансия: Data Science / ML Engineer (универсальная роль)
Компания: IMS
Город: Санкт-Петербург
Формат: удалёнка
Занятость: full-time / part-time
Трудоустройство: ГПХ, ИП, самозанятость, обязательно подписание NDA, высокие требования к конфиденциальности.
Задачи:
- Развивать AI-контур продукта: от обработки пользовательского запроса до финального ответа и визуализации результата.
- Проектировать и улучшать retrieval/pipeline-логику для мульти-источников (Qdrant, MemGraph, PostgreSQL, нереляционные источники).
- Развивать LLM-агентный контур (Query Planner loop): классификация запросов, декомпозиция подзадач, tool-calls, оценка достаточности данных.
- Работать с эмбеддингами, семантическим поиском и качеством выдачи (релевантность, дедупликация, фильтрация, ранжирование).
- Участвовать в оптимизации LLM-инференса (Qwen-семейство, LiteLLM-прокси), стоимости запросов и latency.
- Настраивать и улучшать data/ML pipeline для обработки документов, мультимодального контента и подготовки данных для поиска/графа.
- Взаимодействовать с backend-командой (FastAPI/WebSocket), участвовать в проектировании контрактов и интеграций сервисов.
- Участвовать в формировании технических решений по масштабированию и производительности (кэширование в Redis, нагрузка, стабильность).
Требования:
- Опыт работы в Data Science / ML Engineering от 2–5 лет (Middle / Middle+/Senior).
- Уверенный Python и опыт production-разработки ML/DS-сервисов.
- Практический опыт с LLM/NLP: промптинг, оркестрация вызовов, оценка качества ответов, оптимизация пайплайнов.
- Опыт с векторным поиском и эмбеддингами (желательно Qdrant или аналогичные Vector DB).
- Понимание работы с графовыми и реляционными БД (MemGraph/Neo4j, PostgreSQL) в контексте AI-поиска и аналитики.
- Опыт проектирования API/интеграций (REST; понимание WebSocket и сервисного взаимодействия).
- Умение формулировать гипотезы, проводить эксперименты и аргументированно выбирать технические решения.
Будет плюсом:
- Опыт построения RAG/agentic систем в production.
- Опыт оптимизации LLM-моделей и инфраструктуры инференса (latency/cost/quality trade-off).
- Знание Redis-кэширования и подходов к session-aware caching.
- Опыт с мультимодальными сценариями (текст + документы/медиа).
- Опыт формализации контрактов между сервисами (в т.ч. gRPC/YAML/OpenAPI).
- Опыт построения pipeline’ов обработки и классификации данных.
Мы предлагаем:
- Работу над технологически сложным продуктом на стыке LLM, поиска и графовых данных.
- Возможность влиять на архитектуру AI-части и ключевые технические решения.
- Гибкий удалённый формат работы.
- Конкурентную оплату по уровню.
- Сильную команду, минимум бюрократии и живое общение.