Вакансия: Data Science / ML Engineer (универсальная роль)

Компания: IMS

Город: Санкт-Петербург

Формат: удалёнка

Занятость: full-time / part-time

Трудоустройство: ГПХ, ИП, самозанятость, обязательно подписание NDA, высокие требования к конфиденциальности.

Задачи:

  • Развивать AI-контур продукта: от обработки пользовательского запроса до финального ответа и визуализации результата.
  • Проектировать и улучшать retrieval/pipeline-логику для мульти-источников (Qdrant, MemGraph, PostgreSQL, нереляционные источники).
  • Развивать LLM-агентный контур (Query Planner loop): классификация запросов, декомпозиция подзадач, tool-calls, оценка достаточности данных.
  • Работать с эмбеддингами, семантическим поиском и качеством выдачи (релевантность, дедупликация, фильтрация, ранжирование).
  • Участвовать в оптимизации LLM-инференса (Qwen-семейство, LiteLLM-прокси), стоимости запросов и latency.
  • Настраивать и улучшать data/ML pipeline для обработки документов, мультимодального контента и подготовки данных для поиска/графа.
  • Взаимодействовать с backend-командой (FastAPI/WebSocket), участвовать в проектировании контрактов и интеграций сервисов.
  • Участвовать в формировании технических решений по масштабированию и производительности (кэширование в Redis, нагрузка, стабильность).

Требования:

  • Опыт работы в Data Science / ML Engineering от 2–5 лет (Middle / Middle+/Senior).
  • Уверенный Python и опыт production-разработки ML/DS-сервисов.
  • Практический опыт с LLM/NLP: промптинг, оркестрация вызовов, оценка качества ответов, оптимизация пайплайнов.
  • Опыт с векторным поиском и эмбеддингами (желательно Qdrant или аналогичные Vector DB).
  • Понимание работы с графовыми и реляционными БД (MemGraph/Neo4j, PostgreSQL) в контексте AI-поиска и аналитики.
  • Опыт проектирования API/интеграций (REST; понимание WebSocket и сервисного взаимодействия).
  • Умение формулировать гипотезы, проводить эксперименты и аргументированно выбирать технические решения.

Будет плюсом:

  • Опыт построения RAG/agentic систем в production.
  • Опыт оптимизации LLM-моделей и инфраструктуры инференса (latency/cost/quality trade-off).
  • Знание Redis-кэширования и подходов к session-aware caching.
  • Опыт с мультимодальными сценариями (текст + документы/медиа).
  • Опыт формализации контрактов между сервисами (в т.ч. gRPC/YAML/OpenAPI).
  • Опыт построения pipeline’ов обработки и классификации данных.

Мы предлагаем:

  • Работу над технологически сложным продуктом на стыке LLM, поиска и графовых данных.
  • Возможность влиять на архитектуру AI-части и ключевые технические решения.
  • Гибкий удалённый формат работы.
  • Конкурентную оплату по уровню.
  • Сильную команду, минимум бюрократии и живое общение.