Обязанности:
  • Проектирование и разработка production-решений на базе LLM: RAG-системы, AI-ассистенты, автоматизация аналитических процессов для задач надзора.
  • Работа с локально развёрнутыми моделями (gpt-oss, KazLLM, DeepSeek-OCR и др.): оптимизация инференса, тюнинг параметров, интеграция в продуктовые сценарии.
  • Построение пайплайнов автоматизации в n8n для интеграции LLM в рабочие процессы департамента.
  • Работа с векторными базами данных, эмбеддингами и retrieval-стратегиями; оценка и улучшение качества ответов RAG-систем.
  • Интеграция AI-сервисов с существующими веб-приложениями департамента (стек Python/Django).
  • Тестирование и оценка качества LLM-решений: метрики, бенчмарки, контроль галлюцинаций, мониторинг в проде.
  • Выбор моделей и архитектурных решений под конкретные задачи; обоснование выбора перед командой и руководством.
  • Подготовка технической документации, инструкций для пользователей и кратких аналитических материалов по внедрённым AI-решениям.
  • Участие в code review, планировании задач, оценке трудоёмкости и сопровождении решений после вывода в production.
Требования:
  • Опыт разработки production-решений с LLM: как через API (OpenAI, Anthropic и аналоги), так и с локально развёрнутыми моделями (Llama, Qwen, DeepSeek, gpt-oss или аналоги).
  • Понимание особенностей работы с self-hosted моделями: инференс на GPU, квантизация, batching, управление latency/cost, использование vLLM, Ollama, llama.cpp, Text Generation Inference или аналогичных инструментов.
  • Практический опыт построения RAG-систем: сбор и подготовка данных, chunking-стратегии, embeddings, reranking, hybrid search, векторные БД (Qdrant, Chroma, pgvector или аналоги), оценка качества retrieval.
  • Уверенное знание Python и способность писать поддерживаемый production-код: типизация, обработка ошибок, логирование, тестирование, работа с зависимостями и конфигурациями.
  • Опыт интеграции AI-сервисов через REST API, понимание принципов backend-разработки, очередей задач, асинхронной обработки и базовой архитектуры веб-приложений.
  • Опыт работы с Git, Docker, Linux/CLI, базовое понимание CI/CD и принципов безопасного деплоя сервисов.
  • Понимание принципов работы LLM: prompt engineering, контекстное окно, параметры генерации, temperature/top-p, structured output, function/tool calling, разница между fine-tuning и RAG.
  • Умение проектировать решения с учётом безопасности данных: разграничение доступа, защита конфиденциальной информации, работа с внутренними документами без передачи чувствительных данных во внешние сервисы.
  • Навыки оценки качества AI-решений: подготовка тестовых наборов, сравнение моделей, анализ ошибок, контроль галлюцинаций, документирование результатов экспериментов.
  • Опыт работы с n8n или аналогичными платформами автоматизации (Make, Dify, Flowise) для построения end-to-end процессов.
  • Способность переводить бизнес-задачи надзора и аналитики в технические требования, прототипы и готовые к внедрению решения.
  • Навыки коммуникации с техническими и нетехническими пользователями: сбор требований, демонстрация прототипов, объяснение ограничений AI-решений понятным языком.
  • Наличие портфолио, GitHub/GitLab-проектов, демо-прототипов или описания реализованных AI/LLM-проектов будет существенным преимуществом.
  • Готовность работать с доменной спецификой финансового надзора, нормативными документами, внутренними регламентами и аналитическими материалами.
  • Системное мышление: способность выбирать не только “модель”, но и полную архитектуру решения — данные, retrieval, backend, мониторинг, безопасность и пользовательский сценарий.
  • Аккуратность в работе с качеством данных, воспроизводимостью экспериментов и версионированием промптов/конфигураций.
  • Ориентация на практический результат: кандидат должен уметь быстро собирать прототип, проверять гипотезу и доводить успешное решение до стабильной эксплуатации.
  • Ответственность, самостоятельность, умение работать в команде и соблюдать сроки по задачам с высокой степенью неопределённости.
Условия:
  • Работа с локально развёрнутой инфраструктурой LLM: собственные сервера, на которых развёрнуты gpt-oss, KazLLM, DeepSeek-OCR — реальный self-hosted стек, а не только API-интеграции.
  • Продакшен-задачи в области, которая в Казахстане только формируется — участие в её создании, а не догоняющая разработка.
  • Прямое влияние на продукты, используемые в надзоре финансового сектора страны (среди продуктов в проде — AiSaule, AI-инструмент для надзорной аналитики).
  • Команда, которая уже довела AI-решения до прода, а не только обсуждает их.
  • Профессиональное развитие: участие в международных программах (Cambridge SupTech Lab), внутренних и внешних конференциях.
  • Стабильность государственной службы и социальный пакет.
  • Уровень компенсации обсуждается индивидуально по результатам собеседования с учётом опыта.
  • Финальное собеседование — с непосредственным руководителем (начальник Управления надзорных технологий и ИИ).
  • Рассматриваем кандидатов уровня middle; сильные junior+ с релевантным портфолио также приветствуются.