- Проектирование и разработка production-решений на базе LLM: RAG-системы, AI-ассистенты, автоматизация аналитических процессов для задач надзора.
- Работа с локально развёрнутыми моделями (gpt-oss, KazLLM, DeepSeek-OCR и др.): оптимизация инференса, тюнинг параметров, интеграция в продуктовые сценарии.
- Построение пайплайнов автоматизации в n8n для интеграции LLM в рабочие процессы департамента.
- Работа с векторными базами данных, эмбеддингами и retrieval-стратегиями; оценка и улучшение качества ответов RAG-систем.
- Интеграция AI-сервисов с существующими веб-приложениями департамента (стек Python/Django).
- Тестирование и оценка качества LLM-решений: метрики, бенчмарки, контроль галлюцинаций, мониторинг в проде.
- Выбор моделей и архитектурных решений под конкретные задачи; обоснование выбора перед командой и руководством.
- Подготовка технической документации, инструкций для пользователей и кратких аналитических материалов по внедрённым AI-решениям.
- Участие в code review, планировании задач, оценке трудоёмкости и сопровождении решений после вывода в production.
- Опыт разработки production-решений с LLM: как через API (OpenAI, Anthropic и аналоги), так и с локально развёрнутыми моделями (Llama, Qwen, DeepSeek, gpt-oss или аналоги).
- Понимание особенностей работы с self-hosted моделями: инференс на GPU, квантизация, batching, управление latency/cost, использование vLLM, Ollama, llama.cpp, Text Generation Inference или аналогичных инструментов.
- Практический опыт построения RAG-систем: сбор и подготовка данных, chunking-стратегии, embeddings, reranking, hybrid search, векторные БД (Qdrant, Chroma, pgvector или аналоги), оценка качества retrieval.
- Уверенное знание Python и способность писать поддерживаемый production-код: типизация, обработка ошибок, логирование, тестирование, работа с зависимостями и конфигурациями.
- Опыт интеграции AI-сервисов через REST API, понимание принципов backend-разработки, очередей задач, асинхронной обработки и базовой архитектуры веб-приложений.
- Опыт работы с Git, Docker, Linux/CLI, базовое понимание CI/CD и принципов безопасного деплоя сервисов.
- Понимание принципов работы LLM: prompt engineering, контекстное окно, параметры генерации, temperature/top-p, structured output, function/tool calling, разница между fine-tuning и RAG.
- Умение проектировать решения с учётом безопасности данных: разграничение доступа, защита конфиденциальной информации, работа с внутренними документами без передачи чувствительных данных во внешние сервисы.
- Навыки оценки качества AI-решений: подготовка тестовых наборов, сравнение моделей, анализ ошибок, контроль галлюцинаций, документирование результатов экспериментов.
- Опыт работы с n8n или аналогичными платформами автоматизации (Make, Dify, Flowise) для построения end-to-end процессов.
- Способность переводить бизнес-задачи надзора и аналитики в технические требования, прототипы и готовые к внедрению решения.
- Навыки коммуникации с техническими и нетехническими пользователями: сбор требований, демонстрация прототипов, объяснение ограничений AI-решений понятным языком.
- Наличие портфолио, GitHub/GitLab-проектов, демо-прототипов или описания реализованных AI/LLM-проектов будет существенным преимуществом.
- Готовность работать с доменной спецификой финансового надзора, нормативными документами, внутренними регламентами и аналитическими материалами.
- Системное мышление: способность выбирать не только “модель”, но и полную архитектуру решения — данные, retrieval, backend, мониторинг, безопасность и пользовательский сценарий.
- Аккуратность в работе с качеством данных, воспроизводимостью экспериментов и версионированием промптов/конфигураций.
- Ориентация на практический результат: кандидат должен уметь быстро собирать прототип, проверять гипотезу и доводить успешное решение до стабильной эксплуатации.
- Ответственность, самостоятельность, умение работать в команде и соблюдать сроки по задачам с высокой степенью неопределённости.
- Работа с локально развёрнутой инфраструктурой LLM: собственные сервера, на которых развёрнуты gpt-oss, KazLLM, DeepSeek-OCR — реальный self-hosted стек, а не только API-интеграции.
- Продакшен-задачи в области, которая в Казахстане только формируется — участие в её создании, а не догоняющая разработка.
- Прямое влияние на продукты, используемые в надзоре финансового сектора страны (среди продуктов в проде — AiSaule, AI-инструмент для надзорной аналитики).
- Команда, которая уже довела AI-решения до прода, а не только обсуждает их.
- Профессиональное развитие: участие в международных программах (Cambridge SupTech Lab), внутренних и внешних конференциях.
- Стабильность государственной службы и социальный пакет.
- Уровень компенсации обсуждается индивидуально по результатам собеседования с учётом опыта.
- Финальное собеседование — с непосредственным руководителем (начальник Управления надзорных технологий и ИИ).
- Рассматриваем кандидатов уровня middle; сильные junior+ с релевантным портфолио также приветствуются.