- Разработка и поддержка fullstack-приложений.
- Разработка и интеграция AI сервисов.
- Интеграция систем аутентификации и авторизации на основе OAuth2/OIDC, JWT, Keycloak.
- Разработка и поддержка плагинов для IDE.
- Оптимизация производительности приложений: стриминг данных (HTTP streaming).
- Кэширование, lazy loading, bundle splitting.
- Мониторинг через Prometheus/Grafana.
- Взаимодействие с LLM-инфраструктурой: Интеграция с vLLM или аналогами.
- Настройка и оптимизация inference pipelines.
- Участие в проектировании архитектуры решений:Выбор паттернов.
- Декомпозиция задач, проектирование API.
- Написание и поддержка автоматизированных тестов (unit, integration, E2E).
- Активное использование ИИ-ассистентов.
- Высшее образование в области IT, технических наук или математики.
- Уверенное владение Python.
- Понимание микросервисной архитектуры, ELK-стека, брокеров сообщений.
- Понимание требований к сервисам журналирования, аудита, мониторинга.
- Опыт взаимодействия с ИИ-ассистентами (Cursor и др.) в процессе разработки.
- Чтение и модификация чужого кода в больших репозиториях.
Backend (стек проектов):
- Python 3.10+.
- FastAPI (включая асинхронность, middleware, dependency injection).
- Работа с базами данных (SQL/NoSQL): написание запросов, индексы, оптимизация, ORM/ODM.
- Опыт работы с векторной БД (opensearch).
- Работа в S3.
- Работа с kafka в роли producer / consumer.
- JWT, OAuth2/OIDC, Keycloak — практический опыт реализации аутентификации и авторизации.
DevOps-навыки:
- Docker / Docker Compose.
- Prometheus + Grafana для мониторинга.
- Работа с CI/CD (настройка пайплайнов, автоматизация деплоя).
Желательно:
- Опыт реализации event-driven архитектуры.
- Опыт векторизации данных с помощью эмбеддеров.
- Опыт интеграции с vLLM для LLM-инференса.
