MLOps Engineer
Вакансия № 36515118 в населенном пункте (городе) Москва, Россия от компании "Hi, Rockits!" на сайте Электронный Центр Занятости Населения (ЦЗН) Москвы.
✷ Смотрите другие предложения работы от компании Hi, Rockits!.
Уважаемый соискатель вакансий, Вы можете перейти на сайт прямого работодателя "Hi, Rockits!" для ознакомления с информацией о компании (фирме, организации, ИП). Смотрите Веб-сайт "Hi, Rockits!" - https://rockits.ru/
Логотип (торговая марка, бренд, эмблема, внешний вид здания или внутренний интерьер офиса): | ![]() |
Организация работает в следующих сферах деятельности: Информационные технологии, системная интеграция, интернет; Образовательные учреждения; Услуги для бизнеса; .
Репутация компании "Hi, Rockits!" в отзывах работников:
Читайте свежие отзывы сотрудников об этой организации на этом сайте.
Оставить мнение об этом работодателе без регистрации бесплатно на этом сайте.
Обязательное требование к опыту работы искомого сотрудника: более 6 лет.
График работы: график: 5/2 (рабочих часов: 8).
Тип занятости: полная занятость.
Вакансия № 36515118 добавлена в базу данных: Вторник, 2 сентября 2025 года.
Дата обновления этого объявления: Суббота, 27 сентября 2025 года.
Рейтинг вакансии: 2,28 из 100 баллов |
Вакансия № 36515118 прочитана - 5 раз(а)
Отправлено откликов - 0 раз(а)
Вакансии Центра Занятости Населения Москвы в соцсетях и мессенджерах:
Работодатель может предложить примерно следующую оплату труда: от 500000 руб. за месяц на вакантной должности "MLOps Engineer".
We are looking for an experienced MLOps Engineer to work on the project - a decentralized AI protocol on Monad that leverages idle consumer hardware for swarm inference. It enables Small Language Models to achieve advanced multi-step reasoning at lower costs, surpassing the performance and scalability of leading models.
Responsibilities:
-
Deploy scalable, production-ready ML services with optimized infrastructure and auto-scaling Kubernetes clusters, create Helm templates for rapid Kubernetes node deployment.
-
Optimize GPU resources using MIG (Multi-Instance GPU) and NOS (Node Offloading System);
-
Manage cloud storage (e.g., S3) to ensure high availability and performance.Deploy and manage large language models (LLM), small language models (SLM), and large multimodal models (LMM);
-
Serve ML models using technologies like Triton Inference Server, optimize models with ONNX and TensorRT for efficient deployment;
-
Set up monitoring and logging solutions using Grafana, Prometheus, Loki, Elasticsearch, and OpenSearch;
-
Write and maintain CI/CD pipelines using GitHub Actions for seamless deployment processes.
Requirements:
-
5+ years of experience in MLOps or ML engineering roles;
-
Proficiency in Kubernetes, Helm, and containerization technologies;
-
Experience with GPU optimization (MIG, NOS) and cloud platforms (AWS, GCP, Azure);
-
Strong knowledge of monitoring tools (Grafana, Prometheus) and scripting languages (Python, Bash);
-
Hands-on experience with CI/CD tools and workflow management systems;
-
Familiarity with Triton Inference Server, ONNX, and TensorRT for model serving and optimization.
As a plus:
-
Bachelor’s or Master’s degree in Computer Science, Engineering, or a related field;
-
Experience with advanced ML techniques, such as multi-sampling and dynamic temperatures;
-
Knowledge of distributed training and large model fine-tuning;
-
Proficiency in Go or Rust programming languages;
-
Experience designing and implementing highly secure MLOps pipelines, including secure model deployment and data encryption.
Разместить Ваше резюме сейчас ...
Связаться с автором объявления № 36515118 с предложением работы, размещённого на этой странице:
☎ Показать контактный телефон для связи ...
✉ Показать электронный адрес для связи ...