Data Engineer (DWH)
Вакансия № 36107737 в населенном пункте (городе) Москва, Россия от компании "Лаборатория Касперского" на сайте Электронный Центр Занятости Населения (ЦЗН) Москвы.
✷ Смотрите другие предложения работы от компании Лаборатория Касперского.
Уважаемый соискатель вакансий, Вы можете перейти на сайт прямого работодателя "Лаборатория Касперского" для ознакомления с информацией о компании (фирме, организации, ИП). Смотрите Веб-сайт "Лаборатория Касперского" - http://www.kaspersky.ru
Логотип (торговая марка, бренд, эмблема, внешний вид здания или внутренний интерьер офиса): | ![]() |
Организация работает в следующих сферах деятельности: Информационные технологии, системная интеграция, интернет; .
Репутация компании "Лаборатория Касперского" в отзывах работников:
Читайте свежие отзывы сотрудников об этой организации на этом сайте.
Оставить мнение об этом работодателе без регистрации бесплатно на этом сайте.
Обязательное требование к опыту работы искомого сотрудника: 3–6 лет.
График работы: график: 5/2 (рабочих часов: 8).
Тип занятости: полная занятость.
Вакансия № 36107737 добавлена в базу данных: Воскресенье, 21 сентября 2025 года.
Дата обновления этого объявления: Воскресенье, 28 сентября 2025 года.
Рейтинг вакансии: 6,22 из 100 баллов |
Вакансия № 36107737 прочитана - 15 раз(а)
Отправлено откликов - 0 раз(а)
Вакансии Электронного Центра Занятости Москвы в социальных сетях и мессенджерах:
Адрес вакантного места работы: Москва, Ленинградское шоссе, 39Ас1.
Работодатель предложит заработную плату по результатам собеседования с соискателем работы.
О команде:
Команда занимается развитием и поддержкой корпоративного хранилища данных в Лаборатории Касперского. Один из ключевых проектов - подготовка данных для системы маркетинговых коммуникаций. На текущий момент мы меняем архитектуру проекта с батчевых процессов на стриминговую модель (Kafka + Spark Streaming) Также мы активно занимаемся развитием DataLake на базе Hadoop (ArenaData) и подключаем всё больше новых источников данных. ETL процессы реализуются на связке Airflow, Spark, Hive.
Вам предстоит:
- Разработка процессов загрузки данных из внешних источников в DataLake и формирование витрин данных в DWH (Airflow, Spark, Hive);
- Разработка стриминговых пайплайнов на Spark Streaming;
- Совместно с командой и архитектором заниматься развитием подходов к обработке данных;
- Разработка автотестов на процессы загрузки данных;
- Разработка мониторингов качества данных.
Мы ожидаем от вас:
- Уверенное знание SQL;
- Понимание принципов работы БД и построения хранилищ данных;
- Опыт работы с большими объемами данных и оптимизации производительности;
- Опыт разработки на Python;
- Опыт работы с Hadoop стеком (Spark, Hive);
- Опыт работы с Airflow и ETL-инструментами.
Будет плюсом:
- Опыт разработки стриминговых пайплайнов;
- Опыт работы с Kafka;
- Опыт работы с MS SQL Server;
- Опыт работы с С#;
- Опыт работы с Docker, Kubernetes;
- Опыт работы с Prometheus, Grafana.
Разместить Ваше резюме сейчас ...
Связаться с автором объявления № 36107737 с предложением работы, размещённого на этой странице:
☎ Показать контактный телефон для связи ...
✉ Показать электронный адрес для связи ...