Data Engineer / Python Developer
Вакансия № 38293503 в населенном пункте (городе) Москва, Россия от компании "ООО Ваш KPI" на сайте Электронный Центр Занятости Населения (ЦЗН) Москвы.
✷ Смотрите другие предложения работы от компании ООО Ваш KPI.
Уважаемый соискатель вакансий, Вы можете перейти на сайт прямого работодателя "ООО Ваш KPI" для ознакомления с информацией о компании (фирме, организации, ИП). Смотрите Веб-сайт "ООО Ваш KPI" - http://mobileapps.studio
Логотип (торговая марка, бренд, эмблема, внешний вид здания или внутренний интерьер офиса): | ![]() |
Организация работает в следующих сферах деятельности: Информационные технологии, системная интеграция, интернет; Услуги для бизнеса; .
Репутация компании "ООО Ваш KPI" в отзывах работников:
Читайте свежие отзывы сотрудников об этой организации на этом сайте.
Оставить мнение об этом работодателе без регистрации бесплатно на этом сайте.
Обязательное требование к опыту работы искомого сотрудника: 1–3 года.
График работы: график: 5/2 (рабочих часов: 8).
Тип занятости: полная занятость.
Вакансия № 38293503 добавлена в базу данных: Суббота, 13 сентября 2025 года.
Дата обновления этого объявления: Суббота, 27 сентября 2025 года.
Рейтинг вакансии: 5,56 из 100 баллов |
Вакансия № 38293503 прочитана - 7 раз(а)
Отправлено откликов - 0 раз(а)
Вакансии Электронного ЦЗН Москвы в социальных сетях и мессенджерах:
Работодатель предложит заработную плату по результатам собеседования с соискателем работы.
Для маркетплейса премиальной одежды с центральным офисом в UAE требуется Data Engineer.
Резюме опубликовано не HR агенством, а техническим представителем компании в РФ, поэтому собеседование будет проходить исключительно с техническими специалистами напрямую.
Для работы необходимо уметь говорить на английском на среднем уровне, Intermediate и выше.
Skills:
- AWS: S3 Data Lake, Redshift, Glue, Lambdas, EC2’s
- Proficiency with Python in a data engineering context
- High proficiency with SQL in a number of dialects (PostgreSQL, BigQuery, Redshift, MSSQL)
- Proficiency with workflow orchestration concepts (DAGs) and tools (Airflow, make, etc)
- Proficiency with data modeling tools (dbt, Dataform)
- Workflow performance, scaling, and optimization. Big Data solutions in some cases.
- Adaptable to Windows, Linux, and container-based deployment environments
- Source control using Git
Stack:
- AWS: S3 Data Lake, Redshift, RDMS (PostgreSQL), Glue, Lambdas, EC2
- Workflow orchestration is in internal application (makefile based) >>> moving to Airflow
- complex logic is in Python
- data modeling is in internal framework >>> moving to dbt / Dataform
- reporting engine is self-hosted Apache Superset
- version control is in Bitbucket
Responsibilities:
- build and maintain data pipeline integrations with 3rd parties via REST API’s / FTP servers / Google Sheets / direct database connections (MySQL, PostgreSQL, AWS Redshift, etc.) / or simple file downloads
- develop and maintain internal ELT processes + an entire ELT pipeline for event tracking data from scratch
- build data modelling on product catalogue data / financial data
- build a visualisation platform for data sharing (migrate from Superset)
- do your own devops.
Трудоустройство в аккредитованной компании в РФ.
Разместить Ваше резюме сейчас ...
Связаться с автором объявления № 38293503 с предложением работы, размещённого на этой странице:
☎ Показать контактный телефон для связи ...
✉ Показать электронный адрес для связи ...