Мы в поиске Data Engineer в проект крупного российского ретейла
• Грейд: Senior
• Рейт: 2200 р/час
• Локация: РФ
• Срок привлечения: 3 месяца с возможным продлением
• Формат работы: фуллтайм, удаленно, по времени МСК
• Формат оплаты: отсрочка платежа 45 календарных дней
О проекте:
Разработка и поддержка программного обеспечения (ПО): интеграционных потоков для отчетности БЕ Импорта. Постановка задач, сохранение документации и разработка ПО осуществляется в системах Заказчика.
Задачи:
• Самостоятельная разработка, реализация и поддержка интеграционных решений, на стеке технологий, принятых в команде. (Java, Groovy, Apache Nifi, Airflow).
• Определение стека технологий для конкретных проектов и задач.
• Решает технически сложные задачи, которые другие инженеры в команде не в состоянии решить.
• Оперативное реагирование на информацию о проблемах в зоне ответственности, выполнение задач в установленный срок.
• Разработка и контроль актуальности документации взаимодействия конфигурационных единиц платформы больших данных.
• Предоставление отчетности о своей деятельности начальнику отдела/ руководителю в порядке, установленном руководством.
• Контроль за качеством интеграционных решений, с последующим заведением задач\дефектов на рефакторинг.
• Определяет технологическую стратегию развития проекта или продукта, работает на перспективу.
• Выстраивает процессы (например, CI/CD, код ревью), внедряет и развивает инженерные практики.
Требования:
• Владение одним из языков программирования (Java, Groovy), знание принципов ООП, умение читать чужой код.
• Сборка проекта, компиляция и деплой в Rancher. (Docker).
• Опыт проектирования, реализации, развития и поддержки интеграционных решений на стеке технологий BigData.
• Знание SQL (индексы, функции, умение читать планы запросов, оптимизация запросов). - Опыт работы с любой реляционной БД (Oracle, Postgres, MySQL, MsSQL, DB2 и т.п.).
• Умение работать с Git в консоли.
• Знания специфики работы ETL инструментов (Apache Nifi, Airflow, интеграционные шины SAP BW, Talend, Informatica, SAS и т.п.).
• Опыт работы с Hadoop.
• Понимание устройства HDFS, форматов данных.
• Опыт работы с Hive или любым другим хранилищем на основе Hadoop.
• Опыт использования системами ведения проектов и документации.
• Умение работы с архитектурными схемами.
• Понимание принципов построения и хранения данных - DWH и DataLake.
• Желателен опыт администрирования Unix/Linux или Hadoop (HDFS , Yarn, Ranger , Spark, Zookeeper), Zabbix, Ansible.
❗Резюме кандидатов отправлять через кнопку «отправить CV» на русском языке в формате Word, с указанием локации и +- по требованиям в комментарии.
❓Вопросы по вакансии задавать в общие чаты или @Pavlusha24
Id вакансии: 126849