Наш заказчик - второй по величине банк в стране, услугами которого пользуются миллионы людей. Цель заказчика - создать максимально удобные для клиентов приложения, сервисы, технологии. Мы активно ищем талантливых кандидатов, готовых к решению различного рода задач: вывод новых фичей, поддержка текущей функциональности, написание тестов, участие в общих грумингах и многое другое. Работа ведется в небольших кросс-функциональных командах с полным вовлечением разработчиков и ключевых экспертов.
Для кластера, состоящего из трех кросс-функциональных команд разработки, общей численностью 30+ человек ищем кандидата на позицию ИТ-лидера одной из команд. Работа в основном удаленная, подразумевает посещение головного офиса в Москва-Сити одни день в неделю.
Назначение разрабатываемого программного продукта – предоставление аналитической отчетности по клиентам крупного бизнеса для Блока продуктового анализа и моделирования.
Решение кластера базируется на Hadoop хранилище данных, лаборатории для ad-hoc аналитики и data science и BI решении для визуализации регламентной отчетности и работы с OLAP кубами. Технологический стек:
– ArenaData Hadoop
– Apache Spark
– Apache Airflow
– Apache SeperSet
– DBeaver
– PostgreSQL
– Языки: scala, java, sql для разработки на Spark; python для piplines в Airflow
Обязанности
• обеспечить производственный процесс разработки ПО по функционалу, находящемуся в зоне ответственности команды;
• участвовать в выработке и согласовании технологических решений, находящихся в зоне ответственности команды;
• участвовать в реализации ИТ-стратегией развития решения по аналитике;
• управлять сроками разработки, коммуникациями с заказчиком и внешними контрагентами по задачам в зоне ответственности команды.
Кратко о процессе:
- Разрабатываем ETL процессы на Spark;
- Используем Scala и Java там, где нельзя решить задачу на Spark SQL;
- Разрабатываем workflow на Apache Airflow;
– Производственный процесс основан на Scrum;
- Используем платформы совместной разработки, сборки, тестирования, создания и документирования релизов.
Обязательные требования
• опыт работы по направлению от 5 лет;
• опыт руководящей работы от 2 лет;
• опыт работы с технологиями и инструментами для работы с большими данными, такими как Hadoop, Spark (Pyspark) и др.;
• высшее техническое образование;
• хорошее знание SQL;
• английский на уровне чтения технической литературы.
Будет плюсом
-