Разработка ПО алгоритмов расчета по изменениям в методологии расчета рейтинга страховых компаний
Обязанности
Требуется обеспечить доработку спецвитрины на фреймворке DME, обеспечив актуализацию алгоритма расчета по изменениям в методологии расчета рейтинга страховых компаний. Доработке подлежат алгоритмы существующих атрибутов, а также добавление новых атрибутов: 9 атрибутов по концентрации страхового портфеля, 2 общих атрибута, которые строятся из 12 существующих финансовых показателей (общее количество изменяемых и добавляемых атрибутов – в пределах 20).
Для реализации проекта предполагается выполнение следующих задач:
1. Анализ и реализация доработки спецвитрины:
• анализ построения текущей витрины
• реализация измененного алгоритма расчета по изменениям в методологии расчета рейтинга страховых компаний
• документирование (Confluence).
2. Проведение приемо-сдаточных испытаний и вывод доработок в UAT, PROD.
3. Опытно-промышленная эксплуатация системы.
Обязательные требования
• опыт работы в роли разработчика от 2 (двух) лет за период с 2019 г. по настоящее время в проектах по разработке и/или модификации и/или внедрению ПО с использованием инструментов и технологий Hadoop;
• опыт работы со всеми указанными инструментами по направлению Hadoop: HDFS, MapReduce, Yarn, Hadoop Common, Apache Tez, Apache Solr, Apache Pig, Sqoop и/или Flume, Apache Hive и/или Spark SQL, Apache Kafka;
• опыт работы с реляционными БД (Oracle DB и/или PostgreSQL и/или MySQL);
• опыт оптимизации производительности SQL запросов (план запроса, индексы, дистрибуция, full scan);
• опыт разработки API (REST);
• опыт участия в оптимизации процессов сбора, первичная обработка и хранение большого объема данных из различных типов источников;
• опыт интеграции инфраструктурных компонент c сторонними системами;
• опыт оптимизации моделей хранения данных;
• опыт командной разработки с использованием программных продуктов Confluence и Jira.
Будет плюсом
• опыт работы, как в каскадных (waterfall), так и в гибких методологиях (Agile и/или DevOps и/или Scrum) разработки;
• опыт работы с инструментами машинного обучения Apache Mahout и/или Apache Spark MLLib.