🧑🏻💻 Вакансия: Разработчик Big Data / Hadoop
📌 Уровень: Middle / Senior
💼Компания: КОРУС Консалтинг
💳 Заработная плата: до 300 000 net ₽, обсуждается индивидуально
📍Формат: удаленно, на территории РФ
📩 Для связи: @cht_tatiana
Всем привет, на связи КОРУС Консалтинг!
Перед нашей командой аналитических решений стоит задача трансформировать аналитический ландшафт у заказчика (банковская сфера), а именно объединить 4 отдельно функционирующих хранилища данных в Единую платформу данных на базе новых технологий (Arenadata DB и Arenadata Hadoop).
Сейчас мы наращиваем команду и находимся в поиске Hadoop/Big Data Разработчика.
📝Основные задачи:
• разработка хранимых процедур, агрегатов, ETL процессов в экосистеме Hadoop;
• разработка комплексных систем интеграции витрин данных Hadoop с использованием Python on Spark + AirFlow;
• участие в разработке архитектурных и технических стандартов.
📌 Мы предлагаем:
• удаленный формат или офис по желанию;
• гибкое начало рабочего дня;
• постоянный профессиональный и личный рост, самостоятельность в работе;
• минимум бюрократии и отчётов, а совещания только по необходимости и с чёткой программой;
• ДМС, корпоративные тарифы на фитнес и занятия английским на ведущих платформах;
• корпоративный университет, наставничество и открытая корпоративная культура.
👨💻 Наши ожидания:
• опыт работы в роли разработчика на стеке Hadoop от 2-х лет;
• опыт разработки приложений с использованием инструментария экосистемы Hadoop (Spark Streaming, Hbase, Spark SQL, Kafka, Hive, Impala, Hue и т.д.) от 2-х лет;
• опыт промышленной разработки на Python.
По всем вопросам пишите @cht_tatiana
📌 Уровень: Middle / Senior
💼Компания: КОРУС Консалтинг
💳 Заработная плата: до 300 000 net ₽, обсуждается индивидуально
📍Формат: удаленно, на территории РФ
📩 Для связи: @cht_tatiana
Всем привет, на связи КОРУС Консалтинг!
Перед нашей командой аналитических решений стоит задача трансформировать аналитический ландшафт у заказчика (банковская сфера), а именно объединить 4 отдельно функционирующих хранилища данных в Единую платформу данных на базе новых технологий (Arenadata DB и Arenadata Hadoop).
Сейчас мы наращиваем команду и находимся в поиске Hadoop/Big Data Разработчика.
📝Основные задачи:
• разработка хранимых процедур, агрегатов, ETL процессов в экосистеме Hadoop;
• разработка комплексных систем интеграции витрин данных Hadoop с использованием Python on Spark + AirFlow;
• участие в разработке архитектурных и технических стандартов.
📌 Мы предлагаем:
• удаленный формат или офис по желанию;
• гибкое начало рабочего дня;
• постоянный профессиональный и личный рост, самостоятельность в работе;
• минимум бюрократии и отчётов, а совещания только по необходимости и с чёткой программой;
• ДМС, корпоративные тарифы на фитнес и занятия английским на ведущих платформах;
• корпоративный университет, наставничество и открытая корпоративная культура.
👨💻 Наши ожидания:
• опыт работы в роли разработчика на стеке Hadoop от 2-х лет;
• опыт разработки приложений с использованием инструментария экосистемы Hadoop (Spark Streaming, Hbase, Spark SQL, Kafka, Hive, Impala, Hue и т.д.) от 2-х лет;
• опыт промышленной разработки на Python.
По всем вопросам пишите @cht_tatiana