#вакансия #scala #dataengineer #remote #работа #удаленка
🔥Вакансия: Data engineer
🚀Компания: КА "Spice IT"
Немного о компании:
- компания на рынке с 2004 года, предоставляет своим клиентам высокоэффективные сервисы по оценке рисков, управлению кредитным портфелем и противодействию мошеничества
- входит в "Реестр аккредитованных организаций, осуществляющих деятельность в области информационных технологий.
🪴Проект: Строим data lakehouse на базе hadoop
🌟Задачи:
- Разрабатывать пайплайны загрузки данных из различных источников (РСУБД, NoSQL, files, streaming) в Datalake;
- Реализовать PoC (MVP) с использованием новых инструментов и технологий;
- Реализация распределенных алгоритмов на больших данных;
- Оптимизировать процессы хранения и обработки данных с использованием современных технологии и подходов;
- Продукционализация моделей машинного обучения.
🏢Формат работы: Удаленка (в пределах РФ). При желании можно работать в офисе г. Москва,
💰Вилка: до 305 тыс чистыми (готовы к обсуждению) + бонус (20% годового дохода)
✍🏻Стек, который используем на проекте: Scala, Python, Spark, Golang, - Hadoop, Cassandra, Apache Flink, EFK, PostgreSQL, Kafka, Jira, Confluence, Bamboo (CI/CD), OKD, Kubernetes
🤝Трудоустройство: по ТК РФ
💰Бенефиты: ДМС со стоматологией, льготная ипотека, компенсация фитнеса / обучения / доп. мед. услуг
📌Основные требования:
- Опыт работы с Apache Spark, Apache Spark structured streaming, Flink, Kafka;
- Опыт работы с экосистемой кластера Hadoop (CDP, Arenadata, Hortonworks);
- Опыт работы с Apache Airflow и Apache NiFi;
- Опыт работы с БД: Oracle, Postgre, Greenplum, HBase;
- Опыт разработки на Scala от 2 лет;
- Отличные знания - SQL.
➡️Подробнее: Telegram @IT_HR_Mary
🔥Вакансия: Data engineer
🚀Компания: КА "Spice IT"
Немного о компании:
- компания на рынке с 2004 года, предоставляет своим клиентам высокоэффективные сервисы по оценке рисков, управлению кредитным портфелем и противодействию мошеничества
- входит в "Реестр аккредитованных организаций, осуществляющих деятельность в области информационных технологий.
🪴Проект: Строим data lakehouse на базе hadoop
🌟Задачи:
- Разрабатывать пайплайны загрузки данных из различных источников (РСУБД, NoSQL, files, streaming) в Datalake;
- Реализовать PoC (MVP) с использованием новых инструментов и технологий;
- Реализация распределенных алгоритмов на больших данных;
- Оптимизировать процессы хранения и обработки данных с использованием современных технологии и подходов;
- Продукционализация моделей машинного обучения.
🏢Формат работы: Удаленка (в пределах РФ). При желании можно работать в офисе г. Москва,
💰Вилка: до 305 тыс чистыми (готовы к обсуждению) + бонус (20% годового дохода)
✍🏻Стек, который используем на проекте: Scala, Python, Spark, Golang, - Hadoop, Cassandra, Apache Flink, EFK, PostgreSQL, Kafka, Jira, Confluence, Bamboo (CI/CD), OKD, Kubernetes
🤝Трудоустройство: по ТК РФ
💰Бенефиты: ДМС со стоматологией, льготная ипотека, компенсация фитнеса / обучения / доп. мед. услуг
📌Основные требования:
- Опыт работы с Apache Spark, Apache Spark structured streaming, Flink, Kafka;
- Опыт работы с экосистемой кластера Hadoop (CDP, Arenadata, Hortonworks);
- Опыт работы с Apache Airflow и Apache NiFi;
- Опыт работы с БД: Oracle, Postgre, Greenplum, HBase;
- Опыт разработки на Scala от 2 лет;
- Отличные знания - SQL.
➡️Подробнее: Telegram @IT_HR_Mary