Требования:
- 3-4+ года в разработке программного обеспечения;
- Опыт работы со Scala или Java с сильным желанием изучить Scala;
- Опыт работы с Hadoop, Spark;
- Опыт работы с алгоритмами потоковой передачи и практическим анализом потоков данных в реальном времени.
- Big data/scaling
- Квалификация в области компьютерных наук или смежных областях;
- Коммуникабельность и умение работать напрямую с носителями английского языка.
Будет плюсом:
- Опыт работы с Flink, Spark Streaming, KafkaStreams или любым другим Event Stream Processing engine;
- Опыт работы с Python;
- Опыт работы с Aerospike;
- Опыт работы с AWS.
Условия работы:
- Гибкий график;
- Социальный пакет
Обязанности:
Что вы будете делать:
- Разработка оптимальных, хорошо контролируемых и надежных ETL пайплайнов для потоковой передачи данных;
- Работа с передовыми технологиями в быстро развивающейся среде;
- Эксперименты с новыми инструментами и технологиями, создание POC для удовлетворения потребностей бизнеса;
- Осуществление эффективной интеграции с data providers через различные API для приема данных в реальном времени и batch data в облаке.