Вимоги:
- 3-4+ роки в розробці програмного забезпечення;
- Досвід роботи зі Scala або Java з сильним бажанням вивчити Scala;
- Досвід роботи з Hadoop, Spark;
- Досвід роботи з алгоритмами потокової передачі і практичним аналізом потоків даних в реальному часі.
- Big data / scaling
- Кваліфікація в області комп’ютерних наук або суміжних областях;
- Відмінні комунікаційні навички і вміння працювати безпосередньо з носіями англійської мови.
Буде плюсом:
- Досвід роботи з Flink, Spark Streaming, Kafka Streams або будь-яким іншим Event Stream Processing engine;
- Досвід роботи з Python;
- Досвід роботи з Aerospike;
- Досвід роботи з AWS.
Умови роботи:
- Гнучкий графік;
- Соціальний пакет.
Обов’язки:
Що ви робитимете:
- Розробка оптимальних, добре контрольованих и надійних ETL-Пайплайн для потокової передачі Даних;
- Робота з передовими технологіями в швидко розвиваючому середовищі;
- Експерименти з новими інструментами і технологіями, створення POC для задоволення потреб бізнесу;
- Здійснення ефективної інтеграції з data providers через різні кінцеві точки API для прийому даних в реальному часі і batch data в хмарі.