Data Platform Engineer

  • Pełny etat

Opis stanowiska

Na czym polegać będzie Twoja praca? 

  • Będziesz zarządzać klastrem Hadoop i innymi usługami związanymi z BigData
  • Zajmiesz się budowaniem rozwiązań, które ułatwiają poszukiwanie danych oraz ich przetwarzanie
  • Weźmiesz udział w codziennym rozwiązywaniu problemów związanych z przetwarzaniem dużych zbiorów danych
  • Zapewnisz stałe wsparcie i współpracę z analitykami oraz użytkownikami narzędzi ekosystemu BigData

Dlaczego miał(a)byś z nami pracować? 

  • Korzystamy, zależnie od zespołów i potrzeb, z: Java 8, Scala, Kotlin, Groovy, Go, Spring, Reactive Programming, Hystrix, Spark, Hadoop, Mesos, TensorFlow
  • Mikroserwisy na serio (400+), skala na serio (13.5k rps), BigData (kilka petabajtów danych), początki Machine Learning
  • Code review, Continuous Integration, Scrum/Kanban (zależnie od zespołu), Domain Driven Design, Test Driven Development, Pair Programming
  • Zespół 600 świetnych inżynierów, którzy dotychczas dzielili się wiedzą na setkach technologicznych konferencji takich jak Apache Big Data 2017 (Miami, FL), Devoxx PL, GeeCon PL i Prague, Confitura, Agile By Example, Agile India 2016 (Bangalore), Mesos Con (Denver), Atmosphere oraz współtworzą bloga allegro.tech
  • Rocznie ponad 100 naszych inżynierów wyjeżdża na konferencje w Polsce i zagranicą (Europa i USA), każdy zespół ma budżet na szkolenia i książki, jeśli chcesz się rozwijać, to zawsze Ci pomożemy
  • Macbook Pro (2017) 15’’ lub 13’, i7, 16GB RAM, SSD, dwa zewnętrzne monitory, wszystkie gadżety które potrzebujesz
  • Dzięki API infrastruktury takim jak Marathon, Ralph, LBaaS (Load Balancing), DaaS (Storage), MaaS (Monitoring), oraz technologiom takim jak kontenery, Docker, Consul będziesz mógł w pierwszych dniach pracy stworzyć mikrousługi w języku, architekturze oraz skali która będzie ograniczona tylko twoim pomysłem i wyobraźnią
  • Organizujemy największe grupy użytkowników, szkolenia oraz meetupy w Poznaniu, Toruniu i Warszawie, wspieramy JUGi
  • Autonomia technologiczna: wybierasz technologię która pasuje do problemu (nie trzeba zgody wszystkich świętych). Ty za nią potem odpowiadasz
  • 10 tysięcy serwerów w dwóch DC
  • 40 projektów open source, 3391 gwiazdek na github

Ze swojej strony oferujemy:

  • Startupową kulturę pracy i stabilność dojrzałej organizacji
  • Nowoczesne biuro i narzędzia pracy
  • Nieformalną atmosferę pracy w profesjonalnym zespole
  • Bogaty pakiet świadczeń pozapłacowych w systemie kafeteryjnym – Ty decydujesz z czego korzystasz
  • Zajęcia z angielskiego opłacane przez nas z myślą o IT
  • Udział w konferencjach w Polsce i zagranicą (Europa i USA). Zawsze pomożemy Ci się rozwijać

Szukamy ekspertów, którzy: 

  • programują przynajmniej w jednym języku z następujących: Python, Java, Scala
  • znają od strony praktycznej bazy relacyjne SQL oraz bazy danych typu NoSQL 
  • mają szeroką wiedzę z zakresu najnowszych technologii IT
  • są komunikatywni oraz potrafią pracować w zespole
  • chcą się stale uczyć i poznawać nowe technologie

         Mile widziane:

  • znajmość technologii jak: Hadoop (HDFS,YARN), Hbase, Hive, Pig, Kafka, Spark, Sqoop, Hue
  • doświadczenie w zarządzaniu dużymi zbiorami danych oraz procesami ETL
  • dobrą znajomość systemu Linux na poziomie inżyniera/administratora systemowego 

Wyślij nam swoje CV i dołącz do Allegro! 

Polityka prywatności