Software Engineer (Java/Kotlin/Python) - Data&AI

  • Warszawa, Poznań, Toruń, Kraków, Poland
  • Pełny etat

Opis stanowiska

Widełki wynagrodzenia przewidziane przy tym stanowisku to: 12 500 - 17 000 PLN

Obszar Data & AI to mózg Allegro, w tym obszarze realizujemy projekty oparte o praktyczną aplikacją sztucznej inteligencji i Data Science (np. silnik wyszukiwarki i rekomendacje, automatyzacja obsługi klienta, wykrywanie nadużyć) w skali niespotykanej w Polsce. Aby skutecznie wdrażać rozwiązania ML i automatyzować istniejące procesy potrzebujemy wsparcia dociekliwych i doświadczonych inżynierów, którzy chcieliby tworzyć stabilne rozwiązania o wysokiej wydajności (np. obsługa milionów RPSów w wyszukiwarce), łączyć te usługi z wsadowymi i strumieniowymi przetwarzaniami analizującymi prawdziwe BigData (również w chmurze publicznej). 

Zespoły w tym obszarze tworzą wydajne i skalowalne rozwiązania w architekturze mikroserwisowej, m. in:

  • System do modelowania, przetwarzania oraz wizualizacji analityki frontendowej i mobilnej wraz z narzędziami dla deweloperów (bardzo duża skala - tysiące rps’ów, reactive programming, Kotlin, Spring, WebFlux
  • Systemy wspierające użytkowników w procesie wyszukiwania - sugestie, „czy chodziło Ci o?" i popularne kategorie. API poszczególnych usług (Kotlin, Spring, WebFlux) obsługuje ruch kliencki dochodzący do kilku tysięcy RPS i korzysta m.in. z Solr, Redis i MongoDB. Na potrzeby usług przetwarzamy bardzo duże ilości danych (Spark - Python, Scala). Pracujemy z zagadnieniami związanymi z wyszukiwaniem tekstowym oraz NLP, w szczególności z korektą tekstu
  • System rekomendacji oparty o uczenie maszynowe i big data. Rolą inżynierów w tym zespole jest rozbudowa infrastruktury do wyliczania i serwowania rekomendacji oraz uprodukcyjnianie algorytmów przygotowanych przez zespół Machine Learning Research. W ramach pracy nad systemem tworzymy usługi online (Scala, Java, Kotlin i Python do serwowania modeli ML) oraz przeliczenia batchowe (Spark w Scali i Pythonie)
  • Platformę do tworzenia i wdraża modeli ML. Wspieramy proces tworzenia modelu od początku do końca: feature engineering, anotacja, eksperymenty, trening, predykcję (batch i online), procesy CI/CD
  • Platformę big data Allegro, umożliwiającą tworzenie procesów przetwarzania danych w Sparku, PySparku oraz Apache Beam (Python SDK). Platforma oparta jest w całości o chmurę publiczną
  • System emisji contentu wykorzystujący mechanizmy rekomendacyjne do serwowania zoptymalizowanej treści na główne strony Allegro. Nasze rozwiązania obsługują tysiące żądań na sekundę. Szukamy kompromisów między dokładnością wyniku a wydajnością. Prowadzimy dziesiątki eksperymentów rocznie w poszukiwaniu optymalnych mechanizmów automatyzacji. Każdego dnia rozmawiamy też z wydawcami stron aby poznać ich domenę i dostarczyć zrozumiałe i użyteczne rozwiązania.

Mimo iż aplikujesz do obszaru Data & AI, doświadczenie z inżynierią danych nie jest wymagane na tym stanowisku. Obiecujemy jednak, że programując mikroserwisy płynnie wejdziesz w świat Big Data, a jeśli masz kompetencje w tym obszarze - wykorzystasz je i rozwiniesz.

Dlaczego miał(a)byś z nami pracować?

  • W codziennej pracy tworzymy mikroserwisy, przetwarzania Big Data oraz inne rozwiązania na bardzo dużą skalę (terabajty danych, miliardy zdarzeń na dobę i tysiące żądań na sekundę)

  • Będziesz miał(a) realny wpływ na kierunki rozwoju produktów, wybór technologii i kształtowanie architektury; korzystamy z najnowszych i najlepszych dostępnych technologii, ponieważ sami je dobieramy do naszych potrzeb

  • Twoje przyszłe koleżanki i koledzy stanowią kross-funkcjonalny zespół doświadczonych inżynierów oprogramowania, analityków danych i specjalistów big data, od których możesz czerpać wiedzę i doświadczenie; to unikalna okazja poszerzenia perspektywy o nowe technologie, paradygmaty i metodyki pracy

  • Pracujemy zwinnie i angażujemy klientów naszych rozwiązań na każdym etapie ich tworzenia - to scrum ma pracować dla nas, a nie my dla scruma!  

  • Raz do roku możesz skorzystać z możliwości pracy w innym zespole (tzw. turystyka zespołowa)

Ze swojej strony oferujemy:

  • Sprawdź sam/a, a oprócz tego m.in: 

  • Nowoczesne biuro i narzędzia pracy

  • Nieformalną atmosferę pracy w profesjonalnym zespole

  • Bogaty pakiet świadczeń pozapłacowych w systemie kafeteryjnym – Ty decydujesz z czego korzystasz

  • Zajęcia angielskiego opłacane przez nas

  • Budżet szkoleniowy oraz wewnętrzna platforma MindUp

Ofertę kierujemy do osób, które:

  • Programują w jednym z języków JVM (Java, Kotlin, Scala) lub znają Pythona i są otwarci na poznanie JVM

  • Lubią poznawać nowe frameworki i technologie

  • Poważnie podchodzą do testów i niezawodności tworzonego software’u

  • Stosują dobre praktyki (clean code, code review, TDD, CI/CD)

  • Mają pozytywne nastawienie i umiejętności pracy w zespole

  • Chcą się rozwijać i aktualizować swoją wiedzę

Dodatkowym atutem będzie:

  • Doświadczenie ze Springiem i programowaniem reaktywnym (Reactor / WebFlux)
  • Znajomość funkcyjnego stylu programowania
  • Znajomość domeny ML
  • Podstawowe doświadczenie w stacku narzędziowy Big Data (Apache Spark, Apache Beam) i pracą z GCP lub innym cloudem publicznym

Wyślij nam swoje CV i sprawdź dlaczego #dobrzetubyć

Polityka prywatności