Software Engineer (Java/Kotlin/Python) - Data&AI
- Pełny etat
Opis stanowiska
Widełki wynagrodzenia przewidziane przy tym stanowisku to: 12 500 - 17 000 PLN
Obszar Data & AI to mózg Allegro, w tym obszarze realizujemy projekty oparte o praktyczną aplikacją sztucznej inteligencji i Data Science (np. silnik wyszukiwarki i rekomendacje, automatyzacja obsługi klienta, wykrywanie nadużyć) w skali niespotykanej w Polsce. Aby skutecznie wdrażać rozwiązania ML i automatyzować istniejące procesy potrzebujemy wsparcia dociekliwych i doświadczonych inżynierów, którzy chcieliby tworzyć stabilne rozwiązania o wysokiej wydajności (np. obsługa milionów RPSów w wyszukiwarce), łączyć te usługi z wsadowymi i strumieniowymi przetwarzaniami analizującymi prawdziwe BigData (również w chmurze publicznej).
Zespoły w tym obszarze tworzą wydajne i skalowalne rozwiązania w architekturze mikroserwisowej, m. in:
- System do modelowania, przetwarzania oraz wizualizacji analityki frontendowej i mobilnej wraz z narzędziami dla deweloperów (bardzo duża skala - tysiące rps’ów, reactive programming, Kotlin, Spring, WebFlux
- Systemy wspierające użytkowników w procesie wyszukiwania - sugestie, „czy chodziło Ci o?" i popularne kategorie. API poszczególnych usług (Kotlin, Spring, WebFlux) obsługuje ruch kliencki dochodzący do kilku tysięcy RPS i korzysta m.in. z Solr, Redis i MongoDB. Na potrzeby usług przetwarzamy bardzo duże ilości danych (Spark - Python, Scala). Pracujemy z zagadnieniami związanymi z wyszukiwaniem tekstowym oraz NLP, w szczególności z korektą tekstu
- System rekomendacji oparty o uczenie maszynowe i big data. Rolą inżynierów w tym zespole jest rozbudowa infrastruktury do wyliczania i serwowania rekomendacji oraz uprodukcyjnianie algorytmów przygotowanych przez zespół Machine Learning Research. W ramach pracy nad systemem tworzymy usługi online (Scala, Java, Kotlin i Python do serwowania modeli ML) oraz przeliczenia batchowe (Spark w Scali i Pythonie)
- Platformę do tworzenia i wdraża modeli ML. Wspieramy proces tworzenia modelu od początku do końca: feature engineering, anotacja, eksperymenty, trening, predykcję (batch i online), procesy CI/CD
- Platformę big data Allegro, umożliwiającą tworzenie procesów przetwarzania danych w Sparku, PySparku oraz Apache Beam (Python SDK). Platforma oparta jest w całości o chmurę publiczną
- System emisji contentu wykorzystujący mechanizmy rekomendacyjne do serwowania zoptymalizowanej treści na główne strony Allegro. Nasze rozwiązania obsługują tysiące żądań na sekundę. Szukamy kompromisów między dokładnością wyniku a wydajnością. Prowadzimy dziesiątki eksperymentów rocznie w poszukiwaniu optymalnych mechanizmów automatyzacji. Każdego dnia rozmawiamy też z wydawcami stron aby poznać ich domenę i dostarczyć zrozumiałe i użyteczne rozwiązania.
Mimo iż aplikujesz do obszaru Data & AI, doświadczenie z inżynierią danych nie jest wymagane na tym stanowisku. Obiecujemy jednak, że programując mikroserwisy płynnie wejdziesz w świat Big Data, a jeśli masz kompetencje w tym obszarze - wykorzystasz je i rozwiniesz.
Dlaczego miał(a)byś z nami pracować?
W codziennej pracy tworzymy mikroserwisy, przetwarzania Big Data oraz inne rozwiązania na bardzo dużą skalę (terabajty danych, miliardy zdarzeń na dobę i tysiące żądań na sekundę)
Będziesz miał(a) realny wpływ na kierunki rozwoju produktów, wybór technologii i kształtowanie architektury; korzystamy z najnowszych i najlepszych dostępnych technologii, ponieważ sami je dobieramy do naszych potrzeb
Twoje przyszłe koleżanki i koledzy stanowią kross-funkcjonalny zespół doświadczonych inżynierów oprogramowania, analityków danych i specjalistów big data, od których możesz czerpać wiedzę i doświadczenie; to unikalna okazja poszerzenia perspektywy o nowe technologie, paradygmaty i metodyki pracy
Pracujemy zwinnie i angażujemy klientów naszych rozwiązań na każdym etapie ich tworzenia - to scrum ma pracować dla nas, a nie my dla scruma!
Raz do roku możesz skorzystać z możliwości pracy w innym zespole (tzw. turystyka zespołowa)
Ze swojej strony oferujemy:
Sprawdź sam/a, a oprócz tego m.in:
Nowoczesne biuro i narzędzia pracy
Nieformalną atmosferę pracy w profesjonalnym zespole
Bogaty pakiet świadczeń pozapłacowych w systemie kafeteryjnym – Ty decydujesz z czego korzystasz
Zajęcia angielskiego opłacane przez nas
Budżet szkoleniowy oraz wewnętrzna platforma MindUp
Ofertę kierujemy do osób, które:
Programują w jednym z języków JVM (Java, Kotlin, Scala) lub znają Pythona i są otwarci na poznanie JVM
Lubią poznawać nowe frameworki i technologie
Poważnie podchodzą do testów i niezawodności tworzonego software’u
Stosują dobre praktyki (clean code, code review, TDD, CI/CD)
Mają pozytywne nastawienie i umiejętności pracy w zespole
Chcą się rozwijać i aktualizować swoją wiedzę
Dodatkowym atutem będzie:
- Doświadczenie ze Springiem i programowaniem reaktywnym (Reactor / WebFlux)
- Znajomość funkcyjnego stylu programowania
- Znajomość domeny ML
- Podstawowe doświadczenie w stacku narzędziowy Big Data (Apache Spark, Apache Beam) i pracą z GCP lub innym cloudem publicznym
Wyślij nam swoje CV i sprawdź dlaczego #dobrzetubyć