Data Engineer with Python - Data&AI

  • Pełny etat

Opis stanowiska

Opis stanowiska

W ramach obszaru Data & AI realizujemy projekty oparte o praktyczną aplikację Data Science   i Artificial Intelligence o niespotykanej w Polsce skali. Data & AI to grupa ponad 100 doświadczonych inżynierów Big Data zorganizowanych w kilkanaście zespołów o różnych specjalizacjach. Część z nich buduje dedykowane narzędzia do tworzenia i uruchamiania przetwarzań Big Data czy wdrażania modeli ML dla całej organizacji. Inni pracują bliżej klienta i odpowiadają za realizację silnika wyszukiwarki, tworzenie rekomendacji, budowania profilu kupujących czy rozwój platformy eksperymentacyjnej. W obszarze są też zespoły badawcze, których celem jest szukanie rozwiązań dla nietrywialnych problemów wymagających stosowania uczenia maszynowego.

Będziesz brał(a) udział w projektach realizowanych przez Data Science Hub, czyli zespoły wspierające obszary biznesowe Allegro w dwóch obszarach:

  • Customer Value Management, czyli profilowanie i segmentacja użytkowników, modele anti-churn i multi-touch attribution oraz personalizacja treści

  • Business Support, czyli modele predykcyjne dla GMV, kategorii produktowych, produktów i programu Smart

Dołącz do nas! Szukamy inżynierów Big Data o różnorodnych specjalizacjach, inżynierów którzy chcą się rozwijać, budując rozwiązania dla milionów klientów Allegro.

Ofertę kierujemy do osób, które:

  • Mają praktyczne doświadczenie w pracy z Pythonem i pySparkiem przy przetwarzaniu danych i wykorzystaniu modeli ML w praktyce działań biznesowych

  • Znają produkty Google Cloud Platform, przede wszystkim Composer, Dataproc (+ opcjonalnie Dataflow), BigQuery, Storage, AI Platform, Compute Engine, Monitoring, Error Reporting, Logging, lub analogicznych produktów innych dostawców usług chmurowych

  • Wykazują się dobrą komunikacją, umiejętnością budowania relacji także z osobami spoza bezpośredniego zespołu, chęcią biznesowego zrozumienia sensu przetwarzanych danych oraz braniem na siebie odpowiedzialności za realizację zadań

Główne zadania wymagające wsparcia:

  • Rozwój środowiska projektowego zespołów Data Science Hub w GCP

  • Wsparcie w konfiguracji środowiska testowego i produkcyjnego, repozytoriów, ustaleniu procesów i zależności między nimi

  • Pomoc w testowaniu wydajności rozwiązań i pokazywaniu dobrych wzorców jak taką wydajność testować i uzyskać

  • Pomoc w stworzeniu narzędzi, rozwiązań i procesów ułatwiających pracę nad wymienionymi aspektami przez team Data Science

  • Integracja i dostosowywanie środowiska do zmian zachodzących w Allegro, rozwoju infrastruktury, produktów wewnętrznych firmy, inicjatyw (Data Engine, Data Mesh, ML Ops, Data Catalog, etc.)

Dlaczego miał(a)byś z nami pracować?

  • W Allegro zajmiesz się przetwarzaniem petabajtów danych i miliardów zdarzeń dziennie

  • Staniesz się uczestnikiem jednego z największych projektów budowania platformy danych w GCP

  • Będziesz miał(a) realny wpływ na kierunki rozwoju produktów i na wybór technologii. Korzystamy z najnowszych i najlepszych dostępnych rozwiązań, ponieważ sami je dobieramy do naszych potrzeb

  • Będziesz mieć możliwość pracy w zespole doświadczonych inżynierów i specjalistów Big Data, którzy chętnie dzielą się swoją wiedzą, także publicznie w ramach allegro.tech

  • Raz do roku możesz skorzystać z możliwości pracy w innym zespole (tzw. turystyka zespołowa)

Ze swojej strony oferujemy:

  • Nowoczesne biuro i narzędzia pracy

  • Nieformalną atmosferę pracy w profesjonalnym zespole

  • Bogaty pakiet świadczeń pozapłacowych w systemie kafeteryjnym – Ty decydujesz z czego korzystasz

  • Budżet szkoleniowy oraz wewnętrzna platforma MindUp

  • Zajęcia angielskiego opłacane przez nas

Polityka prywatności