BI Engineer

  • Poznań, Warszawa, Kraków, Toruń, Wrocław, Poland
  • Pełny etat

Opis firmy

Jako zespół Commerce Tech działający w obszarze Business Services & Automation ramię w ramię z biznesem dbamy o to, aby osiągać ambitne cele biznesowe. Projektujemy i wdrażamy procesy, które mają wpływ na setki tysięcy Sprzedawców i Klientów Allegro oraz wspierają najważniejsze KPI naszej firmy.

Mamy w swoich szeregach inżynierów tworzących platformę Allegro, inżynierów Salesforce, product managerów, analityków i administratorów.

Jesteśmy obecni na każdym etapie cyklu życia Sprzedawcy, od fazy leadowej, po rozwój największych kont. Dbamy o automatyzację i skalowalność naszych rozwiązań.

Mamy ponad 2 tysiące użytkowników wewnętrznych, dziesiątki integracji i miliony pomysłów na dalszy rozwój Allegro w oparciu o nasze produkty!

Opis stanowiska

Dlaczego miał(a)byś z nami pracować?

  • Zapewnisz dane niezbędne do rozwoju systemu CRM i wdrożeń w nowych obszarach
  • Będziesz odpowiadać za raportowanie wybranych wskaźników oraz automatyzację procesów raportowych w obszarze Business Services & Automation oraz dla zewnętrznych interesariuszy
  • Będziesz wspierać automatyzację istotnych procesów biznesowych
  • Zajmiesz się tworzeniem i wsparciem, utrzymania procesów ETL oraz przygotowaniem agregatów danych dla pozostałych zespołów Allegro
  • Odpowiesz za rozwój procesów raportowych w oparciu o wymagania biznesowe przy użyciu Google Data Studio
  • Będziesz mieć realny wpływ na kluczowe KPI Allegro
  • Zaangażujesz się w zróżnicowane projekty z obszaru Commerce,
  • Otrzymasz możliwość rozwoju w obszarze BI i AI&ML oraz umiejętności związanych z programowaniem w języku Python
  • U nas Big Data to kilka petabajtów danych, a Machine Learning wykorzystywany jest produkcyjnie
  • Stosujemy Code Review, Continuous Integration, Scrum/Kanban, Domain Driven Design, Test Driven Development, Pair Programming w zależności od zespołu
  • Autonomia technologiczna: wybierasz technologię która pasuje do problemu (nie trzeba zgody wszystkich świętych). Ty za nią potem odpowiadasz
  • Mamy środowisko łączące nasze prywatne dwa Data Centers (10 000 serwerów) oraz Chmurę Publiczną (Google Cloud oraz Microsoft Azure)
  • Tworzymy ponad 60 projektów open source, kilka tysięcy gwiazdek na github
  • Nasi pracownicy regularnie wyjeżdżają na konferencje w Polsce i zagranicą (Europa i USA), każdy zespół ma budżet na szkolenia i książki, jeśli chcesz się rozwijać, to zawsze Ci pomożemy
  • Dostaniesz od nas laptop z i7, 32GB RAM, SSD - MacBook Pro 16’’ DEV lub 13’’ DEV bądź jeden z topowych Dell: Latitude 7410 DEV lub Precision z Windows (jeśli nie lubisz Maców), do tego dwa zewnętrzne monitory i wszystkie gadżety których potrzebujesz

Ze swojej strony oferujemy:

Sprawdź sam/a, a oprócz tego m.in: 

  • Nowoczesne biuro i narzędzia pracy
  • Nieformalną atmosferę pracy w profesjonalnym zespole
  • Bogaty pakiet świadczeń pozapłacowych w systemie kafeteryjnym – Ty decydujesz z czego korzystasz
  • Zajęcia angielskiego opłacane przez nas
  • Budżet szkoleniowy oraz wewnętrzna platforma MindUp

Ofertę kierujemy do osób, które:

  • Bardzo dobrze znają SQL
  • Biegle posługują się Google Sheets (Google Suite), MS Excel
  • Posiadają doświadczenie z co najmniej jednym typem baz danych: Oracle, PostgreSQL, MySQL, BigQuery
  • Posiadają doświadczenie z narzędziami raportowymi takimi jak: Google Data Studio, Tableau, Power BI
  • Znają zagadnienia z zakresu Big Data (przetwarzanie rozproszonych danych: Hadoop, Dataproc)
  • Potrafią sprawnie zarządzać czasem i pracować w zespole
  • Oczekują pracy, która ma głębszy sens (nie tylko “management zlecił”), i chcą cieszyć się z jej rezultatów
  • Potrafią szukać efektywnych rozwiązań do wymagań stawianych przez użytkowników
  • Chcą się ciągle rozwijać i aktualizować swoją wiedzę
  • Dodatkowym autem będzie:
    • podstawowa umiejętność programowania w języku Python
    • podstawowa znajomość Google Apps Script
    • wiedza oraz doświadczenie w modelowaniu, tworzeniu i utrzymaniu procesów ETL
    • znajomość zagadnień związanych Airflow, Google Composer, Dataproc, Spark
    • doświadczenie w pracy w środowisku GCP

Wyślij nam swoje CV i sprawdź dlaczego #dobrzetubyć

Polityka prywatności