Prelegenci 2015

GOŚCIE SPECJALNI

mattias_andersson_bw
Mattias Andersson

Senior Data Scientist at King
Mattias has worked with data in all shapes and for more than 10 years. First as a sas programmer within clinical trials, later working as business analyst focusing on poker at bwin.com. Since three years he is a senior data scientist at king where he has been working with hadoop and hive on a daily basis.
josh_baer
Josh Baer

Hadoop Product Owner, Spotify
Josh spent six years as a software engineer building infrastructure components at AT&T before discovering the world of ‘Big Data’ in a class at NYU by O’Reilly author Foster Provost.

He ‘joined the band’ at Spotify in early 2013 and has worked on a small team focusing on stabilizing and enhancing the Hadoop infrastructure, performing multiple migrations, upgrades and growing the cluster from 190 nodes to over 900. Today, Josh lives in Stockholm, Sweden and works Hadoop Product Owner.

Josh holds a BS in Computer Science/Philosophy from the University of Pittsburgh and a MS in Computer Science from NYU.
joe_crobak
Joe Crobak

‎Data Engineer at Project Florida

Joe Crobak is a software engineer building server infrastructure at Project Florida. His technical interests are distributed systems and all things Hadoop. Before Project Florida, he was working on data infrastructure for billions of checkins and hundreds of terabytes of event logs at Foursquare.
His professional hobbies include the hadoopweekly.com newsletter and occasional open-source contributions. Joe received a Masters Degree in Computer Science from Rutgers University and a Bachelors Degree from Lafayette College.
jakob_ericsson_bw
Jakob Ericsson

Hadoop Software Engineer at King
Jakob is a software engineer with 15 years of experience. During the last 1.5 year he has been working with the data analytics platform at King, such as stabilizing and growing the Hadoop cluster from 60 to 160 nodes and building real time systems on Kafka. Before joining King he worked with development and architecture for www.hm.com and www.ikea.com.
admin_ajax
Stephan Ewen

Współzałożyciel firmy DataArtisan i inicjator projektu Apache Flink
Stephan Ewen is one of the originators and committers of the Apache Flink project, and co-founder of the Berlin-based startup “Data Artisans” (http://data-artisans.com). He was a Ph.D. student at University of Technology, Berlin, where he co-initiated the Stratosphere project (out of which Flink originated) and published several papers on data analytics technologies. Stephan has worked for Microsoft Research and IBM Research on their database products.
claudio-martella
Claudio Martella

Large-scale Distributed Systems Group, Departament of Computer Science at VU University Amsterdam
Claudio Martella is a fetishist of graphs. He has been working with complex networks and large-scale graph processing for the last 8 years, from graph databases to graph analytics.
He is a member of the PMC of Apache
renault-olivier
Olivier Renault

‎EMEA Solution Engineer at Hortonworks
Olivier osiada ogromne doświadczenie z wdrożeniami dużych instalacji Linuxa zdobyte przez lata pracy w firmie RedHat. Obecnie związany jest z firmą Hortonworks, gdzie pomaga klientom z regionu EMEA we wprowadzaniu Hadoop'a i korzystaniu z możliwości, jakie otwiera BigData.
tydecks-daniel
Daniel Tydecks


Systems Engineering, Cloudera

PRELEGENCI

adamskikrzysztof
Krzysztof Adamski

Team Lead w zespole Hadoop w ING Services Polska
Z technologią Hadoop zetknął się po raz pierwszy pracując dla firmy z obszaru high-frequency trading i z miejsca został pasjonatem tej technologii. Jest odpowiedzialny za projektowanie i utrzymanie klastra Hadoop dla klientów z grupy ING. Posiada prawie 8 lat doświadczenia w pracy z bazami danych głównie hurtownie danych w oparciu o Microsoft SQL Server (MCITP, MCSE).
bartos-adam
Adam Bartos

Executive Director, Technology and Big Data Competency Center, SAS Institute
Ukończył studia na Wydziale Elektroniki Politechniki Warszawskiej uzyskując tytuł magistra inżyniera. Od kilkunastu lat pracuje w SAS Institute Polska, od początku zajmując się technologiczną stroną oferty firmy. Zdobyte w tym zakresie doświadczenia wykorzystuje obecnie pełniąc obowiązki Dyrektora Technologii, a także Dyrektora Big Data Competency Center. Kieruje m.in. pracami związanymi z technicznym wsparciem użytkowników, technologicznym wsparciem zespołów wdrożeniowych oraz wewnętrzną i zewnętrzną promocją technologii SAS między innymi w obszarach Business Intelligence, Zarządzania Danymi, zagadnieniami Big Data i High Performance Analytics. Blisko współpracuje z globalnymi strukturami SAS Institute, dbając aby potrzeby polskich użytkowników SAS były uwzględniane w planach rozwojowych produktów firmy.
biecek-przemek
Przemysław Biecek

Współzałożyciel SmarterPoland.pl
Zawodowo zajmuje się analizą statystyczną danych o dużej złożoności i danych o dużym wolumenie. Zarówno w administracji publicznej, w zastosowaniach medycznych, finansowych jaki przemysłowych. W pracy z danymi ceni grafikę statystyczną pozwalająca na efektywne wyszukiwanie wzorców, weryfikacje hipotez i zależności w danych jak i komunikowanie tych wzorców i zależności innym osobom. Jest członkiem zarządu Fundacji Naukowej SmarterPoland.pl, której celem jest promocja statystycznego sposobu myślenia o otaczającym nas świecie. Pracownik Interdyscyplinarnego Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego.
biela_wojciech
Wojciech Biela

Software Engineering Manager w Teradata Labs
Wojciech jest absolwentem Politechniki Wrocławskiej, od ponad 10 lat zajmuje się budowaniem zespołów oraz prowadzeniem projektów informatycznych (m.in. empik.com, Hadapt) w stacjonarnych oraz rozproszonych zespołach. Posiada ponad 12 letnią praktykę w adaptacji metod Agile Software Development do konkretnych warunków projektowych. Jest prezenterem na wielu krajowych i zagranicznych konferencjach z zakresu inżynierii oprogramowania, dwie publikacje naukowe w Springer LNCS z inżynierii oprogramowania. Od początku związany z amerykańskim start-upem Hadapt - jednym z pionierów rozwiązań SQL on Hadoop, odpowiedzialny za rozwój i prace polskiego zespołu Hadapt. Po przejeciu Hadapt przez Teradata Corporation, w ramach komorki Hadoop Center w Teradata Labs, kieruje pracami polskiego zespolu w obszarze efektywnego dostepu do danych na HDFS przez SQL.
bolikowski-lukasz-icm
Łukasz Bolikowski

Kierownik ADA Lab w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego (ICM) na Uniwersytecie Warszawskim
Szef grupy badawczo-rozwojowej specjalizującej się w wielkoskalowej analizie tekstów i danych oraz nowych modelach komunikacji naukowej. Posiada doktorat z analizy dużych sieci semantycznych w Instytucie Badań Systemowych PAN w 2011 roku. Jest ekspertem OECD, Komisji Europejskiej oraz Narodowego Centrum Badań i Rozwoju.
cylke_marcin
Marcin Cylke

Software Developer, TouK
Pragmatyczny developer. Pasjonat technologii - różnorakich, głównie JVM i coraz bardziej systemów rozproszonych.
dendek-jan1
Piotr Jan Dendek

Big Data Developer/Scientist w ADA Lab - Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego (ICM), Uniwersytet Warszawski
Zajmuje się analizą treści, w szczególności danych tekstowych z publikacji naukowych, oraz komunikacji w środowisku naukowym.
Z punktu widzenia dewelopera przekłada się to na setki linii kodu napisanych w Pig-u i odpowiednio więcej w Java-ie, XML-ach do Ooziego, Python-ie i R. Z punktu widzenia użytkowników serwisów OpenAIRE, Infona, itd. otrzymywane są linki do interesujących treści.
Wykłada przedmiot "Web-Scale Data Mining and Processing" w ramach e-learningu w IPI PAN.

przemyslaw_gamdzyk
Przemysław Gamdzyk

Prezes w spółce Evention
Przez lata dziennikarz i redaktor specjalizujący się w obszarze tematycznym ICT w perspektywie biznesowej, technologicznej, organizacyjnej i ludzkiej. Był redaktorem Computerworld. Współpracował z Polityką i Rzeczpospolitą. Później zajął się rozwojem biznesu. Zawsze za podstawową wartość i fundament swojej działalności traktował tworzenie efektywnych obszarów porozumienia w biznesie – wyrażonych w piśmie, w świecie Internetu czy w formie fizycznych spotkań. Zrealizował w sumie kilkaset projektów wydawniczych i eventowych.
W ciągu kilku lat budował biznes konferencyjny IDG Business Media, był także dyrektorem programów dla kadry kierowniczej w wydawnictwie IDG Poland. Członek Rady Fundacji „Instytut Mikromakro” – ThinkTanku, którego był współzałożycielem. Aktualnie Prezes spółki wyspecjalizowanej w organizacji skutecznych wydarzeń biznesowych. Łącznie blisko 20 letnie doświadczenie w działalności w obszarze mediów rynku teleinformatycznego. Łączy ścisłe wykształcenie i umysł analityczny z szerokim obszarem zainteresowań i wiedzy oraz głębokim szacunkiem dla humanistyki. Absolwent Wydziału Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego – uczeń prof. Władysława Turskiego. Ukończył studia podyplomowe „Komunikacja społeczna” organizowane przez Instytut Badań Literackich PAN i Fundację Upowszechniania Nauk. Uczestniczył w szeregu szkoleń i warsztatów, doskonalących kompetencje menedżerskie, umiejętności prowadzenia projektów i sztukę wystąpień publicznych czy wykorzystania narzędzi komunikacji elektronicznej i interaktywnych przekazów marketingowych.
www.evention.pl
glijer-marek
Marek Glijer

Software Developer,
IIIT
Programista niskopoziomowych rozwiązań BigData, od lat zajmujący się rozwojem rozproszonych platform obliczeniowych. Entuzjasta open source i przejrzystego kodu. Jest odpowiedzialny za rozwój oraz utrzymywanie oprogramowania analizującego zdarzenia związane z emisją reklam, dostarczaniem niskopoziomowych narzędzi do eksploracji dużych ilości danych w czasie rzeczywistym (przez systemy wewnętrzne), utrzymywanie przepływu danych niezbędnych do działań związanych z obsługą klienta, a także prace badawczo-rozwojowe w tych gałęziach.
jaroslaw-grabowski-areglo
Jarosław Grabowski

Senior Java/Hadoop Developer, Grupa Allegro
Jarek works at Allegro Group building big data collecting and processing system. For over three years his daily job has been to implement and troubleshoot Pig, Hive and Cascading jobs run on one of the biggest Hadoop clusters in Poland.
indyk-wojtek-agora
Wojciech Indyk

Konsulatant BigData, Agora SA
Konsultant ekosystemu BigData. Aktualnie pomaga Agorze w budowie i rozwoju platformy analityki predykcyjnej dla Weba. Poprzednio pracował w Samsungu, Orange, Kruk SA, gdzie zajmował sie obszarem nauczania maszynowego - jak Inżynier Danych i Data Sciencist.

Posiada także doświadczenie badawcze z zakresu przetwarzania wielkich danych i nauczania maszynowego, opublikował w tym obszarze 8 materiałów w poważnych pismach branżowych. Brał udział w letniej szkole Machine Learining w Japonii i Wielkiej Brytanii, gdzie bezpośrednio czerpał wiedzę od wyjątkowych, najlepszych naukowców ze świata w tym obszarze.

Szczególnie interesuje go wymiana doświadczeń w obszarze najnowszych osiągnięć sztucznej inteligencji.
janusz-michal
Michał Janusz

Data Scientist w Grupie Wirtualna Polska
Analizuje dane ruchu interentowego z serwisów GWP z wykorzystaniem Hadoop oraz pakietu R.
Z technologią przetwarzania dużych wolumentów danych spotkał się po
raz pierwszy w fizyce cząstek elementarnych.
Następnie w firmie COMARCH SA pracował z rozwiązaniami typu In Memory
Data Grid wdrażając system maklerski. Wykorzystywał Hadoop oraz Teradata
w projekcie BIGDATA, w Alior Bank SA.
juraszek-jacek
Jacek Juraszek

Expert Java/Hadoop, Grupa Allegro
Jacek has experience in developing multi source Search Systems as well as Big Data analytics applications. In his carrier he was successfully taking responsibilities for managing the team as system architect, developing web applications and analyzing business requirements. His goal is to gain experience in machine learning and extending his academic knowledge on metaheuristic alghoritms and their usage with Big Data problems. In future Jacek would like to work within agile company with high theoretical and practical experience in solving Big Data problems.
adam_kawa_2
Adam Kawa

Data Consultant and Co-founder, GetInData
As a data consultant at GetInData, Adam Kawa helps companies to address their data-processing challenges using popular tools from the Hadoop ecosystem and beyond.

Before that, he was a core member of Hadoop team at Spotify where he had been operating one of the largest and fastest-growing Hadoop clusters in Europe for two years. He also worked as data engineer at the ICM at the University of Warsaw.

Adam is a frequent speaker at Hadoop conferences and Hadoop User Groups meetups. He co-organizes Stockholm and Warsaw Hadoop User Groups. He regularly blogs about the Hadoop ecosystem at HakunaMapData.com. He immediately became a fan of Hadoop, after implementing his first MapReduce job in 2010.

www.getindata.com
kornel
Kornel Kiełczewski

Software Developer, Grupa Allegro

Functional programming enthusiast, enjoys to work with scala and develop scalable solutions. Kornel develops a recommendation platform at Allegro Group, struggling with Apache Spark, Cassandra, Kafka, Hadoop and ElasticSearch. Kornel enjoys to explore different languages, like Haskell or Clojure. After a
year of full time scala programming he wonders if it is even possible to switch back to java?
krewski_piotr
Piotr Krewski

Data Consultant and Co-founder, GetInData
Piotr Krewski has extensive practical experience in writing applications running on Hadoop clusters as well as in maintaining, managing and expanding Hadoop clusters.
At Spotify, he was part of the team operating arguably the biggest Hadoop cluster in Europe.

He is a co-founder of GetInData where he currently works as consultant helping companies with building scalable, distributed architectures for storing and processing big data. Piotr serves also as Hadoop Instructor delivering GetInData proprietary trainings for administrators, developers and analysts working with Big Data solutions.

Piotr holds Msc in Computer Science from Warsaw University.
SONY DSC

SONY DSC

Aleksander Łańduch

Szef zespołu ewaluacji Hadoop w T-Mobile
Aleksander Łańduch jest absolwentem wydziału Fizyki Technicznej Informatyki i Matematyki Stosowanej (FTIMS) Politechniki Łódzkiej, na którym ukończył dwa kierunki: Fizyki Technicznej oraz Informatyki. Studiował także podyplomowo Analizy Statystyczne i Data Mining w Szkole Głównej Handlowej.
Od początku pracy zawodowej związany jest z branżą telekomunikacyjną (TP Polpak, Netia, P4, Polska Telefonia Cyfrowa). Specjalizuje się w dziedzinie Business Intelligence. W poszczególnych firmach był odpowiedzialny za rozwój systemów Data Warehouse. Ostatnie cztery lata zajmuje się prowadzeniem projektów badawczych w zakresie użycia różnych systemów MPP na potrzeby analityczne. Testował rozwiązania od wiodących dostawców m.in. Exadata, Netezza, Greenplum, Exasol, Aster. Od półtora roku szefuje zespołowi zajmującemu się ewaluacją technologii z rodziny Hadoop. Z sukcesem wdrożył produkcyjnie technologię Hadoop w T-Mobile Polska. Obecnie projektuje i wspiera wdrożenia projektów w oparciu o Hadoop, HBase oraz Storm.

litewka-andrzej
Andrzej Litewka

Chief Software Architect, Grupa Interia
Andrzej zajmuje się problemami na styku biznesu i technologii oraz poszukiwaniu nowych obszarów rozwiązań innowacyjnych mogących przynieść przewagę konkurencyjną. Z portalem Interia związany od 1999 roku gdzie zaczynał jako programista baz danych oraz systemów adserwerowych. Obecnie pełni rolę głównego architekta aplikacji przez co aktywnie jest zaangażowany w rozwój większości serwisów grupy Interia.
lugowski-bartosz
Bartosz Ługowski

Grupa Onet.pl
Bartosz jest od 2 lat obecny w zespole zajmującym się utrzymaniem i rozwojem klastra Hadoop oraz Storm w Onet. Zbiera i przetwarza dane, strumieniowo lub w paczkach.
lyczba-grzegorz
Grzegorz Łyczba

Team Lead w zespole User Intelligence, DreamLab (Grupa Onet)
Obecnie zajmuje się przetwarzaniem danych patrząc na nie z perspektywy użytkownika, wykorzystując technologie ekosystemu Hadoop.
Wcześniej był zaangażowany w rozwój platform z których codziennie korzystają miliony użytkowników.
Zaczynał jako administrator, by później zająć się programowaniem.
maciolek_przemek
Przemysław Maciołek

Head of Analytics and Data w Toptal, LLC
Od 10 lat zajmuje się zawodowo analizą i przetwarzaniem danych, w tym od 5 lat Big Data. W międzyczasie pracował dla korporacji, prowadził startup, zbudował zespół Big Data dla Base, a teraz kieruje teamem Data Science w Toptal, pomagając połączyć najlepszych freelancerów z firmami. Wśród obszarów którymi się zajmował znalazły się:
* analiza i przetwarzanie danych dla firm poszukujących złoża naturalne,
* stworzenie stosu przetwarzania języka naturalnego (w tym własny tager części mowy oraz nazwanych jednostek),
* system text mining dużej skali (crawlowanie i analiza setek milionów dokumentów),
* budowa modeli predykcyjnych dla wspomagania systemów sprzedaży,
* modelowanie procesów związanych z danych biznesem,
* tworzenie i analiza wpływu kluczowych metryk (KPI - Key Performance Indicators).

Zawsze głodny wiedzy. Zawodowo, mocno ukierunkowany na analizę rzeczy które mogą mieć wymierny wpływ na biznes, ale w wolnym czasie poszukuje odpowiedzi na cokolwiek co go obecnie interesuje. Absolwent Informatyki na AGH w Krakowie. Niedawno złożył pracę doktorską (na styku lingwistyki komputerowej i uczenia maszynowego) i szykuje się do obrony. Można trzymać za niego kciuki.

sobczak_szymon
Szymon Sobczak

Big Data Architect, BaseCRM
studiował informatykę, a później biofizykę. Od kilku lat na "urlopie dziekańskim" zdobywał doświadczenie w budowie wysokowydajnych aplikacji - najpierw jako programista C++, później jako architekt baz danych aż po inżyniera systemów embedded. Zakochał się w przetwarzaniu danych na dużą skalę podczas pracy w Google w Szwajcarii, a później w Mountain View. Wrócił jednak do Polski i pracuje w Krakowskim startupie Base. Zajmuje się architekturą Big Data i uczy się wykorzystywania Data Science próbując sprawić, aby ludzie stali się 10x bardziej produktywni używając Base.

rafal_wojdyla
Rafał Wojdyla

Engineer at Spotify
Rafal is an engineer at Spotify, a member of Hadoop squad responsible for operating, maintaing and growing one of the biggest Hadoop cluster in Europe. He is also a core committer to snakebite – pure python HDFS client.
agnieszka_zdebiak
Agnieszka Zdebiak


Fundacja Data Sci
Agnieszka jest projektantem oprogramowania, data scientist i przedsiębiorcą. Od 15 lat jest ekspertem w zakresie baz danych - dla Prokom Software, Asseco Poland i Unizeto Technologies projektowała systemy dla największych polskich firm ubezpieczeniowych i rządu. Agnieszka tworzyła także hurtownie danych dla firm z sektorów telco, bankowości i ubezpieczeń.
Obecnie jest prezesem spółki II4B tworzącej oprogramowanie zintegrowane z Social Media oraz prowadzi firmę BigBit dostarczającą rozwiązań i usług z obszaru BigData. Animuje warszawskie spotkanie DataSciencist.