Prelegenci 2015
GOŚCIE SPECJALNI
PRELEGENCI
Krzysztof Adamski Team Lead w zespole Hadoop w ING Services Polska Z technologią Hadoop zetknął się po raz pierwszy pracując dla firmy z obszaru high-frequency trading i z miejsca został pasjonatem tej technologii. Jest odpowiedzialny za projektowanie i utrzymanie klastra Hadoop dla klientów z grupy ING. Posiada prawie 8 lat doświadczenia w pracy z bazami danych głównie hurtownie danych w oparciu o Microsoft SQL Server (MCITP, MCSE). | ||
Adam Bartos Executive Director, Technology and Big Data Competency Center, SAS Institute Ukończył studia na Wydziale Elektroniki Politechniki Warszawskiej uzyskując tytuł magistra inżyniera. Od kilkunastu lat pracuje w SAS Institute Polska, od początku zajmując się technologiczną stroną oferty firmy. Zdobyte w tym zakresie doświadczenia wykorzystuje obecnie pełniąc obowiązki Dyrektora Technologii, a także Dyrektora Big Data Competency Center. Kieruje m.in. pracami związanymi z technicznym wsparciem użytkowników, technologicznym wsparciem zespołów wdrożeniowych oraz wewnętrzną i zewnętrzną promocją technologii SAS między innymi w obszarach Business Intelligence, Zarządzania Danymi, zagadnieniami Big Data i High Performance Analytics. Blisko współpracuje z globalnymi strukturami SAS Institute, dbając aby potrzeby polskich użytkowników SAS były uwzględniane w planach rozwojowych produktów firmy. | ||
Przemysław Biecek Współzałożyciel SmarterPoland.pl Zawodowo zajmuje się analizą statystyczną danych o dużej złożoności i danych o dużym wolumenie. Zarówno w administracji publicznej, w zastosowaniach medycznych, finansowych jaki przemysłowych. W pracy z danymi ceni grafikę statystyczną pozwalająca na efektywne wyszukiwanie wzorców, weryfikacje hipotez i zależności w danych jak i komunikowanie tych wzorców i zależności innym osobom. Jest członkiem zarządu Fundacji Naukowej SmarterPoland.pl, której celem jest promocja statystycznego sposobu myślenia o otaczającym nas świecie. Pracownik Interdyscyplinarnego Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego. | ||
Wojciech Biela Software Engineering Manager w Teradata Labs Wojciech jest absolwentem Politechniki Wrocławskiej, od ponad 10 lat zajmuje się budowaniem zespołów oraz prowadzeniem projektów informatycznych (m.in. empik.com, Hadapt) w stacjonarnych oraz rozproszonych zespołach. Posiada ponad 12 letnią praktykę w adaptacji metod Agile Software Development do konkretnych warunków projektowych. Jest prezenterem na wielu krajowych i zagranicznych konferencjach z zakresu inżynierii oprogramowania, dwie publikacje naukowe w Springer LNCS z inżynierii oprogramowania. Od początku związany z amerykańskim start-upem Hadapt - jednym z pionierów rozwiązań SQL on Hadoop, odpowiedzialny za rozwój i prace polskiego zespołu Hadapt. Po przejeciu Hadapt przez Teradata Corporation, w ramach komorki Hadoop Center w Teradata Labs, kieruje pracami polskiego zespolu w obszarze efektywnego dostepu do danych na HDFS przez SQL. | ||
Łukasz Bolikowski Kierownik ADA Lab w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego (ICM) na Uniwersytecie Warszawskim Szef grupy badawczo-rozwojowej specjalizującej się w wielkoskalowej analizie tekstów i danych oraz nowych modelach komunikacji naukowej. Posiada doktorat z analizy dużych sieci semantycznych w Instytucie Badań Systemowych PAN w 2011 roku. Jest ekspertem OECD, Komisji Europejskiej oraz Narodowego Centrum Badań i Rozwoju. | ||
Marcin Cylke Software Developer, TouK Pragmatyczny developer. Pasjonat technologii - różnorakich, głównie JVM i coraz bardziej systemów rozproszonych. | ||
Piotr Jan Dendek Big Data Developer/Scientist w ADA Lab - Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego (ICM), Uniwersytet Warszawski Zajmuje się analizą treści, w szczególności danych tekstowych z publikacji naukowych, oraz komunikacji w środowisku naukowym. Z punktu widzenia dewelopera przekłada się to na setki linii kodu napisanych w Pig-u i odpowiednio więcej w Java-ie, XML-ach do Ooziego, Python-ie i R. Z punktu widzenia użytkowników serwisów OpenAIRE, Infona, itd. otrzymywane są linki do interesujących treści. Wykłada przedmiot "Web-Scale Data Mining and Processing" w ramach e-learningu w IPI PAN. | ||
Przemysław Gamdzyk Prezes w spółce Evention Przez lata dziennikarz i redaktor specjalizujący się w obszarze tematycznym ICT w perspektywie biznesowej, technologicznej, organizacyjnej i ludzkiej. Był redaktorem Computerworld. Współpracował z Polityką i Rzeczpospolitą. Później zajął się rozwojem biznesu. Zawsze za podstawową wartość i fundament swojej działalności traktował tworzenie efektywnych obszarów porozumienia w biznesie – wyrażonych w piśmie, w świecie Internetu czy w formie fizycznych spotkań. Zrealizował w sumie kilkaset projektów wydawniczych i eventowych.W ciągu kilku lat budował biznes konferencyjny IDG Business Media, był także dyrektorem programów dla kadry kierowniczej w wydawnictwie IDG Poland. Członek Rady Fundacji „Instytut Mikromakro” – ThinkTanku, którego był współzałożycielem. Aktualnie Prezes spółki wyspecjalizowanej w organizacji skutecznych wydarzeń biznesowych. Łącznie blisko 20 letnie doświadczenie w działalności w obszarze mediów rynku teleinformatycznego. Łączy ścisłe wykształcenie i umysł analityczny z szerokim obszarem zainteresowań i wiedzy oraz głębokim szacunkiem dla humanistyki. Absolwent Wydziału Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego – uczeń prof. Władysława Turskiego. Ukończył studia podyplomowe „Komunikacja społeczna” organizowane przez Instytut Badań Literackich PAN i Fundację Upowszechniania Nauk. Uczestniczył w szeregu szkoleń i warsztatów, doskonalących kompetencje menedżerskie, umiejętności prowadzenia projektów i sztukę wystąpień publicznych czy wykorzystania narzędzi komunikacji elektronicznej i interaktywnych przekazów marketingowych. | www.evention.pl | |
Marek Glijer Software Developer, Programista niskopoziomowych rozwiązań BigData, od lat zajmujący się rozwojem rozproszonych platform obliczeniowych. Entuzjasta open source i przejrzystego kodu. Jest odpowiedzialny za rozwój oraz utrzymywanie oprogramowania analizującego zdarzenia związane z emisją reklam, dostarczaniem niskopoziomowych narzędzi do eksploracji dużych ilości danych w czasie rzeczywistym (przez systemy wewnętrzne), utrzymywanie przepływu danych niezbędnych do działań związanych z obsługą klienta, a także prace badawczo-rozwojowe w tych gałęziach.IIIT | ||
Jarosław Grabowski Senior Java/Hadoop Developer, Grupa Allegro Jarek works at Allegro Group building big data collecting and processing system. For over three years his daily job has been to implement and troubleshoot Pig, Hive and Cascading jobs run on one of the biggest Hadoop clusters in Poland. | ||
Wojciech Indyk Konsulatant BigData, Agora SA Konsultant ekosystemu BigData. Aktualnie pomaga Agorze w budowie i rozwoju platformy analityki predykcyjnej dla Weba. Poprzednio pracował w Samsungu, Orange, Kruk SA, gdzie zajmował sie obszarem nauczania maszynowego - jak Inżynier Danych i Data Sciencist. Posiada także doświadczenie badawcze z zakresu przetwarzania wielkich danych i nauczania maszynowego, opublikował w tym obszarze 8 materiałów w poważnych pismach branżowych. Brał udział w letniej szkole Machine Learining w Japonii i Wielkiej Brytanii, gdzie bezpośrednio czerpał wiedzę od wyjątkowych, najlepszych naukowców ze świata w tym obszarze. Szczególnie interesuje go wymiana doświadczeń w obszarze najnowszych osiągnięć sztucznej inteligencji. | ||
Michał Janusz Data Scientist w Grupie Wirtualna Polska Analizuje dane ruchu interentowego z serwisów GWP z wykorzystaniem Hadoop oraz pakietu R.Z technologią przetwarzania dużych wolumentów danych spotkał się po raz pierwszy w fizyce cząstek elementarnych. Następnie w firmie COMARCH SA pracował z rozwiązaniami typu In Memory Data Grid wdrażając system maklerski. Wykorzystywał Hadoop oraz Teradata w projekcie BIGDATA, w Alior Bank SA. | ||
Jacek Juraszek Expert Java/Hadoop, Grupa Allegro Jacek has experience in developing multi source Search Systems as well as Big Data analytics applications. In his carrier he was successfully taking responsibilities for managing the team as system architect, developing web applications and analyzing business requirements. His goal is to gain experience in machine learning and extending his academic knowledge on metaheuristic alghoritms and their usage with Big Data problems. In future Jacek would like to work within agile company with high theoretical and practical experience in solving Big Data problems. | ||
Adam Kawa Data Consultant and Co-founder, GetInData As a data consultant at GetInData, Adam Kawa helps companies to address their data-processing challenges using popular tools from the Hadoop ecosystem and beyond.Before that, he was a core member of Hadoop team at Spotify where he had been operating one of the largest and fastest-growing Hadoop clusters in Europe for two years. He also worked as data engineer at the ICM at the University of Warsaw. Adam is a frequent speaker at Hadoop conferences and Hadoop User Groups meetups. He co-organizes Stockholm and Warsaw Hadoop User Groups. He regularly blogs about the Hadoop ecosystem at HakunaMapData.com. He immediately became a fan of Hadoop, after implementing his first MapReduce job in 2010. | www.getindata.com | |
Kornel Kiełczewski Software Developer, Grupa Allegro Functional programming enthusiast, enjoys to work with scala and develop scalable solutions. Kornel develops a recommendation platform at Allegro Group, struggling with Apache Spark, Cassandra, Kafka, Hadoop and ElasticSearch. Kornel enjoys to explore different languages, like Haskell or Clojure. After a year of full time scala programming he wonders if it is even possible to switch back to java? | ||
Piotr Krewski Data Consultant and Co-founder, GetInData Piotr Krewski has extensive practical experience in writing applications running on Hadoop clusters as well as in maintaining, managing and expanding Hadoop clusters. At Spotify, he was part of the team operating arguably the biggest Hadoop cluster in Europe. He is a co-founder of GetInData where he currently works as consultant helping companies with building scalable, distributed architectures for storing and processing big data. Piotr serves also as Hadoop Instructor delivering GetInData proprietary trainings for administrators, developers and analysts working with Big Data solutions. Piotr holds Msc in Computer Science from Warsaw University. | ||
Aleksander Łańduch Szef zespołu ewaluacji Hadoop w T-Mobile Aleksander Łańduch jest absolwentem wydziału Fizyki Technicznej Informatyki i Matematyki Stosowanej (FTIMS) Politechniki Łódzkiej, na którym ukończył dwa kierunki: Fizyki Technicznej oraz Informatyki. Studiował także podyplomowo Analizy Statystyczne i Data Mining w Szkole Głównej Handlowej.Od początku pracy zawodowej związany jest z branżą telekomunikacyjną (TP Polpak, Netia, P4, Polska Telefonia Cyfrowa). Specjalizuje się w dziedzinie Business Intelligence. W poszczególnych firmach był odpowiedzialny za rozwój systemów Data Warehouse. Ostatnie cztery lata zajmuje się prowadzeniem projektów badawczych w zakresie użycia różnych systemów MPP na potrzeby analityczne. Testował rozwiązania od wiodących dostawców m.in. Exadata, Netezza, Greenplum, Exasol, Aster. Od półtora roku szefuje zespołowi zajmującemu się ewaluacją technologii z rodziny Hadoop. Z sukcesem wdrożył produkcyjnie technologię Hadoop w T-Mobile Polska. Obecnie projektuje i wspiera wdrożenia projektów w oparciu o Hadoop, HBase oraz Storm. | ||
Andrzej Litewka Chief Software Architect, Grupa Interia Andrzej zajmuje się problemami na styku biznesu i technologii oraz poszukiwaniu nowych obszarów rozwiązań innowacyjnych mogących przynieść przewagę konkurencyjną. Z portalem Interia związany od 1999 roku gdzie zaczynał jako programista baz danych oraz systemów adserwerowych. Obecnie pełni rolę głównego architekta aplikacji przez co aktywnie jest zaangażowany w rozwój większości serwisów grupy Interia. | ||
Bartosz Ługowski Grupa Onet.pl Bartosz jest od 2 lat obecny w zespole zajmującym się utrzymaniem i rozwojem klastra Hadoop oraz Storm w Onet. Zbiera i przetwarza dane, strumieniowo lub w paczkach. | ||
Grzegorz Łyczba Team Lead w zespole User Intelligence, DreamLab (Grupa Onet) Obecnie zajmuje się przetwarzaniem danych patrząc na nie z perspektywy użytkownika, wykorzystując technologie ekosystemu Hadoop.Wcześniej był zaangażowany w rozwój platform z których codziennie korzystają miliony użytkowników. Zaczynał jako administrator, by później zająć się programowaniem. | ||
Przemysław Maciołek Head of Analytics and Data w Toptal, LLC Od 10 lat zajmuje się zawodowo analizą i przetwarzaniem danych, w tym od 5 lat Big Data. W międzyczasie pracował dla korporacji, prowadził startup, zbudował zespół Big Data dla Base, a teraz kieruje teamem Data Science w Toptal, pomagając połączyć najlepszych freelancerów z firmami. Wśród obszarów którymi się zajmował znalazły się:* analiza i przetwarzanie danych dla firm poszukujących złoża naturalne, * stworzenie stosu przetwarzania języka naturalnego (w tym własny tager części mowy oraz nazwanych jednostek), * system text mining dużej skali (crawlowanie i analiza setek milionów dokumentów), * budowa modeli predykcyjnych dla wspomagania systemów sprzedaży, * modelowanie procesów związanych z danych biznesem, * tworzenie i analiza wpływu kluczowych metryk (KPI - Key Performance Indicators). Zawsze głodny wiedzy. Zawodowo, mocno ukierunkowany na analizę rzeczy które mogą mieć wymierny wpływ na biznes, ale w wolnym czasie poszukuje odpowiedzi na cokolwiek co go obecnie interesuje. Absolwent Informatyki na AGH w Krakowie. Niedawno złożył pracę doktorską (na styku lingwistyki komputerowej i uczenia maszynowego) i szykuje się do obrony. Można trzymać za niego kciuki. | ||
Szymon Sobczak Big Data Architect, BaseCRM studiował informatykę, a później biofizykę. Od kilku lat na "urlopie dziekańskim" zdobywał doświadczenie w budowie wysokowydajnych aplikacji - najpierw jako programista C++, później jako architekt baz danych aż po inżyniera systemów embedded. Zakochał się w przetwarzaniu danych na dużą skalę podczas pracy w Google w Szwajcarii, a później w Mountain View. Wrócił jednak do Polski i pracuje w Krakowskim startupie Base. Zajmuje się architekturą Big Data i uczy się wykorzystywania Data Science próbując sprawić, aby ludzie stali się 10x bardziej produktywni używając Base. | ||
Rafał Wojdyla Engineer at Spotify Rafal is an engineer at Spotify, a member of Hadoop squad responsible for operating, maintaing and growing one of the biggest Hadoop cluster in Europe. He is also a core committer to snakebite – pure python HDFS client. | ||
Agnieszka Zdebiak Fundacja Data Sci Obecnie jest prezesem spółki II4B tworzącej oprogramowanie zintegrowane z Social Media oraz prowadzi firmę BigBit dostarczającą rozwiązań i usług z obszaru BigData. Animuje warszawskie spotkanie DataSciencist. |