Agenda warsztatów 2015

WARSZTATY organizowane są w terminie 26.03 2015 r.

Courtyard by Marriott, Żwirki i Wigury 1, 00-906 Warszawa

Warsztaty – Wprowadzenie do technologii Big Data

Spotkanie fakultatywne dla osób, które chciałyby usystematyzować i poznać najważniejsze obszary wiedzy dotyczącej rozwiązań ekosystemu Hadoop. Wszyscy widzimy, że Hadoop to taki duży żółty słoń, ale czy każdy z nas wie jaki to naprawdę zwierz i ile on faktycznie potrafi?
W czasie warsztatu poznamy bliżej tego sympatycznego słonia oraz jego wiernych przyjaciół (np. Hive, Spark, Kafka). W szczególności, zobaczymy jak ta “Drużyna B” (B jak Big Data) może pomóc przechowywać i przetwarzać dane w publicznej chmurze Amazona. W czasie warsztatu, każdy uczestnik wcieli się w rolę analityka danych, który zaimplementuje różnorodne analizy przetwarzające dane muzyczne po to, by odkryć wiedzę ukrytą w tych zbiorach danych i pomóc swojej firmie podejmować “miliondolarowe” decyzje oparte na danych. Podczas warsztatu kładziemy główny nacisk na ćwiczenia praktyczne. Wszystkie wykonywane zadania będą okazją i pretekstem do poznania najważniejszych technologii z ekosystemu Apache Hadoop. Prowadzący warsztat instruktor podzieli się również praktycznym radami nabytymi podczas kilkuletniej pracy z Hadoop-em. Na potrzeby warsztatu przygotujemy starannie dobry miks teorii, ćwiczeń, demonstracji, Q&A oraz … zabawy. Wszystkie wykonywane ćwiczenia będą okazją i pretekstem do poznania najważniejszych technologi z ekosystemu Apache Hadoop. Warsztaty będą prowadzone w grupach max. 25 uczestników. Uczestnicy O ile szkolenie jest techniczne, wcześniejsze doświadczenie z Hadoop-em, technologiami Big Data oraz chmurą publiczną nie jest wymagane. Zapraszamy analityków, inżynierów, managerów oraz wszystkich, którzy są zainteresowani jak użyć Hadoop i jego przyjaciół do gromadzenia, przechowywania i analizowania dużych ilości danych. Każdy uczestnik powinien przyjść z własnym laptopem, z którego będzie korzystał podczas wykonywania ćwiczeń. Laptop nie musi posiadać żadnego dedykowanego oprogramowania – wystarczy przeglądarka internetowa i terminal, tak żeby na początku warsztatów móc się połączyć z klastrem Hadoop w chmurze Amazona, na której będą wykonywane obliczenia. Wszyscy uczestnicy otrzymają materiały szkoleniowe w postaci plików PDF na które składają się slajdy zawierające zagadnienia teoretyczne i manual z opisem wykonywanych ćwiczeń. O ile w czasie warsztatów ćwiczenia będą wykonywanie na klastrze w chmurze, większość ćwiczeń będzie potem można odtworzyć na własnej wirtualnej maszynie (np. Hortonworks Sandbox lub Cloudera Quickstart). Czas trwania Warsztat trwa od 9:00 do 17:00. W czas trwania warsztatu wliczona jest godzinna przerwa na lunch i kilka 15-minutowych przerw kawowych.
(WIĘCEJ...)
 8.15 – 09.15 
Powitalna kawa i poczęstunek
 9.15 – 10.45 
Zwięzłe wprowadzenie do ekosystemu Apache Hadoop
  • Główne założenia koncepcyjne
  • Najważniejsze technologie ekosystemu Hadoop m.in. HDFS, YARN, Pig, Hive, Spark
 10.45 – 11.00 
Przerwa
 11.00 – 12.30 
Wykorzystanie ekosystemu Hadoop do rozwiązania biznesowego problemu (1)
  • Definicja problemu
  • Klaster Hadoop w publicznej chmurze Amazona
  • Zasilanie klastra danymi przy użyciu Kafka, Sqoop oraz HDFS CLI (w tym ćwiczenia)
 12.30 – 13.30 
Przerwa obiadowa
 13.30 – 15.00 
Wykorzystanie ekosystemu Hadoop do rozwiązania biznesowego problemu (2)
  • Oczyszczanie danych przy użyciu Pig (w tym ćwiczenia)
  • Ad hoc’owa analiza danych ze Spark i Hive (w tym ćwiczenia)
 15.00 – 15.15 
Przerwa
 15.15 – 16.40 
Możliwości oferowane przez inne narzędzia z ekosystemu Hadoop i okolic (1)
  • Harmonogramowanie zadań przy użyciu Oozie (w tym ćwiczenia)
  • Natychmiastowe przetwarzanie danych strumieniowych przy użyciu Spark Streaming (w tym ćwiczenia)
  • Szybkie odczyty i zapisy danych przy użyciu NoSQL-owej bazy danych HBase
 16.40 – 17.00 
Big Data Jeopardy (teleturniej znany w Polsce jako Va Banque)