Agenda warsztatów 2015
WARSZTATY organizowane są w terminie 26.03 2015 r.
Courtyard by Marriott, Żwirki i Wigury 1, 00-906 Warszawa
Warsztaty – Wprowadzenie do technologii Big Data
Spotkanie fakultatywne dla osób, które chciałyby usystematyzować i poznać najważniejsze obszary wiedzy dotyczącej rozwiązań ekosystemu Hadoop. Wszyscy widzimy, że Hadoop to taki duży żółty słoń, ale czy każdy z nas wie jaki to naprawdę zwierz i ile on faktycznie potrafi?
W czasie warsztatu poznamy bliżej tego sympatycznego słonia oraz jego wiernych przyjaciół (np. Hive, Spark, Kafka). W szczególności, zobaczymy jak ta “Drużyna B” (B jak Big Data) może pomóc przechowywać i przetwarzać dane w publicznej chmurze Amazona. W czasie warsztatu, każdy uczestnik wcieli się w rolę analityka danych, który zaimplementuje różnorodne analizy przetwarzające dane muzyczne po to, by odkryć wiedzę ukrytą w tych zbiorach danych i pomóc swojej firmie podejmować “miliondolarowe” decyzje oparte na danych. Podczas warsztatu kładziemy główny nacisk na ćwiczenia praktyczne. Wszystkie wykonywane zadania będą okazją i pretekstem do poznania najważniejszych technologii z ekosystemu Apache Hadoop. Prowadzący warsztat instruktor podzieli się również praktycznym radami nabytymi podczas kilkuletniej pracy z Hadoop-em.
Na potrzeby warsztatu przygotujemy starannie dobry miks teorii, ćwiczeń, demonstracji, Q&A oraz … zabawy. Wszystkie wykonywane ćwiczenia będą okazją i pretekstem do poznania najważniejszych technologi z ekosystemu Apache Hadoop. Warsztaty będą prowadzone w grupach max. 25 uczestników.
Uczestnicy
O ile szkolenie jest techniczne, wcześniejsze doświadczenie z Hadoop-em, technologiami Big Data oraz chmurą publiczną nie jest wymagane. Zapraszamy analityków, inżynierów, managerów oraz wszystkich, którzy są zainteresowani jak użyć Hadoop i jego przyjaciół do gromadzenia, przechowywania i analizowania dużych ilości danych.
Każdy uczestnik powinien przyjść z własnym laptopem, z którego będzie korzystał podczas wykonywania ćwiczeń. Laptop nie musi posiadać żadnego dedykowanego oprogramowania – wystarczy przeglądarka internetowa i terminal, tak żeby na początku warsztatów móc się połączyć z klastrem Hadoop w chmurze Amazona, na której będą wykonywane obliczenia.
Wszyscy uczestnicy otrzymają materiały szkoleniowe w postaci plików PDF na które składają się slajdy zawierające zagadnienia teoretyczne i manual z opisem wykonywanych ćwiczeń. O ile w czasie warsztatów ćwiczenia będą wykonywanie na klastrze w chmurze, większość ćwiczeń będzie potem można odtworzyć na własnej wirtualnej maszynie (np. Hortonworks Sandbox lub Cloudera Quickstart).
Czas trwania
Warsztat trwa od 9:00 do 17:00. W czas trwania warsztatu wliczona jest godzinna przerwa na lunch i kilka 15-minutowych przerw kawowych.
(WIĘCEJ...)
Prowadzenie:
8.15 – 09.15
Powitalna kawa i poczęstunek
Zwięzłe wprowadzenie do ekosystemu Apache Hadoop
- Główne założenia koncepcyjne
- Najważniejsze technologie ekosystemu Hadoop m.in. HDFS, YARN, Pig, Hive, Spark
Przerwa
Wykorzystanie ekosystemu Hadoop do rozwiązania biznesowego problemu (1)
- Definicja problemu
- Klaster Hadoop w publicznej chmurze Amazona
- Zasilanie klastra danymi przy użyciu Kafka, Sqoop oraz HDFS CLI (w tym ćwiczenia)
Przerwa obiadowa
Wykorzystanie ekosystemu Hadoop do rozwiązania biznesowego problemu (2)
- Oczyszczanie danych przy użyciu Pig (w tym ćwiczenia)
- Ad hoc’owa analiza danych ze Spark i Hive (w tym ćwiczenia)
Przerwa
Możliwości oferowane przez inne narzędzia z ekosystemu Hadoop i okolic (1)
- Harmonogramowanie zadań przy użyciu Oozie (w tym ćwiczenia)
- Natychmiastowe przetwarzanie danych strumieniowych przy użyciu Spark Streaming (w tym ćwiczenia)
- Szybkie odczyty i zapisy danych przy użyciu NoSQL-owej bazy danych HBase
Big Data Jeopardy (teleturniej znany w Polsce jako Va Banque)