Breaking News:
RSS
Tools
Dec 16
IT Training - Data Warehouse with Kettle (Pentaho Data Integration) PDF Print E-mail
Written by Administrator   
Monday, 20 January 2014 07:04

Analisis data sebagai bagian dari solusi intelijen bisnis adalah kebutuhan yang semakin menuntut. Sayangnya di kebanyakan sistem transaksional, jarang data terorganisir dalam suatu agregat yang efektif dan efisien. Dalam kasus tersebut, menghasilkan laporan analitis memerlukan upaya dan waktu memakan lengkap.

Jadi, untuk berhasil membangun sebuah solusi BI yang komprehensif kita perlu untuk mengubah data transaksional kami ke dalam format ramah analitis, yaitu Dimensi Pemodelan Multi. Transformasi biasanya disimpan dalam sebuah gudang data.
Tentu saja, dalam proses data warehouse biasanya terlibat sebuah alat yang disebut ETL (Extract, Transform dan Load). Pentaho Data Integration (Kettle) adalah salah satu alat ETL yang open source dan sangat populer.
Kursus ini menyajikan ikhtisar data warehouse, multi dimensi, konsep ETL, ekstensif menggunakan Pentaho Data Integration untuk membangun solusi data warehouse yang kuat. Pendekatan praktis tentu saja ini melibatkan banyak kasus kita hadapi sebelumnya, sehingga peserta akan mendapatkan keterampilan yang sangat berharga dari menghadiri kelas.

Tujuan :
- Setelah  menyelesaikan kursus ini, peserta dapat:
- Memahami konsep dan topik Gudang Data,
- Pemodelan Dimensi,
- OLAP dan ETL Pentaho Data Integration Gunakan untuk membangun pekerjaan sederhana / -      transformasi data dari sumber Mengkonsumsi beberapa data
- Bangunan Mengisi Fakta dan Dimensi tabel
- Masalah pekerjaan
- teknik Jadwal / transformasi

Minggu I

1.   Introduction to Data Warehouse ; Data Warehouse, Online Transaction Processing (OLTP) and Online Analytical Processing (OLAP), Data Warehouse and OLAP, Delivery Solution with ETL (Extract,Transform,Load) Tool

2.   Installation and Configuration ; Java Runtime Environment / Java Development Kit, Pentaho Data Integration, XAMPP Package ( Apache HTTP Server and MySQL), SQLYog- a GUI based mySQL Client, Data and Script Samples

3.   Short Introduction to MySQLMySQL Storage Engines, Administering MySQL via PHPMyAdmin, PHI-Minimart Sample Database Installation

Minggu II

1.   Pentaho Data Integration ; Introduction Kettle as Pentaho's ETL Suite, Architecture, Components, Spoon : Graphical UI Designer for job / transformation step, Pan : Command line batch script for transformation execution, Kitchen : Command line batch script for transformation execution, Carte : Cluster Server, Job / Transformation, Step / hop, Row and Meta Data, Relation between job and transformation

2.   Getting started with spoon File system and RDBMS based Repository, Spoon Development Environment, Database Connection, Job and Transformation, Creating Job, Creating Transformation, Calling Transformation from job, Data Warehouse with Kettle (Pentaho Data Integration), PHI-Integration.com page : 5/6 halaman ? configuring log

Minggu III

1.   Multi Dimensional Modelling Normalized versus Multi Dimensional Model, Fact and Dimension Model, Star schema and Snowflake Schema, Tasks :Create a Kettle transformation to map PHI-Minimart transactional Database sample to dimensional modelling database, Create logs for each steps

2.   Change Data Capture (CDC) What is CDC ?, Why is CDC so hard that heavly relied on data source ?, SQL Server 2008's CDC feature demonstration, Tasks :Create a Kettle transformation to map PHI-Minimart transactional Database sample to dimensional modelling database, Create logs for each steps

Minggu IV

1.   Slowly Changing Dimension (SCD) Slowly changing dimension to solve master data historical problems, SCD Types, Use of Kettle's step to solve several SCD types with several schema, Insert / Update, Puch through, 

2.   Orphan / Late ArrivalWhat is late several dimension ?, Typical situations where late arrival occures, Best practice of late arrival's handling

Minggu V

1.   OLAP View of Multidimensional Data (Modrian / JPivot)Mondrian Installation, Creating Scheme based on our fact dimention tablesVien and navigate our cube using web browser

2.   Data Staging ; What is Data Staging, Background : Physical I/O versus In Memory Processing, Tasks , Data Warehouse with Kettle (Pentaho Data Integration) , PHI-Integration.com page :6/6 , Create a currency staging table to solve sequential dependence problem 
 
Minggu VI

1.    Advance Controls Environment Variables, Shared Objects, Error Handling, Email job results,Tasks, Create a dynamic tables dump using variable and looping control, Refining Existing transformations to use email alert

2.     AutomationUsing Windows Task scheduler to schedule ETL running job and Transformation

Trainer : Sumadi Eko Putra,S.Kom

Durasi pelatihan    : 36 jam / 5x pertemuan @6 jam
Biaya pendaftaran : Rp    100.000,-
Biaya pelatihan     : Rp 3.900.000,-
Fasilitas                 : Modul, sertifikat, makan siang, snack (khusus kelas malam), coffee break
Jadwal pelatihan   :  Setiap hari Sabtu / Minggu jam : 09.00-16.00 WIB
                               

Tempat pelatihan dan Pendaftaran : Jl.Raya Pasar Minggu No.15D (Sebrang Asrama Brimob / Dirjen PMD )  Telp : 021-7900022 

  

                               



Last Updated on Tuesday, 08 March 2016 03:03