Eğitim İçeriği

Günlük konuların dökümü: (Her oturum 2 saattir)

1. Gün: Oturum-1: Business Telekomünikasyonda Big Data Business Intelligence'ye Genel Bakış.

  • T-Mobile, Verizon vb.'den örnek olaylar.
  • Kuzey Amerika Telekomünikasyonunda Big Data adaptasyon oranı ve gelecekteki iş modellerini ve operasyonlarını Big Data BI etrafında nasıl uyarladıkları.
  • Geniş Ölçekli Uygulama Alanları
  • Ağ ve Hizmet Yönetimi
  • Müşteri Kaybı Management
  • Data Integration & Gösterge Panosu görselleştirmesi
  • Sahtekarlık Yönetimi
  • Business Kural Oluşturma
  • Müşteri Profili Oluşturma
  • Yerelleştirilmiş Reklam İtme

1. Gün: Oturum-2: Big Data-1'e Giriş

  • Big Data'nın ana özellikleri - hacim, çeşitlilik, hız ve doğruluk. Hacim için MPP mimarisi.
  • Data Warehouse'ler – statik şema, yavaşça gelişen veri seti
  • MPP Database'ler: Greenplum, Exadata, Teradata, Netezza, Vertica vb.
  • Hadoop Tabanlı Çözümler – veri setinin yapısı üzerinde herhangi bir koşul yok.
  • Tipik desen: HDFS, MapReduce (crunch), HDFS'den alma
  • Toplu – analitik/etkileşimli olmayanlar için uygundur
  • Hacim: CEP akış verileri
  • Tipik seçenekler – CEP ürünleri (örneğin Infostreams, Apama, MarkLogic vb.)
  • Üretim için daha az hazır – Storm/S4
  • NoSQL Database'ler – (sütunlu ve anahtar-değer): Veri ambarı/veritabanına analitik bir katkı olarak en uygunudur

1. Gün: Oturum-3: Big Data-2'ye Giriş

NoSQL çözümleri

  • KV Mağazası - Keyspace, Flare, SchemaFree, RAMCloud, Oracle NoSQL Database (OnDB)
  • KV Mağazası - Dynamo, Voldemort, Dynomite, SubRecord, Mo8onDb, DovetailDB
  • KV Mağazası (Hiyerarşik) - GT.m, Cache
  • KV Mağazası (Sıralı) - TokyoTyrant, Lightcloud, NMDB, Luxio, MemcacheDB, Actord
  • KV Önbelleği - Memcached, Repcached, Coherence, InfiniSpan, EXtremeScale, JBossCache, Velocity, Terracoqua
  • Tuple Mağazası - Gigaspace, Coord, Apache River
  • Nesne Database - ZopeDB, DB40, Shoal
  • Belge Mağazası - CouchDB, Cloudant, Couchbase, MongoDB, Jackrabbit, XML-Database'ler, ThruDB, CloudKit, Prsevere, Riak-Basho, Scalaris
  • Geniş Sütunlu Mağaza - BigTable, HBase, Apache Cassandra, Hypertable, KAI, OpenNeptune, Qbase, KDI

Çeşitli Veriler: Big Data'daki Data Cleaning sorununun tanıtımı

  • RDBMS – statik yapı/şema, çevik, keşif ortamını teşvik etmez.
  • NoSQL – yarı yapılandırılmış, verileri tam bir şemaya sahip olmadan saklamak için yeterli yapı.
  • Veri temizleme sorunları

1. Gün: Oturum-4: Big Data Giriş-3: Hadoop

  • Hadoop'ü ne zaman seçmelisiniz?
  • YAPILANDIRILMIŞ - Kurumsal veri ambarları/veritabanları büyük miktarda veri sakıyabilir (bir maliyetle) ancak yapı dayatır (aktif keşif için iyi değil).
  • YARI YAPILANDIRILMIŞ veri – geleneksel çözümlerle (DW/DB) yapmak zordur.
  • Verileri depolamak = büyük çaba ve uygulandıktan sonra bile statik.
  • Çeşitlilik ve hacim için, ucuz donanımda ezilen – HADOOP.
  • Hadoop Kümesi oluşturmak için ucuz H/W'ye ihtiyaç vardır.

MapReduce / HDFS'ye Giriş

  • MapReduce – hesaplamayı birden fazla sunucuya dağıtın
  • HDFS – hesaplama işlemi için verileri yerel olarak kullanılabilir hale getirin (artıklık ile).
  • Veri – yapılandırılmamış/şemasız olabilir (RDBMS'den farklı olarak).
  • Verileri anlamlandırmak geliştiricinin sorumluluğundadır.
  • Programming MapReduce = Java ile çalışma (artıları/eksileri), verileri HDFS'ye manuel olarak yükleme

2. Gün: Oturum-1.1: Spark: Bellekte dağıtılmış veritabanı

  • "Bellekte" işlemenin ne olduğu?
  • Spark SQL
  • Spark SDK
  • Spark API
  • RDD
  • Spark Lib
  • Hanna
  • Mevcut Hadoop sistemini Spark'a nasıl geçirebilirsiniz?

2. Gün Oturum -1.2: Storm - Big Data'da gerçek zamanlı işleme

  • Akışlar
  • Tomurcuklar
  • Cıvatalar
  • Topolojiler

2. Gün: Oturum-2: Büyük Data Management Sistem

  • Hareketli parçalar, hesaplama düğümleri başlatılır/başarısız olur: Zookeeper - Yapılandırma/koordinasyon/adlandırma hizmetleri için
  • Karmaşık boru hattı/iş akışı: Oozi – iş akışını, bağımlılıkları, papyon zincirini yönetin
  • Dağıtın, yapılandırın, küme yönetimi, yükseltme vb. (sys admin): Ambari
  • Bulutta: Whirr
  • Big Data platform araçları ile izleme gelişimi
  • ETL katmanı uygulama sorunları

2. Gün: Oturum-3: Business Intelligence'de Tahmini Analitik-1: Temel Teknikler ve Makine Öğrenimine Dayalı BI:

  • Makine Öğrenimine Giriş
  • Sınıflandırma tekniklerini öğrenme
  • Bayes Tahmini-eğitim dosyası hazırlama
  • Markov rastgele alanı
  • Denetimli ve denetimsiz öğrenme
  • Özellik çıkarma
  • Destek Vektör Makinesi
  • Sinir Ağı
  • Pekiştirmeli öğrenme
  • Big Data büyük değişken sorunu - Rastgele Orman (RF)
  • Temsil öğrenimi
  • Derin öğrenme
  • Big Data Otomasyon sorunu – Çok Modlu Ensemble RF
  • Yumuşak 10-M ile otomasyon
  • LDA ve konu modelleme
  • Ajan tabanlı öğrenme- Telekomünikasyon operasyonlarından örnek
  • Dağıtılmış öğrenme – Telekomünikasyon operasyonlarından örnek
  • Tahmini analitik için Açık Kaynak Araçlarına Giriş: R, Rapidminer, Mahut
  • Daha ölçeklenebilir Analitik-Apache Hama, Spark ve CMU Graph lab

2. Gün: Oturum-4 Tahmini Analitik Ekosistemi-2: Telecom'te Yaygın Tahmini Analitik Sorunları

  • İçgörüsel analitik
  • Görselleştirme analitiği
  • Yapılandırılmış tahmini analitik
  • Yapılandırılmamış tahmini analitik
  • Müşteri profili oluşturma
  • Öneri Motoru
  • Desen tespiti
  • Kural/Senaryo keşfi – arıza, sahtekarlık, optimizasyon
  • Kök neden keşfi
  • Duygu analizi
  • CRM analitiği
  • Ağ analitiği
  • Metin Analitiği
  • Teknoloji Destekli İnceleme
  • Sahtekarlık analitiği
  • Gerçek Zamanlı Analitik

3. Gün: Sesion-1: Ağ Operasyon analitiği- ağ arızalarının, meta verilerin, IPDR'nin ve CRM'nin neden olduğu hizmet kesintilerinin kök neden analizi:

  • CPU Kullanımı
  • Bellek Kullanımı
  • QoS Sıra Kullanımı
  • Cihaz Sıcaklığı
  • Arayüz Hatası
  • IoS sürümleri
  • Yönlendirme Olayları
  • Gecikme varyasyonları
  • Syslog analitiği
  • Paket Kaybı
  • Yük simülasyonu
  • Topoloji çıkarımı
  • Performans Eşiği
  • Cihaz Tuzakları
  • IPDR (IP ayrıntılı kayıt) toplama ve işleme
  • Ağ arayüzü kullanımı, modem durumu ve teşhis için IPDR verilerinin kullanımı
  • HFC bilgisi

3. Gün: Oturum-2: Ağ hizmeti arızası analizi için araçlar:

  • Ağ Özet Panosu: genel ağ dağıtımlarını izleyin ve temel performans göstergelerinizi izleyin
  • Yoğun Dönem Analizi Panosu: uygulamaları ve aboneleri yönlendiren yoğun kullanım eğilimlerini, özellikle de konum bazlı ayrıntılarla anlayın
  • Yönlendirme Verimliliği Panosu: maliyetleri kontrol edin ve sermaye projeleri için iş gerekçeleri oluşturun
  • Gerçek Zamanlı Eğlence Panosu: video görünümleri, süre ve video deneyimi (QoE) dahil olmak üzere ölçümleri izleyin
  • IPv6 Geçiş Panosu: ağınızdaki IPv6'nın benimsenmesini araştırın ve eğilimleri yönlendiren uygulamaları ve cihazları anlayın
  • Vaka Çalışması-1: Alcatel-Lucent Big Network Analytics (BNA) Veri Madencisi
  • Çok boyutlu mobil istihbarat (m.IQ6)

3. Gün: Oturum 3: Big Data BI for Marketing/Sales – Satışlardan/pazarlamadan satış verileriyle anlayış (Hepsi canlı bir tahmini analitik gösterimi ile gösterilecektir)

  • En hızlı müşterileri belirlemek
  • Bir ürün için müşterileri belirlemek
  • Bir müşteri için doğru ürün kümesini belirlemek (Öneri Motoru)
  • Pazar segmentasyonu tekniği
  • Çapraz Satış ve Yükseltme tekniği
  • Müşteri segmentasyonu tekniği
  • Satış gelirleri tahmin tekniği

3. Gün: Oturum 4: CFO ofisi için ihtiyaç duyulan BI:

  • Business Analitik çalışmalarının CFO ofisinde nasıl uygulanacağı genel bakış
  • Yeni yatırımlar için risk analizi
  • Gelir, kâr tahmini
  • Yeni müşteri edinme tahmini
  • Kayıp tahmini
  • Finanslardaki sahtekarlık analizi (detaylar bir sonraki oturumda)

4. Gün: Oturum-1: Telekomünikasyonda Big Data BI'dan Sahtekarlık Önleme, Sahtekarlık Analizi:

  • Bant genişliği sızıntısı / Bant genişliği sahtekarlığı
  • Satıcı sahtekarlığı / projeler için fazla faturalandırma
  • Müşteri geri ödeme / talepler sahtekarlığı
  • Seyahat masrafları sahtekarlığı

4. Gün: Oturum-2: Müşteri Kaybını Tahmin Etmekten Müşteri Kaybını Önlemeye:

  • 3 Tür Müşteri Kaybı: Aktif/Kasıtlı, Döngüsel/Tesadüfi, Pasif İstemsiz
  • 3 sınıflandırılmış müşteri kaybı: Toplam, Gizli, Kısmi
  • CRM değişkenlerini anlamak
  • Müşteri davranış verileri toplama
  • Müşteri algısı verileri toplama
  • Müşteri demografik verileri toplama
  • CRM Verilerini Temizleme
  • Yapılandırılmamış CRM verileri (müşteri çağrıları, biletler, e-postalar) ve müşteri kaybı analizi için yapılandırılmış verilere dönüştürülmesi
  • Social Media CRM-müşteri memnuniyet endeksini belirlemenin yeni bir yolu
  • Vaka Çalışması-1: T-Mobile USA: Müşteri kaybında %50 azalma

4. Gün: Oturum-3: Müşteri memnuniyetsizliğinin kök nedenlerini analiz etmek için tahmini analizi nasıl kullanabilirsiniz:

  • Vaka Çalışması -1: Muhasebe, mühendislik arızaları gibi hizmet kesintileri, zayıf bant genişliği hizmeti ile sorunlara bağlantı
  • Vaka Çalışması-2: Big Data QA panosu, çeşitli parametrelerden (çağrı yükseltmeleri, sorunların ciddiyeti, bekleyen hizmet kesintisi olayları vb.) müşteri memnuniyet endeksini izlemek için

4. Gün: Oturum-4: Çeşitli verilerin hızlı erişimi ve görüntülenmesi için Big Data Panosu:

  • Mevcut uygulama platformunun Big Data Panosu ile entegrasyonu
  • Big Data yönetimi
  • Big Data Panosu Vaka Çalışması: Tableau ve Pentaho
  • Konuma dayalı Reklamları göndermek için Big Data uygulamasını kullanın
  • İzleme sistemi ve yönetimi

5. Gün: Oturum-1: Big Data BI uygulamasının bir kuruluş içinde nasıl haklı çıkarılacağı:

  • Big Data uygulamasının ROI'sinin tanımlanması
  • Veri toplama ve hazırlama için analist süresini kurtarma, üretkenlik kazancı artışı üzerine vaka çalışmaları
  • Müşteri kaybından gelir kazancı üzerine vaka çalışmaları
  • Konuma dayalı ve diğer hedefli Reklamlardan elde edilen gelir
  • Big Data uygulamasından elde edilen gider/kazanç/tasarrufların yaklaşık olarak hesaplanması için entegre bir elektronik tablo yaklaşımı.

5. Gün: Oturum-2: Eski veri sistemini Big Data Sistemine geçirmek için adım adım prosedür:

  • Pratik Big Data Geçiş Yol Haritasını Anlamak
  • Big Data uygulamasının mimarisini tasarlamadan önce hangi bilgilerin gerekli olduğunu anlamak
  • Verilerin hacminin, hızının, çeşitliliğinin ve doğruluğunun nasıl hesaplanacağını anlamak
  • Veri büyümesini nasıl tahmin edebilirsiniz
  • 2 Telekomünikasyonda vaka çalışmaları

5. Gün: Oturum 3 & 4: Big Data Satıcılarının gözden geçirilmesi ve ürünlerinin gözden geçirilmesi. Soru-Cevap oturumu:

  • AccentureAlcatel-Lucent
  • Amazon –A9
  • APTEAN (Eski CDC Yazılımı)
  • Cisco Sistemler
  • Cloudera
  • Dell
  • EMC
  • GoodData Corporation
  • Guavus
  • Hitachi Data Systems
  • Hortonworks
  • Huawei
  • HP
  • IBM
  • Informatica
  • Intel
  • Jaspersoft
  • Microsoft
  • MongoDB (Eski 10Gen)
  • MU Sigma
  • Netapp
  • Opera Solutions
  • Oracle
  • Pentaho
  • Platfora
  • Qliktech
  • Quantum
  • Rackspace
  • Revolution Analytics
  • Salesforce
  • SAP
  • SAS Enstitüsü
  • Sisense
  • Software AG/Terracotta
  • Soft10 Otomasyon
  • Splunk
  • Sqrrl
  • Supermicro
  • Tableau Yazılım
  • Teradata
  • Think Big Analytics
  • Tidemark Systems
  • VMware (EMC'nin bir parçası)

Kurs İçin Gerekli Önbilgiler

  • İş operasyonları ve kendi alanlarındaki veri sistemleri konusunda temel bilgiye sahip olmalıdır Telecom.
  • SQL/Oracle veya ilişkisel veritabanları konusunda temel bir anlayışa sahip olmalıdır.
  • Statistics ( Excel seviyelerinde) konusunda temel bir anlayışa sahip olmalıdır.
 35 Saat

Katılımcı Sayısı


Kişi Başına Fiyat

Danışanlarımızın Yorumları (3)

Yaklaşan Etkinlikler

İlgili Kategoriler