02.10.2017 tarihinde Ankara Ataköşk Hotel'de Ceph Türkiye adına yapılan ilk meetup'a ait kayıt. Dr. Hüseyin ÇOTUK tarafından yapılan sunum süresince aşağıdaki konular ele alınmıştır.
İlk Bakışta Ceph
Geleneksel Depolama Mimarisi
Dağıtık Depolama Mimarisi
Diğer Dağıtık Depolama Çözümleri ile Karşılaştırmalar
Neden Ceph?
Dünyada Ceph Kullanımı
OpenStack'te Depolama Alternatifleri
Neden OpenStack ve Ceph?
2. Gündem
• İlk Bakışta Ceph
• Geleneksel Depolama Mimarisi
• Dağıtık Depolama Mimarisi
• Diğer Depolama Sistemleri ile
Karşılaştırmalar
• Neden Ceph?
• Dünyada Ceph
• OpenStack’te Depolama Alternatifleri
• Neden OpenStack + Ceph?
• Soru/Cevap
3. İlk Bakışta Ceph
• Açık kaynak kodlu
• Donanım bağımsız, yazılım tabanlı
• Exabyte ölçeğinde tasarım
• Distributed object store
• Unified (Object, Block, FS desteği)
• Metadata sunucusu yok (CRUSH)
• Copy-on-write cloning
• Thin provisioning
• Snapshot, clone
• Mirroring
• Replika veya Erasure Coding (EC)
11. RAID Devrinin Sonu
●
30 yıldır her türlü yük çalışıyor
●
Disk boyutları arttıkça uzun recovery time, yüksek
hesaplama gücü, ciddi performans etkisi
●
Birden fazla disk bozulduğunda hata toleransı düşük
●
Yedek diskler atıl bekliyor
●
Aynı RAID grubundaki (RG) disklerin birbiri ile aynı
tip ve özellikte olması gerek
●
RAID kartlarının maliyetleri yüksek (TCO)
●
Sistemin büyümesi kartlara bağlı
●
RAID gruplarına eklenecek disk sayısı sınırlı
●
Veri bütünlüğü aynı raf/RG içerisinde mümkün
●
Gelişmiş özellikler için gereken lisans maliyetleri
13. Diğer DD Çözümleri ile Karşılaştırmalar
●
GPFS
– Ticari (IBM), maliyeti yüksek
– Entegrasyon zor, sınırlı arayüz desteği
●
HDFS
– Blok depolama yok
– POSIX uyumlu değil
– HA desteği yok (single NameNode)
– Az sayıda büyük dosya saklamaya elverişli
●
Lustre
– Metadata problemi (performans, risk)
– Çok sayıda küçük boyutlu dosya saklamaya uygun değil
– Sunucu arızasını tespit eden mekanizma yok (Client farklı sunucuya
bağlanmak zorunda)
●
GlusterFS
– Sistem yöneticisinin farklı coğrafi lokasyon için strateji üretmesi gerekir
– Blok depolama desteği yok (plugin gerektirir)
14. Ceph vs Swift
●
Swift
– Transfer hızı ve gecikme problemi (proxy
servers)
– Blok ve dosya depolama yok
– Asenkron, verinin eski sürümüne erişme riski
(eventual consistency)
– Max nesne büyüklüğü 5 GB
●
Ceph
– Multi-region desteği (master-slave)
– Replica yönetimi
– OpenStack entegrasyonu mümkün
– S3, Swift API uyumlu
19. Neden Ceph?
●
Ücretsiz
●
Donanım bağımsız
●
Esnek, ölçeklenebilir (exabyte scale)
●
Hata toleransı yüksek (dağıtık mimari)
●
Yüksek performans
●
Hızlı recovery
●
Unified (OS, BS, FS)
●
Gelişmiş özellikler (mirroring, replication)
●
Erasure coding opsiyonu
●
Hibrid çalışabilme (sunucu, disk)
●
Multi region desteği
●
S3, Swift API uyumlu
29. Bonus: Luminuous Yenilikler
●
OSD için BlueStore mekanizması
●
Ceph-mgr daemon (kurulum)
●
CephFS için birden fazla aktif MDS desteği
●
“ceph status (ceph -s)” çıktısına eklemeler
●
S3 bucket lifecycle API eklemesi
●
Geliştirilmiş kararlılık
●
Pool etiketleri
●
RGW metadata search
●
“Upgrade complete ?” kontrolü
●
Basit web arayüzlü dashboard
30. Ceph Benchmark: Optimizasyon Öncesi
1 fio + 4 farklı pool rbd bench + 3 node cephfs üzerinden
dd aynı anda çalıştırılıp throughput ölçümü (4.372 GB/sn)
31. Ceph Benchmark: Optimizasyon Sonrası
1 fio + 4 farklı pool rbd bench + 3 node cephfs üzerinden
dd aynı anda çalıştırılıp throughput ölçümü (6.521 GB/sn)
32. Yaklaşan Etkinlikler
●
Ceph Türkiye 2. Meetup
11.10.2017 Saat:19:30
İstanbul YTE Davutpaşa
Kampüsü Teknoparkı, A1 Blok
●
OpenStack Days İstanbul
17.10.2017 Saat:09:00
Levent Wyndham Hotel İstanbul
●
TÜBİTAK 1.Ulusal Bulut Bilişim ve Büyük
Veri Sempozyumu B3S'17
19-20 Ekim 2017 Antalya
33. Soru / Cevap
●
Teşekkürler
●
Dr. Hüseyin ÇOTUK
– http://www.huseyincotuk.com
– huseyin@huseyincotuk.com
– https://twitter.com/huseyin_cotuk
●
Meetup davet / sunum / salon
●
Sorular