YÜKSEK ENERJI FİZİĞİF İĞİ VE GRID Ramazan Sever ORTA DOĞU TEKNİK ÜNİVERSİTESİ ULUSAL GRID ÇALIŞTAYI 2005 21-22 Eylül 2005, Ankara
KONULAR LHC Çarpıştırıcısı Grid ve Yüksek Enerji Fizği Grid Yapılanması Geleckteki durum
Bilgisayar AğlarA ları, Grid ve Large Hadron Collider (LHC)
LHC the Large Hadron Collider 27 Km of magnets with a field of 8.4 Tesla Super-fluid Helium cooled to 1.9 K Two countercirculating proton beams Collision energy 7 + 7 TeV The world s largest super-conducting structure
4 büyük dedektör Depolama Veri Kayıt Hızı 0.1 1GByte/s Depolanan veri 10-14 PetaBytes/yıl ~ 20 milyon CD ATLAS Gerekli İşlem gücü En hızlı 100,000 kişisel bilgisayar LHCb CMS
LHC DATA 40 million collisions per second After filtering, 100 collisions of interest per second A Megabyte of data digitised for each collision = recording rate of 0.1 Gigabyte/sec 10 to 10 collisions recorded each year =10 Petabytes/year of data 1Megabyte(1MB)A digital Photo 1 Gigabyte(1GB) A DVD Movie 1 Terabyte(1 TB)=1000GB World Annual book production 1 Petabyte(1PB) Annual production of one LHC exp. 1 Exabyte(1EB)=1000 PB World annual Information production
TİPİK BİR OLAY İlk Hali Son hali
Bilgi işlem i zorlukları: : Petabytes, es, Petaflops Temel Zorluklar: Uzaktan haberleşme ve işbirlii birliği Küresel veri ve bilgi işlem i gücünün g n yönetilmesiy Ortak yazılım m geliştirilmesi ve fiziksel analizler
SORUNUN NEDENI VE SONUC
Çözüm Daha önce birbirinden bağı ğımsız çalışan bilgi işlem i merkezlerinin artık k bağlanarak birlikte çalışmalarının n sağlanmas lanması. İşbirli birliği i yapan kuruluşlar ların n bilgi işlem i kaynaklarını da birleştirmeleri. Yani GRID Ağ Kapasitesi Merkezler arasında 10-40 Gbps bağlant lantılarlar
Grid Nedir? World Wide Web yoluyla farklı coğrafyalardaki milyonlarca bilgisayarda bulunan bilgiye limitsiz ve sınırsız z ulaşı şıyoruz Dünya üstündeki bilgi işlem i gücüg ve veriye sınırss rsız z ulaşman manın n yolu olan yeni altyapının n adıysa Grid dir dir Grid adı elektrik güçg dağı ğıtım sisteminden gelmektedir.
Grid Nedir? Kaynakların n (işlem güçüg üçü,, depo, veri...) esnek, güvenli, g eşgüdümlü olarak, kişi i ve kuruluşlar lar tarafından paylaşı şımı. Ortak hedeflere ulaşmak üzere çalışan grupların n (sanal organizasyonlar), coğrafik olarak dağı ğıtık k kaynakları paylaşmas ması; ; Bunu yaparken Merkez Merkezi kontrol Herşeyi eyi bilen kişiler iler Güvene dayalı ilişkiler olmayacağı ğını bilmesi.
LHC Data Grid Hierarchy ~PByte/sec Online System CERN/Outside Resource Ratio ~1:2 Tier0/(Σ Tier1)/(Σ Tier2) ~1:1:1 100-400 MBytes/sec Tier 1: 10 GpsG Tier 0 +1 CERN 700k SI95 ~1 PB Disk; Tape Robot IN2P3 Center RAL Center INFN Center FNAL: 200k SI95; 600 TB Tier 2: 2.5/10 Gbps Tier2 Center Tier2 Center Tier 3: ~2.5 Gbps Institute ~0.25TIPS Institute Institute Physics data cache Tier 4: 0.1 1 Gbps Workstations Workstations
LHC Computing Model Uni x Lab m Lab a USA CERN Tier 1 UK Uni a Tier3 physics department Tier2 Tier 1 Italy CERN Tier 0 France. Uni n Desktop γ Lab b. Germany Lab c β α Uni y Uni b
Uni x Lab m Lab a USA CERN Tier 1 UK Uni a Fizik Bölümü Tier2 Tier 1 France Uni n Italy CERN Tier 0 Japan γ Lab b. Germany Lab c β α Uni y Uni b
CPU GEREKSİNİMİ 350 MSI2000 300 250 200 150 100 50 LHCb-Tier-2 CMS-Tier-2 ATLAS-Tier-2 ALICE-Tier-2 LHCb-Tier-1 CMS-Tier-1 ATLAS-Tier-1 ALICE-Tier-1 LHCb-CERN CMS-CERN ATLAS-CERN ALICE-CERN 0 2007 2008 2009 2010 Year
DİSK GEREKSİNİMİ 160 PB 140 120 100 80 60 40 20 LHCb-Tier-2 CMS-Tier-2 ATLAS-Tier-2 ALICE-Tier-2 LHCb-Tier-1 CMS-Tier-1 ATLAS-Tier-1 ALICE-Tier-1 LHCb-CERN CMS-CERN ATLAS-CERN ALICE-CERN 0 2007 2008 2009 2010 Year
TEYP GEREKSİNİMİ 160 140 PB 120 100 80 60 40 20 0 2007 2008 2009 2010 Year LHCb-Tier-1 CMS-Tier-1 ATLAS-Tier-1 ALICE-Tier-1 LHCb-CERN CMS-CERN ATLAS-CERN ALICE-CERN
Kullanım Modlar ları T1-T1 ve T1-T2 T2 arasında arka plan veri değişimi imi dağı ğıtımı Uç birimlerden T1 ve T2 merkezlerine verilen analiz işlerinde i veri ve işlem i gücüg Kaotik ve talep üzerine T0 dan T1 e e veri transferi Buffered real-time time
Bilgisayar ağ ıa altyapı hedefleri Ağ altyapısının n grid uygulamalarına neredeyse saydam hale getirilmesi Ne kadar başar arılabilecek??? Yüksek hızlh zlı Ağ (WAN) çalıştırılması (50-100 Gbps) Daha iyi LAN (WAN dan daha hızlh zlı?) Sınırsız z LAN WAN bağlant lantıları Firewall ne olacak??? Şu u anda neredeyiz: bellekten belleğe: : 6.5Gbps disk ten disk e: : 400MB/s (Linux), 1.2MB/s (Windows 2003 server/newisys)
The LHC Computing Grid Project Two phases Phase 1 2002-04 Development and prototyping Approved by CERN Council 20 September 2001 Phase 2 2005-07 Installation and operation of the full world-wide initial production Grid
The LHC Computing Grid Project Phase 1 Goals Prepare the LHC computing environment provide the common tools and infrastructure for the physics application software establish the technology for fabric, network and grid management (buy, borrow, or build) develop models for building the Phase 2 Grid validate the technology and models by building progressively more complex Grid prototypes operate a series of data challenges for the experiments maintain reasonable opportunities for the re-use of the results of the project in other fields Deploy a 50% model * production GRID including the committed LHC Regional Centres Produce a Technical Design Report for the full LHC Computing Grid to be built in Phase 2 of the project
Funding of Phase 1 at CERN Funding for R&D activities at CERN during 2002-2004 partly through special contributions from member and associate states Major funding people and materials - from United Kingdom as part of PPARC s GridPP project Italy INFN Personnel and some materials at CERN also promised by Austria, Belgium, Bulgaria, Czech Republic, France, Germany, Greece, Hungary, Israel, Spain, Switzerland Industrial funding CERN openlab European Union Datagrid, DataTag Funded so far - all of the personnel, ~1/3 of the materials
Areas of Work Computing System Physics Data Management Fabric Management Physics Data Storage LAN Management Wide-area Networking Security Internet Services Grid Technology Grid middleware Scheduling Data Management Monitoring Error Detection & Recovery Standard application services Applications Support & Coordination Application Software Infrastructure libraries, tools Object persistency, data models Common Frameworks Simulation, Analysis,.. Adaptation of Physics Applications to Grid environment Grid tools, Portals Grid Deployment Data Challenges Integration of the Grid & Physics Environments Regional Centre Coordination Network Planning Grid Operations