YÜKSEK ENERJI FİZİĞİ VE GRID Ramazan Sever ORTA DOĞU TEKNİK ÜNİVERSİTESİ ULUSAL GRID ÇALIŞTAYI 2005 21-22 Eylül 2005, Ankara
KONULAR LHC Çarpıştırıcısı Grid ve Yüksek Enerji Fizği Grid Yapılanması Geleckteki durum
Bilgisayar Ağları, Grid ve Large Hadron Collider (LHC)
LHC the Large Hadron Collider 27 Km of magnets with a field of 8.4 Tesla Super-fluid Helium cooled to 1.9 K Two countercirculating proton beams Collision energy 7 + 7 TeV The world s largest super-conducting structure
4 büyük dedektör Depolama Veri Kayıt Hızı 0.1 1GByte/s Depolanan veri 10-14 PetaBytes/yıl ~ 20 milyon CD ATLAS Gerekli İşlem gücü En hızlı 100,000 kişisel bilgisayar CMS LHCb
LHC DATA 1Megabyte(1MB)A digital Photo 40 million collisions per second After filtering, 100 collisions of interest per second 1 Gigabyte(1GB) A DVD Movie A Megabyte of data digitised for each collision 1 Terabyte(1 TB)=1000GB = recording rate of 0.1 Gigabyte/sec World Annual book production 10 to 10 collisions recorded each year =10 Petabytes/year of data 1 Petabyte(1PB) Annual production of one LHC exp. 1 Exabyte(1EB)=1000 PB World annual Information production
TİPİK BİR OLAY İlk Hali Son hali
Bilgi işlem zorlukları: Petabytes, Petaflops Temel Zorluklar: Uzaktan haberleşme ve işbirliği Küresel veri ve bilgi işlem gücünün yönetilmesi Ortak yazılım geliştirilmesi ve fiziksel analizler
SORUNUN NEDENI VE SONUC
Çözüm Daha önce birbirinden bağımsız çalışan bilgi işlem merkezlerinin artık bağlanarak birlikte çalışmalarının sağlanması. İşbirliği yapan kuruluşların bilgi işlem kaynaklarını da birleştirmeleri. Yani GRID Ağ Kapasitesi Merkezler arasında 10-40 Gbps bağlantılar
Grid Nedir? World Wide Web yoluyla farklı coğrafyalardaki milyonlarca bilgisayarda bulunan bilgiye limitsiz ve sınırsız ulaşıyoruz Dünya üstündeki bilgi işlem gücü ve veriye sınırsız ulaşmanın yolu olan yeni altyapının adıysa Grid dir Grid adı elektrik güç dağıtım sisteminden gelmektedir.
Grid Nedir? Kaynakların (işlem güçü, depo, veri...) esnek, güvenli, eşgüdümlü olarak, kişi ve kuruluşlar tarafından paylaşımı. Ortak hedeflere ulaşmak üzere çalışan grupların (sanal organizasyonlar), coğrafik olarak dağıtık kaynakları paylaşması; Bunu yaparken Merkez Merkezi kontrol Herşeyi bilen kişiler Güvene dayalı ilişkiler olmayacağını bilmesi.
LHC Data Grid Hierarchy CERN/Outside Resource Ratio ~1:2 Tier0/(Σ Tier1)/(Σ Tier2) ~1:1:1 ~PByte/sec Online System 100-400 MBytes/sec Tier 1: 10 GpsG IN2P3 Center Tier 2: 2.5/10 INFN Center RAL Center Gbps Tier 3: ~2.5 Gbps Tier 4: 0.1 1 Gbps CERN 700k SI95 ~1 PB Disk; Tape Robot Tier 0 +1 FNAL: 200k SI95; 600 TB Tier2 Center Institute ~0.25TIPS Physics data cache Tier2 Center Institute Workstations Institute Workstations
LHC Computing Model Uni x Lab m CERN Tier 1 Lab a Uni a UK USA Tier3 physics department France Tier 1 Tier2 Uni n CERN Tier 0 Italy. Desktop γ. Lab b β α Germany Lab c Uni y Uni b
Lab m Uni x Uni a CERN Tier 1 Lab a UK USA Fizik Bölümü Tier2 Italy γ France Tier 1 α CERN Tier 0. Lab b β Uni n Japan Germany Lab c Uni y Uni b
CPU GEREKSİNİMİ 350 300 LHCb-Tier-2 CMS-Tier-2 ATLAS-Tier-2 ALICE-Tier-2 LHCb-Tier-1 CMS-Tier-1 ATLAS-Tier-1 ALICE-Tier-1 LHCb-CERN CMS-CERN ATLAS-CERN ALICE-CERN MSI2000 250 200 150 100 50 0 2007 2008 2009 Year 2010
DİSK GEREKSİNİMİ 160 140 LHCb-Tier-2 CMS-Tier-2 ATLAS-Tier-2 ALICE-Tier-2 LHCb-Tier-1 CMS-Tier-1 ATLAS-Tier-1 ALICE-Tier-1 LHCb-CERN CMS-CERN ATLAS-CERN ALICE-CERN 120 PB 100 80 60 40 20 0 2007 2008 2009 Year 2010
TEYP GEREKSİNİMİ 160 140 LHCb-Tier-1 PB 120 CMS-Tier-1 100 ATLAS-Tier-1 80 ALICE-Tier-1 LHCb-CERN 60 CMS-CERN 40 ATLAS-CERN 20 0 2007 ALICE-CERN 2008 2009 Year 2010
Kullanım Modları T1-T1 ve T1-T2 arasında arka plan veri değişimi dağıtımı Uç birimlerden T1 ve T2 merkezlerine verilen analiz işlerinde veri ve işlem gücü Kaotik ve talep üzerine T0 dan T1 e veri transferi Buffered real-time
Bilgisayar ağ ı altyapı hedefleri Ağ altyapısının grid uygulamalarına neredeyse saydam hale getirilmesi Ne kadar başarılabilecek??? Yüksek hızlı Ağ (WAN) çalıştırılması (50-100 Gbps) Daha iyi LAN (WAN dan daha hızlı?) Sınırsız LAN WAN bağlantıları Firewall ne olacak??? Şu anda neredeyiz: bellekten belleğe: 6.5Gbps disk ten disk e: 400MB/s (Linux), 1.2MB/s (Windows 2003 server/newisys)
The LHC Computing Grid Project Two phases Phase 1 2002-04 Development and prototyping Approved by CERN Council 20 September 2001 Phase 2 2005-07 Installation and operation of the full world-wide initial production Grid
The LHC Computing Grid Project Phase 1 Goals Prepare the LHC computing environment provide the common tools and infrastructure for the physics application software establish the technology for fabric, network and grid management (buy, borrow, or build) develop models for building the Phase 2 Grid validate the technology and models by building progressively more complex Grid prototypes operate a series of data challenges for the experiments maintain reasonable opportunities for the re-use of the results of the project in other fields Deploy a 50% model* production GRID including the committed LHC Regional Centres Produce a Technical Design Report for the full LHC Computing Grid to be built in Phase 2 of the project
Funding of Phase 1 at CERN Funding for R&D activities at CERN during 2002-2004 partly through special contributions from member and associate states Major funding people and materials - from United Kingdom as part of PPARC s GridPP project Italy INFN Personnel and some materials at CERN also promised by Austria, Belgium, Bulgaria, Czech Republic, France, Germany, Greece, Hungary, Israel, Spain, Switzerland Industrial funding CERN openlab European Union Datagrid, DataTag Funded so far - all of the personnel, ~1/3 of the materials
Areas of Work Computing System Physics Data Management Fabric Management Physics Data Storage LAN Management Wide-area Networking Security Internet Services Grid Technology Grid middleware Scheduling Data Management Monitoring Error Detection & Recovery Standard application services Applications Support & Coordination Application Software Infrastructure libraries, tools Object persistency, data models Common Frameworks Simulation, Analysis,.. Adaptation of Physics Applications to Grid environment Grid tools, Portals Grid Deployment Data Challenges Integration of the Grid & Physics Environments Regional Centre Coordination Network Planning Grid Operations