Stáhnout prezentaci
Prezentace se nahrává, počkejte prosím
1
Tier2 centrum v Praze Jiří Chudoba 11.12.2009 Fyzikální ústav AV ČR, v.v.i.
2
Jiri.Chudoba@cern.ch2 11.12.2009 Výpočetní model 1996: ATLAS Computing Technical Proposal data: 1 PB/rok, 10 9 případů/rok, 1 MB/případ, 10 TB AOD/rok „consider some or all of the data at a small number of regional centres“ „data accessible at the event level and even below that at the physics object level“ – considering OO DB o ROOTu: „we may profit more from the ideas than from the code“ High-end CPU 1996: 10 SPECint95, 2005: 100 SPECint95 2002: PIII 1.13GHz: 2.58 HEPSPEC06/jádro (1 jádro) 2008: Intel E5440 (2.83GHz): 8.72 HEPSPEC06/jádro (4 jádra) Jednotky: HEP-SPEC/kSI2K = 4.00 SI2K ≅ 100 * SPECint95 / 12.1 100 SPECint95 = 12.1 SI2K =.003 HEPSPEC06
3
Jiri.Chudoba@cern.ch3 11.12.2009 Hierarchický výpočetní model 2005: ATLAS Computing Technical Design Report Tier0, 1, 2, 3 centra 10 Tier1 center Tier2: 1/3 AOD, všechny TAG, část DPD 5*10 8 případů v 2007, 2*10 9 případů od 2008 Tier2 funkce: MC simulace fyzikální analýza zpracování dat pro kalibraci a „alignement“, studie detektorů
4
Jiri.Chudoba@cern.ch4 11.12.2009 WLCG projekt oficiální Tier2 centrum, MoU podepsáno v dubnu 2008 slíbené zdroje (verze duben 2009) 1U box Altix XE 310 se 2 servery (4 CPU celkem, 16 jader) má výkon 131 HEPSPEC06 pro ATLAS by na závazek roku 2009 stačilo 5 takových boxů
5
Jiri.Chudoba@cern.ch5 11.12.2009 Organizace zástupce v WLCG: Miloš Lokajíček investice z projektů HEPFARM (spolupráce s CERN), D0 (ML) a ÚJF (Dagmar Adamová) provoz zajišťuje Výpočetní středisko (Jiří Chudoba) ve spolupráci s dalšími odděleními ATLAS kontakt pro provoz JCh ALICE kontakt pro provoz DA zástupce ATLAS v International Computing Board za ČR: Tomáš Davídek kontakty ve spolupracujících institucích v ČR – nejsou definovány podpora uživatelů obecně problémy farmy: fzu@rt3.cesnet.czfzu@rt3.cesnet.cz ATLAS specifické: není
6
Jiri.Chudoba@cern.ch6 11.12.2009 Hardware - CPU HP Blady: BL35p (36x), BL20p (6x), BL460c (9x4 jader), BL465c (12x), HP BL 460C (10x8jader) U1: DL140 (67x), DL145 (3x), DL360 (2x), LP1000r (34x) SGI Altix ICE 8200, infiniband 64 x 8 jader, E5420 2.5GHz, 512 GB RAM, SGI Altix XE 310 40x8 jader, E5420 2.5GHz, 640 GB RAM IBM iDataPlex dx340 84 x 8 jader, E5440 2.83GHz, 1344 GB RAM Celkem 16000 HEPSPEC06, 2 000 jader 3.8 TB RAM, 52 TB lokálních disků 6 iDataPlex ICE 8200 Typ Počet procesorů Počet jaderVýkon MFlopsRAM (GB) Intel Pentium III Xeon 70012 8 40048 Intel ® Xeon ® Processor 2.80 GHz140 392 00070 Intel ® Xeon ® Processor E5140841681 567 77684 Intel ® Xeon ® Processor E5345562242 090 368112 Intel ® Xeon ® Processor L5520642562 324 480256 CELKEM3568006 383 024570 Pro srovnání Amálka ÚFA AV ČR, 11.11.2009
7
Jiri.Chudoba@cern.ch7 11.12.2009 Příspěvky projektů poměry pro nastavení na sdílených uzlech bez Altix ICE 8200
8
Jiri.Chudoba@cern.ch8 11.12.2009 Zvyšování efektivity CPU
9
Jiri.Chudoba@cern.ch9 11.12.2009 Hardware - Storage Diskové pole HP EVA 6100, 80 TB Disková pole Overland Ultamus 4800, 144 TB Disková pole EasySTOR, 40 TB Diskové pole VTrak M610p (CESNET), 16 TB Pásková knihovna Neo 8000, LTO4, 100 TB (max 400 TB) Celkem 280 TB disků a 100 TB pásek
10
Jiri.Chudoba@cern.ch10 11.12.2009 Síť
11
Jiri.Chudoba@cern.ch11 11.12.2009 Další infrastruktura napájení: UPS, diesel agregát chlazení: vzduchové a vodní přístup
12
Jiri.Chudoba@cern.ch12 11.12.2009 Monitorování vnitřní monitorování nagios, ganglia, munin, weathermap, RRD grafy pro teplotu, UPS, klima, teplota, úlohy vnější monitorování SAM – Site Availability Tests, pakiti, nagios ATLAS úlohy a přenosy: dashboard, panda, HammerCloud tests
13
Jiri.Chudoba@cern.ch13 11.12.2009
14
Jiri.Chudoba@cern.ch14 11.12.2009
15
Jiri.Chudoba@cern.ch15 11.12.2009
16
Jiri.Chudoba@cern.ch16 11.12.2009 Porovnání dostupnosti SE na Tier2 v GridKa oblasti s Tier1 dostupnostspolehlivost
17
Jiri.Chudoba@cern.ch17 11.12.2009
18
Jiri.Chudoba@cern.ch18 11.12.2009 Využití CPU času dle projektu LRMS – Local Resource Management System PBSPro: golias, SL4 Torque: torque, SL5
19
Jiri.Chudoba@cern.ch19 11.12.2009
20
Jiri.Chudoba@cern.ch20 11.12.2009 Instalovaný ATLAS sw https://atlas-install.roma1.infn.it/atlas_install/list.php?sitename=praguelcg2 Dotaz možno pomocí ldap: ldapsearch -x -H ldap://sbdii.farm.particle.cz:2170 -b mds-vo-name=praguelcg2,o=grid nebo na dalším webu: http://goc.grid.sinica.edu.tw/gstat/praguelcg2/
21
Jiri.Chudoba@cern.ch21 11.12.2009 Dostupný prostor pro data DPM = Disk Pool Manager jinde i dCache, CASTOR, StoRM společný protokol SRMv2 1 head node (golias100.farm.particle.cz) a 4 disk servery lokálně (goliasx98, se4, dpmpool1, dpmpool2) a 1 vzdálený (cl5.ujf.cas.cz) prostor organizován v poolech (heppool1, atlaspool5, augerpool1,...), pro ně je možné nastavovat přístupová práva: GROUPS atlas,atlasprd,atlas/Role=lcgadmin,atlassgm,atlas/Role=production nověji se prostor dělí podle space tokens
22
Jiri.Chudoba@cern.ch22 11.12.2009
23
Jiri.Chudoba@cern.ch23 11.12.2009
24
Jiri.Chudoba@cern.ch24 11.12.2009
25
Jiri.Chudoba@cern.ch25 11.12.2009
26
Jiri.Chudoba@cern.ch26 11.12.2009 Aktuální stav Token Desc. Pool # Files Total Size (GB) ------------------------------------------------------------ ATLASDATADISK heppool1 40096 6563.71 ATLASHOTDISK heppool1 14883 637.09 ATLASLOCALGROUPDISK heppool1 95 241.51 ATLASMCDISK heppool1 15177 6532.44 ATLASPRODDISK heppool1 9228 331.94 ATLASSCRATCHDISK heppool1 9131 363.91 AUGERPROD augerpool1 13135 959.06
27
Jiri.Chudoba@cern.ch27 11.12.2009 Pro CZ uživatele Přístup přes grid stejně jako ostatní /atlas/cz skupina – mohli bychom nastavit vyšší priority pro úlohy (zatím není), máme vyhrazený prostor v DPM ATLASLOCALGROUPDISK lokální přístup: ui2, ui3 – stroje s afs, SL4, posílání do PBSPro ui5 pod SL5 se připravuje, úlohy pod Torque návod na lokální analýzu sepsala Jarka Schovancová: http://www-hep2.fzu.cz/twiki/bin/view/ATLAS/LocalBatchJobs
28
Jiri.Chudoba@cern.ch28 11.12.2009 Dostupná data automatická replikace části dat http://dashb-atlas-data.cern.ch/dashboard/request.py/dataset?site=PRAGUELCG2_DATADISK run 142065 z 8.12. večer se srážkami při energii 2.38 TeV formulář pro žádosti o replikaci http://panda.cern.ch:25980/server/pandamon/query?mode=ddm_req
29
Jiri.Chudoba@cern.ch29 11.12.2009 Analýza Testů analýzy STEP09 testy probíhaly na přelomu května a června přenos dat z Tier1 OK špatné výsledky při testu analýzy, mnoho spadlých úloh, dlouhé časy důvody přetížený disk server, který hostil data malá kapacita síťového spojení Následné pravidelné testy pomocí HC pomohly lépe nastavit prostředí pro analýzu
30
Jiri.Chudoba@cern.ch30 11.12.2009 Disk space under DPM 1 dpm head node golias100 ATLAS tokens defined on pool heppool1 3 disk servers: se3 (goliasx98), se4, dpmpool1 dpmpool2 added this week ATLASMCDISK 10 TB during tests (now 20 TB)
31
Jiri.Chudoba@cern.ch31 11.12.2009 MOU April 2009 numbers 2009: 1504 HEP-SPEC06, 72 TB ATLAS: 624 HEP-SPEC06, 37 TB 78 cores (8 HEP-SPEC06/core) 2010: 2548 HEP-SPEC06, 201 TB
32
Jiri.Chudoba@cern.ch32 11.12.2009 Test 525
33
Jiri.Chudoba@cern.ch33 11.12.2009 Test 525 V době testu právě probíhal i přenos top DS z FZK. Vytížená dedikovaná 1Gbps linka. dpmpool1 se3 Dále v průběhu testu „spadl“ diskový server se3, po rebootu zůstaly nějakou dobu neodhaleny některé chybné procesy
34
Jiri.Chudoba@cern.ch34 11.12.2009
35
Jiri.Chudoba@cern.ch35 11.12.2009
36
Jiri.Chudoba@cern.ch36 11.12.2009 dpmpool1 se3 se4 3x1Gbps Maximální vytížení přenosové kapacity
37
Jiri.Chudoba@cern.ch37 11.12.2009 Test 531
38
Jiri.Chudoba@cern.ch38 11.12.2009 HammerCloud testy 915 a 916, WMS + File Stager – 12h from 27.11.2009 to 28.11.2009 – Submitted jobs: 11452 – Input Datasets: mc08.*merge.AOD.e*_s*_r6*tid*
39
Jiri.Chudoba@cern.ch39 11.12.2009 UAT User Analysis Test Rozsáhlý test podobný HC testům, ale se skutečnými uživateli Proběhl 28.-30.10.2009 https://twiki.cern.ch/twiki/bin/view/Atlas/UserAnalysisTest Příprava: distribuce DS, 10 TB do FZU uat09.00000103.jetStream_medcut.merge.AOD.a84/ (DS103) 7000 souborů, 9946 GB přeneseno za 29 hodin, průměr 800 Mbps, maxima 2 Gbps z FZK (6.4 TB), DESY 3.6 TB) a Gottingen (.9 TB)
40
Jiri.Chudoba@cern.ch40 11.12.2009
41
Jiri.Chudoba@cern.ch41 11.12.2009
42
Jiri.Chudoba@cern.ch42 11.12.2009 Shrnutí Tier2 centrum ve FZÚ poskytuje potřebné služby pro ATLAS a ALICE experimenty Nepřetržitý provoz je zajišťován malým počtem pracovníků důležité spolehlivé monitorovací nástroje Kapacita přístupná všem členům ATLAS, českým uživatelům můžeme zvýšit priority Další zvýšení kapacity od počátku roku 2010
Podobné prezentace
© 2024 SlidePlayer.cz Inc.
All rights reserved.