Prezentace se nahrává, počkejte prosím

Prezentace se nahrává, počkejte prosím

Tier2 centrum v Praze Jiří Chudoba 11.12.2009 Fyzikální ústav AV ČR, v.v.i.

Podobné prezentace


Prezentace na téma: "Tier2 centrum v Praze Jiří Chudoba 11.12.2009 Fyzikální ústav AV ČR, v.v.i."— Transkript prezentace:

1 Tier2 centrum v Praze Jiří Chudoba 11.12.2009 Fyzikální ústav AV ČR, v.v.i.

2 Jiri.Chudoba@cern.ch2 11.12.2009 Výpočetní model 1996: ATLAS Computing Technical Proposal  data: 1 PB/rok, 10 9 případů/rok, 1 MB/případ, 10 TB AOD/rok  „consider some or all of the data at a small number of regional centres“  „data accessible at the event level and even below that at the physics object level“ – considering OO DB  o ROOTu: „we may profit more from the ideas than from the code“  High-end CPU 1996: 10 SPECint95, 2005: 100 SPECint95 2002: PIII 1.13GHz: 2.58 HEPSPEC06/jádro (1 jádro) 2008: Intel E5440 (2.83GHz): 8.72 HEPSPEC06/jádro (4 jádra) Jednotky: HEP-SPEC/kSI2K = 4.00 SI2K ≅ 100 * SPECint95 / 12.1 100 SPECint95 = 12.1 SI2K =.003 HEPSPEC06

3 Jiri.Chudoba@cern.ch3 11.12.2009 Hierarchický výpočetní model 2005: ATLAS Computing Technical Design Report Tier0, 1, 2, 3 centra  10 Tier1 center  Tier2: 1/3 AOD, všechny TAG, část DPD  5*10 8 případů v 2007, 2*10 9 případů od 2008  Tier2 funkce: MC simulace fyzikální analýza zpracování dat pro kalibraci a „alignement“, studie detektorů

4 Jiri.Chudoba@cern.ch4 11.12.2009 WLCG projekt oficiální Tier2 centrum, MoU podepsáno v dubnu 2008 slíbené zdroje (verze duben 2009) 1U box Altix XE 310 se 2 servery (4 CPU celkem, 16 jader) má výkon 131 HEPSPEC06 pro ATLAS by na závazek roku 2009 stačilo 5 takových boxů

5 Jiri.Chudoba@cern.ch5 11.12.2009 Organizace zástupce v WLCG: Miloš Lokajíček investice z projektů HEPFARM (spolupráce s CERN), D0 (ML) a ÚJF (Dagmar Adamová) provoz zajišťuje Výpočetní středisko (Jiří Chudoba) ve spolupráci s dalšími odděleními ATLAS kontakt pro provoz JCh  ALICE kontakt pro provoz DA zástupce ATLAS v International Computing Board za ČR: Tomáš Davídek kontakty ve spolupracujících institucích v ČR – nejsou definovány podpora uživatelů  obecně problémy farmy: fzu@rt3.cesnet.czfzu@rt3.cesnet.cz  ATLAS specifické: není

6 Jiri.Chudoba@cern.ch6 11.12.2009 Hardware - CPU HP  Blady: BL35p (36x), BL20p (6x), BL460c (9x4 jader), BL465c (12x), HP BL 460C (10x8jader)  U1: DL140 (67x), DL145 (3x), DL360 (2x), LP1000r (34x) SGI Altix ICE 8200, infiniband  64 x 8 jader, E5420 2.5GHz, 512 GB RAM, SGI Altix XE 310  40x8 jader, E5420 2.5GHz, 640 GB RAM IBM iDataPlex dx340  84 x 8 jader, E5440 2.83GHz, 1344 GB RAM Celkem 16000 HEPSPEC06, 2 000 jader 3.8 TB RAM, 52 TB lokálních disků 6 iDataPlex ICE 8200 Typ Počet procesorů Počet jaderVýkon MFlopsRAM (GB) Intel Pentium III Xeon 70012 8 40048 Intel ® Xeon ® Processor 2.80 GHz140 392 00070 Intel ® Xeon ® Processor E5140841681 567 77684 Intel ® Xeon ® Processor E5345562242 090 368112 Intel ® Xeon ® Processor L5520642562 324 480256 CELKEM3568006 383 024570 Pro srovnání Amálka ÚFA AV ČR, 11.11.2009

7 Jiri.Chudoba@cern.ch7 11.12.2009 Příspěvky projektů poměry pro nastavení na sdílených uzlech  bez Altix ICE 8200

8 Jiri.Chudoba@cern.ch8 11.12.2009 Zvyšování efektivity CPU

9 Jiri.Chudoba@cern.ch9 11.12.2009 Hardware - Storage Diskové pole HP EVA 6100, 80 TB Disková pole Overland Ultamus 4800, 144 TB Disková pole EasySTOR, 40 TB Diskové pole VTrak M610p (CESNET), 16 TB Pásková knihovna Neo 8000, LTO4, 100 TB (max 400 TB) Celkem 280 TB disků a 100 TB pásek

10 Jiri.Chudoba@cern.ch10 11.12.2009 Síť

11 Jiri.Chudoba@cern.ch11 11.12.2009 Další infrastruktura napájení: UPS, diesel agregát chlazení: vzduchové a vodní přístup

12 Jiri.Chudoba@cern.ch12 11.12.2009 Monitorování vnitřní monitorování  nagios, ganglia, munin, weathermap, RRD grafy pro teplotu, UPS, klima, teplota, úlohy vnější monitorování  SAM – Site Availability Tests, pakiti, nagios  ATLAS úlohy a přenosy: dashboard, panda, HammerCloud tests

13 Jiri.Chudoba@cern.ch13 11.12.2009

14 Jiri.Chudoba@cern.ch14 11.12.2009

15 Jiri.Chudoba@cern.ch15 11.12.2009

16 Jiri.Chudoba@cern.ch16 11.12.2009 Porovnání dostupnosti SE na Tier2 v GridKa oblasti s Tier1 dostupnostspolehlivost

17 Jiri.Chudoba@cern.ch17 11.12.2009

18 Jiri.Chudoba@cern.ch18 11.12.2009 Využití CPU času dle projektu LRMS – Local Resource Management System PBSPro: golias, SL4 Torque: torque, SL5

19 Jiri.Chudoba@cern.ch19 11.12.2009

20 Jiri.Chudoba@cern.ch20 11.12.2009 Instalovaný ATLAS sw https://atlas-install.roma1.infn.it/atlas_install/list.php?sitename=praguelcg2 Dotaz možno pomocí ldap: ldapsearch -x -H ldap://sbdii.farm.particle.cz:2170 -b mds-vo-name=praguelcg2,o=grid nebo na dalším webu: http://goc.grid.sinica.edu.tw/gstat/praguelcg2/

21 Jiri.Chudoba@cern.ch21 11.12.2009 Dostupný prostor pro data DPM = Disk Pool Manager  jinde i dCache, CASTOR, StoRM  společný protokol SRMv2  1 head node (golias100.farm.particle.cz) a 4 disk servery lokálně (goliasx98, se4, dpmpool1, dpmpool2) a 1 vzdálený (cl5.ujf.cas.cz)  prostor organizován v poolech (heppool1, atlaspool5, augerpool1,...), pro ně je možné nastavovat přístupová práva: GROUPS atlas,atlasprd,atlas/Role=lcgadmin,atlassgm,atlas/Role=production  nověji se prostor dělí podle space tokens

22 Jiri.Chudoba@cern.ch22 11.12.2009

23 Jiri.Chudoba@cern.ch23 11.12.2009

24 Jiri.Chudoba@cern.ch24 11.12.2009

25 Jiri.Chudoba@cern.ch25 11.12.2009

26 Jiri.Chudoba@cern.ch26 11.12.2009 Aktuální stav Token Desc. Pool # Files Total Size (GB) ------------------------------------------------------------ ATLASDATADISK heppool1 40096 6563.71 ATLASHOTDISK heppool1 14883 637.09 ATLASLOCALGROUPDISK heppool1 95 241.51 ATLASMCDISK heppool1 15177 6532.44 ATLASPRODDISK heppool1 9228 331.94 ATLASSCRATCHDISK heppool1 9131 363.91 AUGERPROD augerpool1 13135 959.06

27 Jiri.Chudoba@cern.ch27 11.12.2009 Pro CZ uživatele Přístup přes grid stejně jako ostatní /atlas/cz skupina – mohli bychom nastavit vyšší priority pro úlohy (zatím není), máme vyhrazený prostor v DPM ATLASLOCALGROUPDISK lokální přístup:  ui2, ui3 – stroje s afs, SL4, posílání do PBSPro  ui5 pod SL5 se připravuje, úlohy pod Torque  návod na lokální analýzu sepsala Jarka Schovancová: http://www-hep2.fzu.cz/twiki/bin/view/ATLAS/LocalBatchJobs

28 Jiri.Chudoba@cern.ch28 11.12.2009 Dostupná data automatická replikace části dat http://dashb-atlas-data.cern.ch/dashboard/request.py/dataset?site=PRAGUELCG2_DATADISK run 142065 z 8.12. večer se srážkami při energii 2.38 TeV formulář pro žádosti o replikaci http://panda.cern.ch:25980/server/pandamon/query?mode=ddm_req

29 Jiri.Chudoba@cern.ch29 11.12.2009 Analýza Testů analýzy STEP09  testy probíhaly na přelomu května a června  přenos dat z Tier1 OK  špatné výsledky při testu analýzy, mnoho spadlých úloh, dlouhé časy důvody  přetížený disk server, který hostil data  malá kapacita síťového spojení Následné pravidelné testy pomocí HC pomohly lépe nastavit prostředí pro analýzu

30 Jiri.Chudoba@cern.ch30 11.12.2009 Disk space under DPM 1 dpm head node golias100 ATLAS tokens defined on pool heppool1  3 disk servers: se3 (goliasx98), se4, dpmpool1 dpmpool2 added this week  ATLASMCDISK 10 TB during tests (now 20 TB)

31 Jiri.Chudoba@cern.ch31 11.12.2009 MOU April 2009 numbers 2009: 1504 HEP-SPEC06, 72 TB  ATLAS: 624 HEP-SPEC06, 37 TB 78 cores (8 HEP-SPEC06/core) 2010: 2548 HEP-SPEC06, 201 TB

32 Jiri.Chudoba@cern.ch32 11.12.2009 Test 525

33 Jiri.Chudoba@cern.ch33 11.12.2009 Test 525 V době testu právě probíhal i přenos top DS z FZK. Vytížená dedikovaná 1Gbps linka. dpmpool1 se3 Dále v průběhu testu „spadl“ diskový server se3, po rebootu zůstaly nějakou dobu neodhaleny některé chybné procesy

34 Jiri.Chudoba@cern.ch34 11.12.2009

35 Jiri.Chudoba@cern.ch35 11.12.2009

36 Jiri.Chudoba@cern.ch36 11.12.2009 dpmpool1 se3 se4 3x1Gbps Maximální vytížení přenosové kapacity

37 Jiri.Chudoba@cern.ch37 11.12.2009 Test 531

38 Jiri.Chudoba@cern.ch38 11.12.2009 HammerCloud testy 915 a 916, WMS + File Stager – 12h from 27.11.2009 to 28.11.2009 – Submitted jobs: 11452 – Input Datasets: mc08.*merge.AOD.e*_s*_r6*tid*

39 Jiri.Chudoba@cern.ch39 11.12.2009 UAT User Analysis Test Rozsáhlý test podobný HC testům, ale se skutečnými uživateli Proběhl 28.-30.10.2009 https://twiki.cern.ch/twiki/bin/view/Atlas/UserAnalysisTest Příprava: distribuce DS, 10 TB do FZU  uat09.00000103.jetStream_medcut.merge.AOD.a84/ (DS103) 7000 souborů, 9946 GB  přeneseno za 29 hodin,  průměr 800 Mbps, maxima 2 Gbps  z FZK (6.4 TB), DESY 3.6 TB) a Gottingen (.9 TB)

40 Jiri.Chudoba@cern.ch40 11.12.2009

41 Jiri.Chudoba@cern.ch41 11.12.2009

42 Jiri.Chudoba@cern.ch42 11.12.2009 Shrnutí Tier2 centrum ve FZÚ poskytuje potřebné služby pro ATLAS a ALICE experimenty Nepřetržitý provoz je zajišťován malým počtem pracovníků  důležité spolehlivé monitorovací nástroje Kapacita přístupná všem členům ATLAS, českým uživatelům můžeme zvýšit priority Další zvýšení kapacity od počátku roku 2010


Stáhnout ppt "Tier2 centrum v Praze Jiří Chudoba 11.12.2009 Fyzikální ústav AV ČR, v.v.i."

Podobné prezentace


Reklamy Google