7.11.2005 Seminář CESNET 1 Zpracování dat v částicové fyzice Jiří Chudoba FZÚ AV ČR.

Slides:



Advertisements
Podobné prezentace
PLAYBOY Kalendar 2007.
Advertisements

CIT Paměti Díl X.
© 2000 VEMA počítače a projektování spol. s r. o..
Deník veřejné knihovny na rok 2009 Změny v evidenci činnosti knihoven.
MIGRACE SYSTÉMU ALEPH A IMPLEMENTACE PRIMO V KNIHOVNĚ ANTONÍNA ŠVEHLY Setkání uživatelů Aleph, Brno Veronika Synková (ÚZEI KAŠ), Martin.
EGEE is a project funded by the European Union under contract IST Využití EGEE infrastruktury pro zpracování dat ve fyzice vysokých energií.
Česko-vlámská spolupráce v subnukleární fyzice od r.2004
Produkce odpadů 2002 – 2007 obce ORP Šumperk
Regionální výpočetní centrum pro fyziku částic Farma Goliáš
Status farmy Goliáš Jan Švec, Farma goliáš nyní ● LP1000r 2xPIII-1.13 GHz 512k 1GB RAM 18GB SCSI HDD (34 ks) ● 10TB (1 + 9) diskové kapacity.
Zpracování dat – superpočítačové výkony na běžných procesorech Fyzikální ústav AV ČR.
EGEE is a project funded by the European Union under contract IST Využití EGEE infrastruktury pro zpracování dat ve fyzice vysokých energií.
*Zdroj: Průzkum spotřebitelů Komise EU, ukazatel GfK. Ekonomická očekávání v Evropě Březen.
49. mistrovství světa ve zpracování textu na počítači
MINISTRANTI NAPAJEDLA
Magnetohydrodynamický (MHD) generátor
PROGRAM PRO VÝUKU T ČLÁNKU
Problémy fyzikálního vzděláváníJ.Burešová HST Problémy fyzikálního vzdělávání HST at CERN Ženeva 2.− Jana Burešová.
AutorMgr. Lenka Závrská Anotace Očekávaný přínos Tematická oblastOperace s reálnými čísly Téma PředmětMatematika RočníkPrvní Obor vzděláváníUčební obory.
INFSO-RI Enabling Grids for E-sciencE Použití farmy SKURUT v roce 2004 Jiří Chudoba, Lukáš Fiala, Miloš Lokajíček, Jiří Kosina,
INTERNET.
Dynamické rozvozní úlohy
Násobíme . 4 = = . 4 = = . 4 = = . 2 = 9 .
Kdo chce být milionářem ?
Vizualizace projektu větrného parku Stříbro porovnání variant 13 VTE a menšího parku.
Dělení se zbytkem 3 MODERNÍ A KONKURENCESCHOPNÁ ŠKOLA
MODERNÍ A KONKURENCESCHOPNÁ ŠKOLA reg. č.: CZ.1.07/1.4.00/ Základní škola, Šlapanice, okres Brno-venkov, příspěvková organizace Masarykovo nám.
VY_32_INOVACE_ 14_ sčítání a odčítání do 100 (SADA ČÍSLO 5)
Lukáš Fiala FZÚ AV ČR. Dnešní stav seminář CESNETu - Sezimovo Ústí2 střed hvězdy je Cisco C6503 na CESNETu vyhrazená GN2 lambda pro spoj do.
MAGNET – NOVÁ ŘADA PROGRAMŮ TOPCON
Status farmy Goliáš Jan Švec, Farma goliáš nyní ● LP1000r 2xPIII-1.13 GHz 512k 1GB RAM 18GB SCSI HDD (34 ks) ● 10TB (1 + 9) diskové kapacity.
Získávání informací Získání informací o reálném systému
Projekt PŘEDPOVĚĎ POČASÍ. projekt PŘEDPOVĚĎ POČASÍ.
Dělení se zbytkem 6 MODERNÍ A KONKURENCESCHOPNÁ ŠKOLA
Dělení se zbytkem 5 MODERNÍ A KONKURENCESCHOPNÁ ŠKOLA
METROPOLITNÍ PŘENOSOVÝ SYSTÉM
pit – CAD 2011 Nové funkce a rozšíření Strana: 1www.pitsoftware.cz /

Čtení myšlenek Je to až neuvěřitelné, ale skutečně je to tak. Dokážu číst myšlenky.Pokud mne chceš vyzkoušet – prosím.
Univerzita Karlova v Praze PEDAGOGICKÁ FAKULTA Středisko vzdělávací politiky Malátova 17, Praha 5 Tel.:
Název materiálu: OPAKOVÁNÍ 1.POLOLETÍ - OTÁZKY
Zásady pozorování a vyjednávání Soustředění – zaznamenat (podívat se) – udržet (zobrazit) v povědomí – představit si – (opakovat, pokud se nezdaří /doma/)
EGEE is a project funded by the European Union under contract IST Gridy a související aktivity v CR Jiří Kosina Seminář projektu EGEE,
, 14 hod.,FZÚ m Diskuze o stavu a rozvoji výpočetních služeb sekce 1 –Změny v roce 1997 M.Lokajíček 5’ –Status služby HP J. Krásová 20’
Cvičná hodnotící prezentace Hodnocení vybraného projektu 1.
Slide 1 A Free sample background from © 2003 By Default! Jiří Kůsa Testování propustnosti síťového firewallu.
Projekt PŘEDPOVĚĎ POČASÍ. projekt PŘEDPOVĚĎ POČASÍ.
EDITOR BY: SPRESS 15. ledna ledna ledna 2015.
Fyzikální týden, FJFI ČVUT, Praha, 2009
TILECAL Kalorimetr pro experiment ATLAS Určen k měření energie částic vzniklých při srážkách protonů na urychlovači LHC Budován ve velké mezinárodní spolupráci.
ATLAS Computing Jiří Chudoba Fyzikální ústav AV ČR, v.v.i.
Fyzika 2 – ZS_3 OPTIKA.
Název materiálu: OPAKOVÁNÍ 1.POLOLETÍ - OTÁZKY
Jazyk vývojových diagramů
E-knihovna pro knihovníky Seminář E-knihy III, NTK,
Aplikace DVB-T Český Telecom, a.s.. 2 Agenda DVB-T MHP Platforma ČTc DVB-T MHP Platforma ČTc – aplikace Shrnutí cílů společnsti Český Telecom, a.s.
1 © Mediaresearch, a.s., 2008 NetMonitor a AdMonitoring Výsledky za říjen 2008.
Přednost početních operací
Dostupné z Metodického portálu ISSN: , financovaného z ESF a státního rozpočtu ČR. Provozováno Výzkumným ústavem pedagogickým v Praze.
Copyright (C) 1999 VEMA počítače a projektování, spol. s r.o.1 Lucián Piller Intranet HR.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Distribuce dat experimentu ATLAS Jiří Chudoba.
EGEE is a project funded by the European Union under contract IST Gridové projekty LCG a D0 v ČR Jiří Kosina Fyzikální ústav AV ČR Seminář.
Vývoj výpočetního modelu
Challenges pro METACentrum. Hlavní úkoly Plná integrace různých přístupů k řízení Gridů –Mezinárodní projekty (EGEE) Rozvoj bezpečnostně orientovaného.
Návrh nákupu nákladných přistrojů v roce 2004 Zvýšení výkonu linuxové farmy GOLIÁŠ pro zpracování dat.
LCG2 LCG2 software Jiří Kosina. LCG2 – přehled ●... některé slajdy budou podobné loňským... ● ● GRID, který bude sloužit ke zpracování.
Fyzika elementárních částic
Detektor ALFA-ATLAS v CERNu
Distribuovaná Analýza ATLAS dat
Transkript prezentace:

Seminář CESNET 1 Zpracování dat v částicové fyzice Jiří Chudoba FZÚ AV ČR

Seminář CESNET Obsah Projekt LHC Projekt LHC Zpracování dat v minulosti Zpracování dat v minulosti Objemy dat, motivace pro GRID Objemy dat, motivace pro GRID Zapojení pracovišť v ČR Zapojení pracovišť v ČR Rozsáhlé testy Rozsáhlé testy

Seminář CESNET LHC Large Hadron Collider Large Hadron Collider CERN, Ženeva CERN, Ženeva Tunel po předchozím urychlovači LEP Tunel po předchozím urychlovači LEP Proton-proton TeV, √s=14 TeV Proton-proton TeV, √s=14 TeV olovo-olovo √s=1150 TeV Předpokládané spuštění: 2007 Předpokládané spuštění: 2007 Obvod 27 km, 100 m pod zemí Obvod 27 km, 100 m pod zemí

Seminář CESNET Experimenty ATLAS, CMS – „velké“ univerzální ATLAS, CMS – „velké“ univerzální ALICE – těžké ionty ALICE – těžké ionty LHCb – b fyzika LHCb – b fyzika Obrovské v rozměrech i v počtech vyčítaných kanálů

Seminář CESNET ATLAS detektor

Seminář CESNET ALICE detektor

Seminář CESNET Zpracování dat v minulosti „Fotografický“ záznam drah po srážce částic drah po srážce částic  jaderné emulze  bublinové komory „Ruční“ zpracování Studium málo častých jevů si vyžádalo přechod k elektronickému záznamu signálů. Zvyšování počtu a četnosti vyčítání kanálů.

Seminář CESNET Zpracování dat z LEP Large Electron Positron Collider Large Electron Positron Collider 1989 – – experimenty (v každém asi 1000 lidí) 4 experimenty (v každém asi 1000 lidí) Zpracování: „Vše v CERN“ Zpracování: „Vše v CERN“ úložiště dat úložiště dat společné hromadné zpracování společné hromadné zpracování individuální analýza individuální analýza Postupně Postupně simulace i v jiných centrech simulace i v jiných centrech analýza redukovaných dat na pracovních stanicích (Data Summary Tape: FullDST, LongDST, MiniDST, MikroDST) analýza redukovaných dat na pracovních stanicích (Data Summary Tape: FullDST, LongDST, MiniDST, MikroDST) Nutnost sdílení informací motivací pro WWW Nutnost sdílení informací motivací pro WWW

Seminář CESNET léta - LEP Střediskové počítače IBM, VAX, alfanumerické terminály, přechod na RISCové stanice s UNIX, nakonec farmy PC s Linuxem, data většinou na páskách Střediskové počítače IBM, VAX, alfanumerické terminály, přechod na RISCové stanice s UNIX, nakonec farmy PC s Linuxem, data většinou na páskách Windows 95 Windows NT WGS and PLUS CERNVM VXCERN Počet interaktivních uživatelů za týden,

Seminář CESNET Srážky v LEP Poslední vícejetový případ v DELPHI Poslední mnohasprškový případ z experimentu DELPHI, 2000

Seminář CESNET Higgsův boson v detektoru Atlas

Seminář CESNET Au + Au; 5 TeV/u; b=5 fm UrQMD movies, 1 simulovaný a rekonstruovaný případ: 2 GB, 20h CPU

Seminář CESNET Centrální srážka Pb-Pb v ALICE det. (část)

Seminář CESNET Požadavky na systém Každý uživatel (fyzik) musí mít přístup ke všem datům daného experimentu Každý uživatel (fyzik) musí mít přístup ke všem datům daného experimentu Rychlá odezva pro interaktivní práci nad částí dat Rychlá odezva pro interaktivní práci nad částí dat Dávkové úlohy pro zpracování velkých kolekcí dat Dávkové úlohy pro zpracování velkých kolekcí dat Systém sám ví, kde jsou data a kde je nejvýhodnější úlohy zpracovávat Systém sám ví, kde jsou data a kde je nejvýhodnější úlohy zpracovávat

Seminář CESNET Simulace, Rekonstrukce, Analýza Simulace: Simulace: Malý vstup, velký výstup Malý vstup, velký výstup Velké nároky na CPU Velké nároky na CPU Oficiální software pro všechny úlohy Oficiální software pro všechny úlohy Rekonstrukce: Rekonstrukce: Mnoho dat na vstupu, méně na výstupu Mnoho dat na vstupu, méně na výstupu Oficiální software Oficiální software Analýza: Analýza: Na vybrané zlomky dat Na vybrané zlomky dat Každý uživatel může mít jiný software Každý uživatel může mít jiný software Výsledky “brzy” Výsledky “brzy”

Seminář CESNET Plány pro LHC Data na geograficky vzdálených místech Data na geograficky vzdálených místech Distribuované zpracování dat Distribuované zpracování dat Vysokorychlostní sítě pro přenos dat Vysokorychlostní sítě pro přenos dat Transparentní přístup ke všem datům musí zajistit grid middleware Transparentní přístup ke všem datům musí zajistit grid middleware Farmy levných PC s OS Linux Farmy levných PC s OS Linux Software v C++, python, perl Software v C++, python, perl

Seminář CESNET Tier-0 – CERN Nabírání a prvotní zpracování dat Nabírání a prvotní zpracování dat Distribuce dat do Tier-1 Distribuce dat do Tier-1 Tier-2 – ~100 center ve více než 30 zemích Simulace a Individuální analýza – dávkové i interaktivní úlohy Hierarchická síť výpočetních center Canada – Triumf (Vancouver) France – IN2P3 (Lyon) Germany – Forschunszentrum Karlsruhe Italy – CNAF (Bologna) Netherlands – NIKHEF/SARA (Amsterdam) Nordic countries – distributed Tier-1 Spain – PIC (Barcelona) Taiwan – Academia SInica (Taipei) UK – CLRC (Oxford) US – FermiLab (Illinois) – Brookhaven (NY) Tier-1 centra Zpracovaní dat (reprocesing) Zpracovaní dat (reprocesing) Úložiště dat Úložiště dat Analýzy pro velké celky dat Analýzy pro velké celky dat Národní či regionální podpora pro Tier-2 Národní či regionální podpora pro Tier-2

Seminář CESNET Tier-2 centra Zhruba polovina Tier-2 je aktivní Tier-3 základní prostředky pro koncové uživatele na univerzitách a jiných vědeckých pracovištích

Seminář CESNET Objemy dat - ATLAS Naměřená data Naměřená data Jedna kopie v Tier0 a jedna v alespoň jednom Tier1 na páskáchJedna kopie v Tier0 a jedna v alespoň jednom Tier1 na páskách ročně asi 3 PB = 3*10 6 GB (1.6 MB/případ, 2*10 9 případů)ročně asi 3 PB = 3*10 6 GB (1.6 MB/případ, 2*10 9 případů) ESD (Event Summary Data) – rekonstruované případy s podrobnou informací z detektoru ESD (Event Summary Data) – rekonstruované případy s podrobnou informací z detektoru 0.5 MB/případ, 1 PB/rok0.5 MB/případ, 1 PB/rok 2 kopie v některých Tier1 dostupné na disku2 kopie v některých Tier1 dostupné na disku AOD (Analysis Object Data) – rekonstruované fyzikální objekty (částice, spršky), pro analýzu „koncovým uživatelem“ AOD (Analysis Object Data) – rekonstruované fyzikální objekty (částice, spršky), pro analýzu „koncovým uživatelem“ 0.1 MB/případ, 180 TB/rok0.1 MB/případ, 180 TB/rok 1 kopie v každém Tier1, 1 kopie sdílená v přiřazených Tier2 centrech1 kopie v každém Tier1, 1 kopie sdílená v přiřazených Tier2 centrech Simulace: Simulace: Stejná struktura jako pro reálná data, asi 20% objemu reálných datStejná struktura jako pro reálná data, asi 20% objemu reálných dat 1 srážka při vysoké luminositě (obsahuje průměrně 23 případů) 7.5 MB, 8000 SI2000 s CPU1 srážka při vysoké luminositě (obsahuje průměrně 23 případů) 7.5 MB, 8000 SI2000 s CPU Poznámka o jednotkách SPECInt2000: PIV Xeon 3.2 GHz = 1200 SI2000

Seminář CESNET Přenosy dat Odhadované nároky na přenosy dat mezi Tier0 a Tier1 centry, pouze pro experiment ATLAS

Seminář CESNET Datové toky Tier1 – Tier2 2 – 3 krát ročně kopie AOD z Tier1 do Tier2 simulovaná data z Tier2 do Tier1, průběžný tok tok generovaný úlohami uživatelů

Seminář CESNET Probíhající příprava Zapojení pracovišť v ČR Zapojení pracovišť v ČR Zkušenosti ze současných experimentů Zkušenosti ze současných experimentů Rozsáhlé testy: Rozsáhlé testy: Data ChallengesData Challenges Service ChallengesService Challenges

Seminář CESNET Zapojené prostředky v ČR FZÚ: Farma GOLIÁŠ FZÚ: Farma GOLIÁŠ Téměř 100 dvouprocesorových strojů, Xeon 3.06 GHz a PIII 1.13GHz, 1-4 GB RAMTéměř 100 dvouprocesorových strojů, Xeon 3.06 GHz a PIII 1.13GHz, 1-4 GB RAM 40 TB disková kapacita40 TB disková kapacita 1Gb/s síť v kritických bodech, 100 Mb/s zbytek1Gb/s síť v kritických bodech, 100 Mb/s zbytek Připravuje se rozšířeníPřipravuje se rozšíření CESNET: Farma Skurut (část) CESNET: Farma Skurut (část) 33x 2CPU, PIII700 MHz33x 2CPU, PIII700 MHz Linux, PBSPro (Torque + Maui na skurut), LCG(gLite) - EGEE middleware, Linux, PBSPro (Torque + Maui na skurut), LCG(gLite) - EGEE middleware, SAM (D0 „grid“), AliEn SAM (D0 „grid“), AliEn

Seminář CESNET Experimentální optické propojení FZÚUKÚJFČVUT CERNFERMILAB CESNET AMSTERODAM CHICAGO CzechLight StarLight NetherLight

Seminář CESNET Urychlovač Tevatron FERMILAB (USA) Proton – antiproton TeV Experimenty D0 a CDF Objev top kvarku v roce 1995

Seminář CESNET D0 simulace rokpřípadyúlohyobjem dat [GB] Podíl farmy ve FZÚ: Všechna generovaná data se přenáší do FERMILAB přímou linkou 1 Gb/s poskytnutou CESNET

Seminář CESNET D0 reprocesing 2005 Zpracování případů verzí p17, stav k Opakovaná rekonstrukce (reprocesing) 11 farem 250 TB dat CPU roků pomocí SAMGRID

Seminář CESNET ATLAS Data Challenges DC1 v roce 2002: DC1 v roce 2002: Předem určené rozdělení úloh na farmyPředem určené rozdělení úloh na farmy Na každé farmě lokální ATLAS expert instaloval sw a spouštěl úlohyNa každé farmě lokální ATLAS expert instaloval sw a spouštěl úlohy Velké rozdíly v době zpracování přidělené sady úlohVelké rozdíly v době zpracování přidělené sady úloh DC2 + Rome production: DC2 + Rome production: Použity 3 různé GridyPoužity 3 různé Gridy LCG (LHC Computing Grid) 17 zemí, 51 farem LCG (LHC Computing Grid) 17 zemí, 51 farem GRID3 (US) – 19 farem GRID3 (US) – 19 farem NorduGrid – 7 zemí, 14 farem NorduGrid – 7 zemí, 14 farem CELKEM: 22 zemí, 84 farem

Seminář CESNET ATLAS – Produkční systém 2004, 2005 LCGNGGrid3LSF LCG exe LCG exe NG exe G3 exe LSF exe super prodDB dms RLS jabber soap jabber Don Quijote Windmill Lexor AMI Capone Dulcinea

Seminář CESNET Testy v takovém velkém rozsahu odhalily mnoho problémů, které se při menších zatíženích neprojeví Přesto se podařilo generovat a zpracovat plánovaných 8,5 miliónů případů v úlohách CZ = GOLIÁŠ + SKURUT

Seminář CESNET Service Challenge Testuje distribuci dat z CERN na disky a pásky Tier-1 center Testuje distribuci dat z CERN na disky a pásky Tier-1 center Nejen propustnost sítí, ale i funkčnost a spolehlivost serverů a celých center včetně doby reakce na poruchu Nejen propustnost sítí, ale i funkčnost a spolehlivost serverů a celých center včetně doby reakce na poruchu

Seminář CESNET Urychlovač LHC bude spuštěn za necelé Urychlovač LHC bude spuštěn za necelé 2 roky 2 roky Současné testy odhalují mnoho problémů, ale také ukazují, že přijatý model distribuovaného zpracování dat je realizovatelný Současné testy odhalují mnoho problémů, ale také ukazují, že přijatý model distribuovaného zpracování dat je realizovatelný Už jsme si přivykli na spolehlivé vysokorychlostní přenosy dat, obdobnou infrastrukturu očekáváme od gridových projektů Už jsme si přivykli na spolehlivé vysokorychlostní přenosy dat, obdobnou infrastrukturu očekáváme od gridových projektů

Seminář CESNET KONEC

Seminář CESNET Capacity Growth from now to 2008