23. 2. 2004seminář CESNET2 Masarykova kolej 1 Výpočty ve fyzice částic - projekt ATLAS M. Lokajíček Fyzikální ústav AV ČR.

Slides:



Advertisements
Podobné prezentace
PLAYBOY Kalendar 2007.
Advertisements

EGEE is a project funded by the European Union under contract IST Využití EGEE infrastruktury pro zpracování dat ve fyzice vysokých energií.
VN zdroj pro TILECAL vila Lanna
Česko-vlámská spolupráce v subnukleární fyzice od r.2004
Senior IT operations manager
Specializovaná databáze pro výzkum astronomie a astrofyziky Mgr. Radka Svaškova, Astronomický ústav AVČR, v. v.i.
Produkce odpadů 2002 – 2007 obce ORP Šumperk
Knihovny současnosti 2011, České Budějovice 13. – 15. září 2011
Deset let inovační politiky Jihomoravského kraje Rámec konkurenceschopnosti města Ostravy 24. leden 2012 Petr Chládek.
Regionální výpočetní centrum pro fyziku částic Farma Goliáš
Status farmy Goliáš Jan Švec, Farma goliáš nyní ● LP1000r 2xPIII-1.13 GHz 512k 1GB RAM 18GB SCSI HDD (34 ks) ● 10TB (1 + 9) diskové kapacity.
Zpracování dat – superpočítačové výkony na běžných procesorech Fyzikální ústav AV ČR.
EGEE is a project funded by the European Union under contract IST Využití EGEE infrastruktury pro zpracování dat ve fyzice vysokých energií.
Degradační procesy Magnetické vlastnosti materiálů přehled č.1
poskytujeme služby v oblasti ochrany majetku a osob (EZS, EPS, CCTV …) od roku 2004 poskytujeme služby v oblasti logistiky a zabezpečení vozidel (systém.
Centrum výzkumu a využití obnovitelných zdrojů energie (CVVOZE) Regionální výzkumné centrum.
SUPERBEL Projekt elektromobilu Škoda Superb. Partneři projektu Škoda Auto a.s. Vysoké učení technické v Brně, FEKT, CVIS Sdružení Elektromobily EVC group.
Magnetohydrodynamický (MHD) generátor
Problémy fyzikálního vzděláváníJ.Burešová HST Problémy fyzikálního vzdělávání HST at CERN Ženeva 2.− Jana Burešová.
Lego Mindstorms Martin Flusser.
INFSO-RI Enabling Grids for E-sciencE Aktuální způsob využití EGEE zdrojů Jan Kmuníček Pokročilý seminář EGEE, 16. prosince 2004.
INFSO-RI Enabling Grids for E-sciencE Použití farmy SKURUT v roce 2004 Jiří Chudoba, Lukáš Fiala, Miloš Lokajíček, Jiří Kosina,
Vila Lanna, 20. prosince 2005Václav Vrba, Fyzikální ústav, AV ČR Vývoj detektorů zpráva o činnosti v r FzU AV ČR V.Jurka, J.Popule, J.Řídký, P.Šícho,
Přínosy virtualizace a privátního cloudu
Siemens PLM Software © Siemens Product Lifecycle Management Software Inc. All rights reserved Využití CAM Express pro řízení obráběcích strojů a.
Dynamické rozvozní úlohy
EurOpen Chudenice Fyzika částic a současné experimenty na urychlovačích Miloš Lokajíček.
Kalibrační křivka, produkce charmu v EAS
Lukáš Fiala FZÚ AV ČR. Dnešní stav seminář CESNETu - Sezimovo Ústí2 střed hvězdy je Cisco C6503 na CESNETu vyhrazená GN2 lambda pro spoj do.
Status farmy Goliáš Jan Švec, Farma goliáš nyní ● LP1000r 2xPIII-1.13 GHz 512k 1GB RAM 18GB SCSI HDD (34 ks) ● 10TB (1 + 9) diskové kapacity.
:09Ohlédnutí 2004M.Bazalová Analýza dat z test beamu Magdaléna Bazalová.
Mapa zájmu - plány.
Hodnocení vědy a výzkumu za využití InCites
Dělení se zbytkem 5 MODERNÍ A KONKURENCESCHOPNÁ ŠKOLA
M O R A V S K O S L E Z S K Ý K R A J 1 Vedení správních řízení ve spisové službě a statistika vyřizování dokumentů.
METROPOLITNÍ PŘENOSOVÝ SYSTÉM
Seminář CESNET 1 Zpracování dat v částicové fyzice Jiří Chudoba FZÚ AV ČR.
Bezpečnost na platformě Microsoft & Petr Hartmann Solution Specialist Microsoft.
Spolupráce lokálních institucí Seminář Komunitní role veřejných knihoven ZLÍN
ČESKÉ VYSOKÉ UČENÍ TECHNICKÉ V PRAZE Fakulta strojní, Ústav mechaniky Biomedicínské a rehabilitační inženýrství Technická 4, Praha 6 PREZENTACE.
EGEE is a project funded by the European Union under contract IST Gridy a související aktivity v CR Jiří Kosina Seminář projektu EGEE,
Poradenské systémy ve vybraných členských zemích EU (CIFAS projekt) European Environment Agency.
, 14 hod.,FZÚ m Diskuze o stavu a rozvoji výpočetních služeb sekce 1 –Změny v roce 1997 M.Lokajíček 5’ –Status služby HP J. Krásová 20’
RPS/CSF Budoucnost politiky HSS / Cohesion Policy Česká republika 2004>2006 Rámec podpory Společenství Ministerstvo pro místní rozvoj.
Cvičná hodnotící prezentace Hodnocení vybraného projektu 1.
Meta.cesnet.cz METACentrum – Český národní gridový projekt Projekt METACentrum Jan Kmuníček ÚVT MU & CESNET.
TILECAL Kalorimetr pro experiment ATLAS Určen k měření energie částic vzniklých při srážkách protonů na urychlovači LHC Budován ve velké mezinárodní spolupráci.
NetSuite – snídaně. Agenda NetSuite snídaně – obsah, význam, vize Český balíček DPH v roce 2015 Uživatelské nastavení prostředí NS, vývojové nástroje,
INFSO-RI Enabling Grids for E-sciencE Charon Extension Layer (CEL) Jan Kmuníček CESNET.
Vývoj kvality ovzduší v České republice
ATLAS Computing Jiří Chudoba Fyzikální ústav AV ČR, v.v.i.
VII. Neutronová interferometrie II. cvičení KOTLÁŘSKÁ 7. DUBNA 2010 F4110 Kvantová fyzika atomárních soustav letní semestr
Název materiálu: OPAKOVÁNÍ 1.POLOLETÍ - OTÁZKY
Podpora a rozvoj komunikační infrastruktury ISVS Ing. Lubomír Moravčík
EGEE je projekt financován Evropskou Unií (smlouva IST ) Použití EGEE v dalších vědeckých disciplínách Jan Kmuníček podpora uživatelů a aplikací.
Strana: 1 © Vema, a. s. Ucelené řešení pro řízení lidských zdrojů, ekonomiky a logistiky.
© 2006 Cisco Systems, Inc. All rights reserved.Cisco PublicITE I Chapter 6 1 LAN Design LAN Switching and Wireless – Chapter 1.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Distribuce dat experimentu ATLAS Jiří Chudoba.
EGEE is a project funded by the European Union under contract IST Gridové projekty LCG a D0 v ČR Jiří Kosina Fyzikální ústav AV ČR Seminář.
ATLAS UPGRADE PHASE II (ITK) A ČESKÁ REPUBLIKA Z. Doležal, A. Kupčo.
Challenges pro METACentrum. Hlavní úkoly Plná integrace různých přístupů k řízení Gridů –Mezinárodní projekty (EGEE) Rozvoj bezpečnostně orientovaného.
Základní rozdělení činností v podnikové informatice
Návrh nákupu nákladných přistrojů v roce 2004 Zvýšení výkonu linuxové farmy GOLIÁŠ pro zpracování dat.
LCG2 LCG2 software Jiří Kosina. LCG2 – přehled ●... některé slajdy budou podobné loňským... ● ● GRID, který bude sloužit ke zpracování.
Fyzika elementárních částic
S CENARIO - BASED METHODOLOGY FOR COMPARISON OF THE SOFTWARE TRAFFIC CONTROL AGENTS Seminář DSS – Richard Lipka.
, Referát o diplomové práci, UČJFZdeňka Broklová Simulace stripových detektorů ATLAS SCT v prostředí ATHENA Referát o diplomové práci Vedoucí.
Výzkumné infrastruktury pro CERN Miroslav Havránek Vila Lanna, Praha Setkání CZ HEP komunity 2015.
Distribuovaná Analýza ATLAS dat
Transkript prezentace:

seminář CESNET2 Masarykova kolej 1 Výpočty ve fyzice částic - projekt ATLAS M. Lokajíček Fyzikální ústav AV ČR

seminář CESNET2 Masarykova kolej 2 Úvod Experimenty ve fyzice částic Výpočetní nároky na příkladu experimentu ATLAS na LHC v CERN Účast na mezinárodních výpočetních projektech - GRID Domácí infrastruktura pro výpočty Závěr

Experimenty částicové fyziky a výpočetní nároky Hlavní centra –CERN skončen program LEP příprava programu LHC urychlovač p-p 7+7 TeV experimenty ATLAS, ALICE, CMS, LHCb –FERMILAB běžící program Tevatron, anti-p–p, 1+1 TeV experimenty D0 a CDF objev top kvarku v 1995

seminář CESNET2 Masarykova kolej 4 CERN ATLAS

Urychlovač LHC (Large Hadron Collider) –obvod 27 km –100 m pod zemí –vstřícné svazky protonů TeV, lumiinosita cm -2 s -1 –bunch (shluk) protonů –srážky každých 25 ns, tj.40 MHz bunche 7.5 m za sebou při rychlosti světla –při srážce bunchů 23 srážek proton- proton současně –spuštění 2007

Detektor ATLAS –délka 44 m výška 26 m váha tun –současný stav podzemní haly –části detektorů postupně dopravovány, spouštěny jeřábem a instalovány –webové kamery a počítačové simulace instalace na tlas/TCOORD/Activities/T cOffice/Scheduling/Install ation/ATLASinstallation.ht ml či sekvence z webových obrázků: hep.fzu.cz/fialal/atlasbuild / tlas/TCOORD/Activities/T cOffice/Scheduling/Install ation/ATLASinstallation.ht ml hep.fzu.cz/fialal/atlasbuild /

seminář CESNET2 Masarykova kolej 7 proton Vnitřní detektor (měření drah částic) Kalorimetry (měření energie částic a jetů) Detektor mionů Supravodivé magnety

8 Spolupráce ATLAS (Status říjen 2004) Albany, Alberta, NIKHEF Amsterdam, Ankara, LAPP Annecy, Argonne NL, Arizona, UT Arlington, Athens, NTU Athens, Baku, IFAE Barcelona, Belgrade, Bergen, Berkeley LBL and UC, Bern, Birmingham, Bonn, Boston, Brandeis, Bratislava/SAS Kosice, Brookhaven NL, Bucharest, Cambridge, Carleton/CRPP, Casablanca/Rabat, CERN, Chinese Cluster, Chicago, Clermont-Ferrand, Columbia, NBI Copenhagen, Cosenza, INP Cracow, FPNT Cracow, Dortmund, JINR Dubna, Duke, Frascati, Freiburg, Geneva, Genoa, Glasgow, LPSC Grenoble, Technion Haifa, Hampton, Harvard, Heidelberg, Hiroshima, Hiroshima IT, Indiana, Innsbruck, Iowa SU, Irvine UC, Istanbul Bogazici, KEK, Kobe, Kyoto, Kyoto UE, Lancaster, Lecce, Lisbon LIP, Liverpool, Ljubljana, QMW London, RHBNC London, UC London, Lund, UA Madrid, Mainz, Manchester, Mannheim, CPPM Marseille, MIT, Melbourne, Michigan, Michigan SU, Milano, Minsk NAS, Minsk NCPHEP, Montreal, FIAN Moscow, ITEP Moscow, MEPhI Moscow, MSU Moscow, Munich LMU, MPI Munich, Nagasaki IAS, Naples, Naruto UE, New Mexico, Nijmegen, Northern Illinois, BINP Novosibirsk, Ohio SU, Okayama, Oklahoma, LAL Orsay, Oslo, Oxford, Paris VI and VII, Pavia, Pennsylvania, Pisa, Pittsburgh, CAS Prague, CU Prague, TU Prague, IHEP Protvino, Ritsumeikan, UFRJ Rio de Janeiro, Rochester, Rome I, Rome II, Rome III, Rutherford Appleton Laboratory, DAPNIA Saclay, Santa Cruz UC, Sheffield, Shinshu, Siegen, Simon Fraser Burnaby, Southern Methodist Dallas, NPI Petersburg, Stockholm, KTH Stockholm, Stony Brook, Sydney, AS Taipei, Tbilisi, Tel Aviv, Thessaloniki, Tokyo ICEPP, Tokyo MU, Tokyo UAT, Toronto, TRIUMF, Tsukuba, Tufts, Udine, Uppsala, Urbana UI, Valencia, UBC Vancouver, Victoria, Washington, Weizmann Rehovot, Wisconsin, Wuppertal, Yale, Yerevan 151 institucí ze 34 zemí Celkem vědeckých autorů Vědečtí autoři s titulem PhD, či ekvivalentem 1 300

seminář CESNET2 Masarykova kolej 9

10 Software Project Asi 100 lidí

seminář CESNET2 Masarykova kolej 11 Tok dat a trigger (spouštění detektoru) Sytém triggeru vybere zajímavé případy srážek ze 40 MHz (s pile-up 1 GHz): –20-30 kHz po Level-1 triggeru, rozhodnutí do 2.5 μs HW - detektory mionů a kalorimetry –~2000 Hz po Level-2 triggeru, rozhodnutí do 10 ms částečná rekonstrukce – specializovaná farma (nezávisle pro jednotlivé detektory) –~160 Hz po tzv. Event Filter (“offline” rekonstrukce celého případu) rozhodnutí až několik s ~140 Hz skutečná fyzika, ~20 Hz kalibrace a monitoring –Počet kanálů detektoru ATLAS je 150 mil. Frekvence jsou téměř nezávislé na luminositě –je více „zajímavé“ fyziky než odpovídá 160 Hz dokonce při nízké luminositě –prahy triggeru budou upraveny podle luminosity “Standardni” velikost případu je 1.6 MB –z počátku může být mnohem více (7-8 MB) dokud nebude zapnuta komprese dat v kalorimetrech Nominální tok dat do offline je 250 MB/s Doba sběru dat ročně je 10 7 s (10 9 případů), ročně se nabere několik PB dat, s dalšími daty bude experiment ročně uchovávat až 10 PB

seminář CESNET2 Masarykova kolej 12 Výpočetní model experimentu ATLAS Velikosti dat: –Simulovaná data případů2.0 MB –Raw data 1.6 MB –Event Summary Data (ESD)0.5 MB –Analysis Object Data (AOD) 10 kB –TAG Data0.5 kB Další parametry: –celková frekvence záznamu případů160 Hz –Frekvence záznamu případů pro fyziku140 Hz –tok dat 250 MB/s –nominální doba sběru dat ročně 10 7 s –orientační počet případů ročně 10 9 –ročně raw dat - všech dat PB –doba/případ pro Simulaci 60 kSI2k s –doba/případ pro Rekonstrukci 6.4 kSI2k s Zpracování dat v centrech (celkem desetitisíce procesorů po celém světě) –Tier-0 – místo sběru dat – CERN –Tier-1 - velká regionální centra 6 pro ATLAS –Tier-2 - regionální centra 4 na každé Tier-1 –Tier-3 - centra spolupracujících univerzit

13 Funkce centra Tier-0 Centrum Tier-0 v CERN musí: –držet kopie všech raw dat na páskách –držet kalibrační data na discích –provést první rekonstrukci dat v reálném čase –distribuovat ESD’s externím Tier-1 (1/3 dat každému z 6 Tier-1) – neustále 2 diskové kopie Momentálně se zvažuje: –zda kopírovat v reálném čase všechna raw data do Tier-1 (druhá kopie bude užitečná pro pozdější opětovné zpracování dat - reprocessing) –zda reprocessing raw dat na Tier-0 či Tier-1 –zda skladovat pásky na policích či v automatických robotech –způsob archivace simulovaných dat –možnost sdílení výpočetních prostředků s HLT (L2) a Tier-0 Tier-0 musí být dedikované centrum, jehož výkon CPU, rychlosti toku dat na disky a pásky odpovídá frekvenci záznamu experimentálních dat

seminář CESNET2 Masarykova kolej 14 Funkce center Tier-1 a Tier-2 Předpokládáme ~6 Tier-1 center pro ATLAS. Každé bude: –drží 1/3 dat ESD a plnou kopii dat AOD a TAG –(pravděpodobně ) drží na páskách 1/6 of Raw Data –drží na disku 1/3 současně simulovaných ESD a na pásce 1/6 předchozích verzí –poskytovat služby (CPU a diskovou kapacitu) pro uživatelskou analýzu (~200 uživatelů/Tier-1) –počítat simulace, kalibrace a reprocessing skutečných dat Předpokládáme ~4 Tier-2 na každé Tier-1. Každé bude: –držet na disku plnou AOD aTAG –(pravděpodobně) držet na disku vybrané vzorky ESD –poskytovat (CPU a diskový prostor) pro uživatelskou analýzu (~50 uživatelů/Tier-2) –počítat simulace a/nebo kalibrace

Dario Barberis15 ATLAS Computing Timeline POOL/SEAL release (done) ATLAS release 7 (with POOL persistency) (done) LCG-1 deployment (in progress) ATLAS complete Geant4 validation (in progress) ATLAS release 8 DC2 Phase 1: simulation production DC2 Phase 2: intensive reconstruction (the real challenge!) Combined test beams (barrel wedge) Computing Model paper ATLAS Computing TDR and LCG TDR DC3: produce data for PRR and test LCG-n Computing Memorandum of Understanding (moved to end 2004?) Physics Readiness Report Start commissioning run GO! NOW

seminář CESNET2 Masarykova kolej 16 Data Challenge 2 test systému zpracování dat DC2 v roce 2004: –distribuovaná produkce >10 7 simulovaných případů, duben – červen 2004 –případy (raw data) poslat do CERN do Tier-0 –(pravděpodobně) “rychlý” alignment/kalibrace a (určitě) rekonstrukce dat na prototypu Tier-0 během krátké doby (~10 dní, “10% test toku dat”) –výsledky rekonstrukce distribuovat do center Tier-1 a provést analýzu na Gridu Nový software (vzhledem k DC1 v 2002/2003): –simulace Geant4, pile-up a digitalizace v Athena –nový SW pro správu dat a popis detektoru –POOL persistence –gridová infrastruktura projektu LCG-1/2 –produkce a analýza dat v distribuovaném prostředí

17 DC2: Scenario & Time scale September 03: Release7 February 27 th 04: Release 8 (production) April 1 st 04: June 1 st 04: “DC2” July 15th Put in place, understand & validate: Geant4; POOL; LCG applications Event Data Model Digitization; pile-up; byte-stream Conversion of DC1 data to POOL; large scale persistency tests and reconstruction Testing and validation Run test-production Start final validation Start simulation; Pile-up & digitization Event mixing Transfer data to CERN Intensive Reconstruction on “Tier0” Distribution of ESD & AOD Calibration; alignment Start Physics analysis Reprocessing

seminář CESNET2 Masarykova kolej 18 Projekt LCG LCG – LHC Computing Grid projekt CERN první fáze 2002 – 2005 Úkol – připravit výpočetní infrastrukturu pro simulace, zpracování a fyzikální analýzu dat pro všechny 4 experimenty na LHC –společná infrastruktura knihoven, nástrojů a rámec pro podporu fyzikálního aplikačního softwaru –vývoj a uvedení do provozu výpočetních služeb pro skladování a zpracování dat –vytvoření dávkové a interaktivní služby pro celosvětovou komunitu LHC

Les Robertson19 Joint with EGEE Applications Area Development environment Joint projects Data management Distributed analysis Middleware Area Provision of a base set of grid middleware – acquisition, development, integration, testing, support CERN Fabric Area Large cluster management Data recording Cluster technology Networking Computing service at CERN Grid Deployment Area Establishing and managing the Grid Service - Middleware certification, security, operations, registration, authorisation, accounting Operational Management of the Project LCG

Les Robertson20 Applications Area Projects Software Process and Infrastructure (SPI) (A.Aimar) –Librarian, QA, testing, developer tools, documentation, training, … Persistency Framework (POOL) (D.Duellmann) –POOL hybrid ROOT/relational data store Core Tools and Services (SEAL) (P.Mato) –Foundation and utility libraries, basic framework services, object dictionary and whiteboard, math libraries, (grid enabled services) Physicist Interface (PI) (V.Innocente) –Interfaces and tools by which physicists directly use the software. Interactive analysis, visualization, (distributed analysis & grid portals) Simulation (T.Wenaus et al) –Generic framework, Geant4, FLUKA integration, physics validation, generator services Close relationship with -- ROOT (R.Brun) –ROOT I/O event store; Analysis package Group currently working on distributed analysis requirements

21 Energetická spotřeba procesorů Spotřeba energie roste lineárně s výkonem procesoru Řízení výkonu procesorů se pravděpodobně neuplatní při nepřetržité práci procesoru při vysokém využití CPU Elektrický příkon a chlazení zůstanou významnou částí nákladů. CERN plánuje 2.5 MW (+ cooling) for LHC to end 2008 (dnes 800 kW) Processor performance (SpecInt2000) per Watt Frequency [MHz] SpecInt2000/Watt PIII 0.25 PIII 0.18 PIV 0.18 PIV 0.13 Itanium PIV Xeon 0.13

seminář CESNET2 Masarykova kolej 22 Účast ČR na LHC Hlavní účast ČR na LHC je na projektech ATLAS a ALICE –AV ČR, Univerzita Karlova v Praze a České vysoké učení technické v Praze –od roku 1993 účast na návrhu a stavbě detektoru –nyní účast na instalaci detektoru, spuštění v roce 2007, provoz alespoň 10 let –paralelně účast na výpočetních aktivitách projektu ATLAS, např. v DC –Projekt EU DataGrid (2001-III.2004), projekt LCG (od 2002), projekt EGEE od 2004 –Úzká spolupráce s CESNET na projektech Datagrid a EGEE v oblasti budování výpočetních farem, CESNET poskytuje síťového připojení, certifikační autoritu apod.

Výpočetní farma Goliáš –Tier 2 Farma pro výpočty ve fyzice částic a pro gridové výpočty, umístěna ve FZÚ – 34x dual 1.13Ghz PIII – 1GB RAM na uzel – 1TB diskové pole – 10TB diskové pole (3 x 3 TB, spolupráce na vývoji kernelu test9) – Výkon 34 kSI2000 Plán využití: 50% LCG (ATLAS+ALICE), 50% D0

seminář CESNET2 Masarykova kolej 24 Výpočetní farma Goliáš 2 Výborné síťové připojení –PASNET – CESNET2 – GEANT (sdílené 1 Gb/s) –CzechLight (vyhražený 1 Gb/s) vyhražené optické spojení FZÚ – CESNET – Amsterodam (NetherLight) – CERN (BGP pro automatické přepnutí na GEANT v případě testů) Amsterodam je připojen též na StarLight v Chicagu, kam má od 2003 přípojku i FNAL, možnost zlepšení spojení Praha - FNAL

seminář CESNET2 Masarykova kolej 25 Výpočetní farma Goliáš 3 Účast na –EDG1/2 –LCG1/2 –ATLAS, ALICE – DC1/2 DC2 bude využívat LCG2 simulace pro experimenty –D0 ve FNAL simulace pro D0 (SAMgrid) platba poplatků do experimentu pomocí dodávky potřebných výpočetních služeb

seminář CESNET2 Masarykova kolej 26 Výpočetní farma Goliáš 4

seminář CESNET2 Masarykova kolej 27 Závěr Velké experimenty ve fyzice částic v minulosti dávaly podnět k rozvoji výkonných výpočetních a síťových prostředků Dnes daly impuls k rozvoji distribuovaných výpočtů – realizace gridu – desítky gridových projektů na světě ČR se účastní hlavních aktivit LHC jak v oblasti detektorů a fyzikální analýzy, tak na rozvoji a lokální implementaci nových gridových prostředků. CESNET z.s.p.o. vytvořil potřebné vysokorychlostní spolehlivé síťové prostředí na špičkové mezinárodní úrovni Úzká spolupráce na gridových projektech s CESNET z.s.p.o. je velmi přínosná

seminář CESNET2 Masarykova kolej 28 Other Grid Projects Global Grid Forum INFN-Grid CERN Openlab GriPhyN NASA Information Power Grid SpaceGrid GridPP NEES Grid ECOGRID BIRN - Biomedical Informatics Research Network The Earth System Grid II Astrogrid BBSRC Bioinformatics and e-science programme Irish Computational Grid AVO - Astrophysical Virtual Observatory DOE SciDACINFN-Grid CERN Openlab GriPhyN NASA Information Power Grid SpaceGrid GridPP NEES Grid ECOGRID BIRN - Biomedical Informatics Research Network The Earth System Grid II Astrogrid BBSRC Bioinformatics and e-science programme Irish Computational Grid AVO - Astrophysical Virtual Observatory DOE SciDAC Globus Condor Legion GRIP EUROGRIDGlobus Condor Legion GRIP EUROGRID NMI - NSF Middleware Initiative Damien UK Core e-scienceNMI - NSF Middleware Initiative Damien UK Core e-science GEANT TERENA GRIA DOE science Grid Teragrid International Virtual Data Grid Laboratory Trans PAC NorduGrid UNICORE Plus AP Grid DutchGrid IBM SUN Grid EngineGEANT TERENA GRIA DOE science Grid Teragrid International Virtual Data Grid Laboratory Trans PAC NorduGrid UNICORE Plus AP Grid DutchGrid IBM SUN Grid Engine