Il laboratorio Roma 3 GRID è stato istituito nel 2008 grazie a un progetto che ha coinvolto come principali fondatori gli esperimenti ARGO-YBJ ed ATLAS con il supporto finanziario dell’INFN e del Dipartimento di Fisica dell’Università di Roma Tre. Dopo il primo anno di utilizzo, l’interesse di altri gruppi all’interno della nostra struttura è cresciuto e quindi è stata estesa la condivisione delle risorse a tutti i gruppi appartenenti all’INFN e all’Università che richiedono più potenza di calcolo.
Il sito è un TIER 3 per l’esperimento ATLAS ed è stato un TIER 2 per l’esperimento ARGO, utilizzato anche per diversi progetti relativi alle attività di sviluppo (EG: CHAIN-REDS, agINFRA, EUMEDGRID, EUChinaGrid, DCH-RP, EGI- InSPIRE.) E una comunità di utenti locali usa le risorse “localmente”.
Il Data Center è costituito da cinque rack chiusi (42 U) raffreddati da un sistema di condizionamento ad aria . Questa architettura è quindi “isolata dal calore” dalla stanza. All’interno della stanza c’è anche un UPS che impedisce l’arresto improvviso delle apparecchiature in caso di blackout. Tutte le macchine sono collegate in rete ad 1 Gigabit e 10 Gigabit Ethernet.
Per quanto riguarda la potenza di calcolo, il sito è dotato di circa 50 server (principalmente basati sulla tecnologia Blade) con una quantità totale di core disponibili (o VCPU) di circa 1500 .Tutti i nodi sono interconnessi con Infiniband (DDR 20Gbps e QDR 40Gbps). Il sito ha anche 12 sistemi Graphical Processor Unit (GPU) NVIDIA Tesla 2070 e K80.
Tutti i dati degli utenti e i dati degli esperimenti sono memorizzati in uno dei tre sistemi di archiviazione presenti nel cluster per un totale di circa 700 TB.I sistemi di storage sono gestiti da 6 server (DS) attraverso connessioni Fibre Channel a 4 Gbps / 8 / 16Gbps. I dati sono quindi esportati a tutto il cluster attraverso un filesystem distribuito.
Le macchine di servizio necessari per gestire il sito sono : due Computing Element (CE), tre unità User Interface (UI), otto macchine per la gestione dello storage, un Grid Storage Element (StoRM) e 2 macchine per monitorare tutti i sistemi.
CE è un gestore di code basato su PBS / MAUI e, per offrire le risorse in GRID , è configurato anche come CreamCE. Il CE è configurato per accettare lavori di utenti appartenenti a diverse organizzazioni virtuali (VO).Attualmente lo staff sta studiando e testando le ultime tecnologie cloud per valutare una possibile migrazione a queste tecnologie
Il sito è un TIER 3 per l’esperimento ATLAS ed è stato un TIER 2 per l’esperimento ARGO, utilizzato anche per diversi progetti relativi alle attività di sviluppo (EG: CHAIN-REDS, agINFRA, EUMEDGRID, EUChinaGrid, DCH-RP, EGI- InSPIRE.) E una comunità di utenti locali usa le risorse “localmente”.
Il Data Center è costituito da cinque rack chiusi (42 U) raffreddati da un sistema di condizionamento ad aria . Questa architettura è quindi “isolata dal calore” dalla stanza. All’interno della stanza c’è anche un UPS che impedisce l’arresto improvviso delle apparecchiature in caso di blackout. Tutte le macchine sono collegate in rete ad 1 Gigabit e 10 Gigabit Ethernet.
Per quanto riguarda la potenza di calcolo, il sito è dotato di circa 50 server (principalmente basati sulla tecnologia Blade) con una quantità totale di core disponibili (o VCPU) di circa 1500 .Tutti i nodi sono interconnessi con Infiniband (DDR 20Gbps e QDR 40Gbps). Il sito ha anche 12 sistemi Graphical Processor Unit (GPU) NVIDIA Tesla 2070 e K80.
Tutti i dati degli utenti e i dati degli esperimenti sono memorizzati in uno dei tre sistemi di archiviazione presenti nel cluster per un totale di circa 700 TB.I sistemi di storage sono gestiti da 6 server (DS) attraverso connessioni Fibre Channel a 4 Gbps / 8 / 16Gbps. I dati sono quindi esportati a tutto il cluster attraverso un filesystem distribuito.
Le macchine di servizio necessari per gestire il sito sono : due Computing Element (CE), tre unità User Interface (UI), otto macchine per la gestione dello storage, un Grid Storage Element (StoRM) e 2 macchine per monitorare tutti i sistemi.
CE è un gestore di code basato su PBS / MAUI e, per offrire le risorse in GRID , è configurato anche come CreamCE. Il CE è configurato per accettare lavori di utenti appartenenti a diverse organizzazioni virtuali (VO).Attualmente lo staff sta studiando e testando le ultime tecnologie cloud per valutare una possibile migrazione a queste tecnologie
Link identifier #identifier__53871-1Ulteriori informazioni
This post is also available in: Link identifier #identifier__147770-2Eng
11 Ottobre 2019