Per poter commentare su TVtech è necessario essere registrati al forum di Hardware Upgrade.
Prosegui con la registrazione (Maggiori informazioni...)
Prosegui con la registrazione (Maggiori informazioni...)

CERN Computer centre
info
trascrizione
Viaggio a Ginevra, presso il CERN, per toccare con mano le problematiche che deve affrontare il Computer Center, alle prese con 15 Petabyte di dati ogni anno.
Per portare a termine questo ingente lavoro, è stata creata una rete ah hoc, la LHC Computing Grid, facente comunque capo al Computer Center.
Categoria: Hardware
Il CERN di Ginevra può essere considerato il luogo dell'avanguardia tecnologica,
una vera e propria frontiera della conoscenza, in cui si studia l'infinitamente
piccolo a livello fisico. Lo scopo è trovare risposte che coinvolgono anche
l'origine dell'universo, con l'osservazione e lo studio di particelle finora solo
teorizzate.
Per oltre vent'anni molti paesi hanno unito le proprie forze per creare l'accelaratore di particelle più grande e potente del mondo, l' LHC, Large Hadron Collider.La mole di informazioni raccolte dall'acceleratore necessitano di una potenza di calcolo elevatissima, di cui si fa carico Il Computer Center. Il centro computazionale del CERN costituisce il cuore di una rete sviluppata appositamente per questo scopo, la LHC Computing Grid.
Il centro, che si fa carico del 20% del lavoro, smista la rimanente parte ad altri 11 centri di calcolo più piccoli, indicati come Tier-1, collegati al CERN attraverso linee a 10gigabit dedicate. Questi centri smisteranno poi a loro volta ulteriore lavoro ad altre realtà più piccole.
La visita al Computer center ci ha permesso di toccare con mano le problematiche che ci si trova ad affrontare di fronte ad una sfida di questa entità. Si parla di circa 15petabyte all'anno di dati a regime, ovvero 15 milioni di gigabyte. Attualmente i server del Computer Center sono circa 4400, che incorporano qualcosa come 31.000 core. Qui al CERN si preferisce parlare di numero di core e non di processori. Per la primavera del 2009 comunque verranno aggiunti ulteriori 13.000 core, distribuiti in macchine a con quattro processori quad-core con 32GB di memoria ram.
Un altro problema di non poco conto è costituito dall'archiviazione dati: non è uno scherzo trovare spazio per 15 milioni di gigabyte ogni anno. I dati permanenti vengono archiviati su nastro, molto più affidabile negli anni rispetto a qualsiasi altra soluzione, oltre ad essere la più economica. Per la manipolazione e l'interpretazione dei dati troviamo invece macchine provviste di comuni hard disk meccanici, sui quali riversare solo parti dell'intero backup, volta per volta.
Impressionanti in ogni caso i numeri in gioco: nel Computer Center si contano circa 7.200.000 GB su disco rigido, distribuiti in circa 28.000 dischi. In arrivo altri 16.000 dischi entro qualche mese. Siamo a circa un terzo della capacità disponibile su nastro, ovvero 21.000.000 di GB di spazio suddiviso in circa 35000 cartucce. Cifre impressionanti, ma che bastano solo ad archiviare il lavoro di un anno e mezzo.
Per oltre vent'anni molti paesi hanno unito le proprie forze per creare l'accelaratore di particelle più grande e potente del mondo, l' LHC, Large Hadron Collider.La mole di informazioni raccolte dall'acceleratore necessitano di una potenza di calcolo elevatissima, di cui si fa carico Il Computer Center. Il centro computazionale del CERN costituisce il cuore di una rete sviluppata appositamente per questo scopo, la LHC Computing Grid.
Il centro, che si fa carico del 20% del lavoro, smista la rimanente parte ad altri 11 centri di calcolo più piccoli, indicati come Tier-1, collegati al CERN attraverso linee a 10gigabit dedicate. Questi centri smisteranno poi a loro volta ulteriore lavoro ad altre realtà più piccole.
La visita al Computer center ci ha permesso di toccare con mano le problematiche che ci si trova ad affrontare di fronte ad una sfida di questa entità. Si parla di circa 15petabyte all'anno di dati a regime, ovvero 15 milioni di gigabyte. Attualmente i server del Computer Center sono circa 4400, che incorporano qualcosa come 31.000 core. Qui al CERN si preferisce parlare di numero di core e non di processori. Per la primavera del 2009 comunque verranno aggiunti ulteriori 13.000 core, distribuiti in macchine a con quattro processori quad-core con 32GB di memoria ram.
Un altro problema di non poco conto è costituito dall'archiviazione dati: non è uno scherzo trovare spazio per 15 milioni di gigabyte ogni anno. I dati permanenti vengono archiviati su nastro, molto più affidabile negli anni rispetto a qualsiasi altra soluzione, oltre ad essere la più economica. Per la manipolazione e l'interpretazione dei dati troviamo invece macchine provviste di comuni hard disk meccanici, sui quali riversare solo parti dell'intero backup, volta per volta.
Impressionanti in ogni caso i numeri in gioco: nel Computer Center si contano circa 7.200.000 GB su disco rigido, distribuiti in circa 28.000 dischi. In arrivo altri 16.000 dischi entro qualche mese. Siamo a circa un terzo della capacità disponibile su nastro, ovvero 21.000.000 di GB di spazio suddiviso in circa 35000 cartucce. Cifre impressionanti, ma che bastano solo ad archiviare il lavoro di un anno e mezzo.

Commenti (22)
dati finiti e concreti? non è mai successo che fosse così
la ricerca è una scommessa
Sarò paranoico ma dopo Echelon vedo complotti usa ovunque...