Per poter commentare su TVtech è necessario essere registrati al forum di Hardware Upgrade.
Prosegui con la registrazione (Maggiori informazioni...)
Prosegui con la registrazione (Maggiori informazioni...)

CERN Computer centre
info
trascrizione
Viaggio a Ginevra, presso il CERN, per toccare con mano le problematiche che deve affrontare il Computer Center, alle prese con 15 Petabyte di dati ogni anno.
Per portare a termine questo ingente lavoro, è stata creata una rete ah hoc, la LHC Computing Grid, facente comunque capo al Computer Center.
Categoria: Hardware
Il CERN di Ginevra può essere considerato il luogo dell'avanguardia tecnologica,
una vera e propria frontiera della conoscenza, in cui si studia l'infinitamente
piccolo a livello fisico. Lo scopo è trovare risposte che coinvolgono anche
l'origine dell'universo, con l'osservazione e lo studio di particelle finora solo
teorizzate.
Per oltre vent'anni molti paesi hanno unito le proprie forze per creare l'accelaratore di particelle più grande e potente del mondo, l' LHC, Large Hadron Collider.La mole di informazioni raccolte dall'acceleratore necessitano di una potenza di calcolo elevatissima, di cui si fa carico Il Computer Center. Il centro computazionale del CERN costituisce il cuore di una rete sviluppata appositamente per questo scopo, la LHC Computing Grid.
Il centro, che si fa carico del 20% del lavoro, smista la rimanente parte ad altri 11 centri di calcolo più piccoli, indicati come Tier-1, collegati al CERN attraverso linee a 10gigabit dedicate. Questi centri smisteranno poi a loro volta ulteriore lavoro ad altre realtà più piccole.
La visita al Computer center ci ha permesso di toccare con mano le problematiche che ci si trova ad affrontare di fronte ad una sfida di questa entità. Si parla di circa 15petabyte all'anno di dati a regime, ovvero 15 milioni di gigabyte. Attualmente i server del Computer Center sono circa 4400, che incorporano qualcosa come 31.000 core. Qui al CERN si preferisce parlare di numero di core e non di processori. Per la primavera del 2009 comunque verranno aggiunti ulteriori 13.000 core, distribuiti in macchine a con quattro processori quad-core con 32GB di memoria ram.
Un altro problema di non poco conto è costituito dall'archiviazione dati: non è uno scherzo trovare spazio per 15 milioni di gigabyte ogni anno. I dati permanenti vengono archiviati su nastro, molto più affidabile negli anni rispetto a qualsiasi altra soluzione, oltre ad essere la più economica. Per la manipolazione e l'interpretazione dei dati troviamo invece macchine provviste di comuni hard disk meccanici, sui quali riversare solo parti dell'intero backup, volta per volta.
Impressionanti in ogni caso i numeri in gioco: nel Computer Center si contano circa 7.200.000 GB su disco rigido, distribuiti in circa 28.000 dischi. In arrivo altri 16.000 dischi entro qualche mese. Siamo a circa un terzo della capacità disponibile su nastro, ovvero 21.000.000 di GB di spazio suddiviso in circa 35000 cartucce. Cifre impressionanti, ma che bastano solo ad archiviare il lavoro di un anno e mezzo.
Per oltre vent'anni molti paesi hanno unito le proprie forze per creare l'accelaratore di particelle più grande e potente del mondo, l' LHC, Large Hadron Collider.La mole di informazioni raccolte dall'acceleratore necessitano di una potenza di calcolo elevatissima, di cui si fa carico Il Computer Center. Il centro computazionale del CERN costituisce il cuore di una rete sviluppata appositamente per questo scopo, la LHC Computing Grid.
Il centro, che si fa carico del 20% del lavoro, smista la rimanente parte ad altri 11 centri di calcolo più piccoli, indicati come Tier-1, collegati al CERN attraverso linee a 10gigabit dedicate. Questi centri smisteranno poi a loro volta ulteriore lavoro ad altre realtà più piccole.
La visita al Computer center ci ha permesso di toccare con mano le problematiche che ci si trova ad affrontare di fronte ad una sfida di questa entità. Si parla di circa 15petabyte all'anno di dati a regime, ovvero 15 milioni di gigabyte. Attualmente i server del Computer Center sono circa 4400, che incorporano qualcosa come 31.000 core. Qui al CERN si preferisce parlare di numero di core e non di processori. Per la primavera del 2009 comunque verranno aggiunti ulteriori 13.000 core, distribuiti in macchine a con quattro processori quad-core con 32GB di memoria ram.
Un altro problema di non poco conto è costituito dall'archiviazione dati: non è uno scherzo trovare spazio per 15 milioni di gigabyte ogni anno. I dati permanenti vengono archiviati su nastro, molto più affidabile negli anni rispetto a qualsiasi altra soluzione, oltre ad essere la più economica. Per la manipolazione e l'interpretazione dei dati troviamo invece macchine provviste di comuni hard disk meccanici, sui quali riversare solo parti dell'intero backup, volta per volta.
Impressionanti in ogni caso i numeri in gioco: nel Computer Center si contano circa 7.200.000 GB su disco rigido, distribuiti in circa 28.000 dischi. In arrivo altri 16.000 dischi entro qualche mese. Siamo a circa un terzo della capacità disponibile su nastro, ovvero 21.000.000 di GB di spazio suddiviso in circa 35000 cartucce. Cifre impressionanti, ma che bastano solo ad archiviare il lavoro di un anno e mezzo.

Commenti (22)
Per quanto sia un appassionato e per quanto sia dentro al mondo dell'informatica anche a livello lavorativo faccio fatica a focalizzare questi numeri... Curiosa in ogni modo la scelta di salvare i vecchi dati su nastro. Per quanto economica non mi sembra assolutamente la forma piu' sicura. Evidentemente per loro non e' cosi' vitale mantenere tali dati.
Kamm
Kamm
In realtà i nastri sono più sicuri degli hard disk: un hard disk può caderti dalle mani, si può danneggiare un settore o magari potrebbe semplicemente partire qualche chip, e creare come minimo un fastidio se non di più!
I nastri durano moltissimi anni prima di perdere le informazioni, non hanno parti logiche o meccaniche a rischio, e possono essere fisicamente conservati più facilmente (spettacolari i robot che li gestiscono!!!)
Infatti ti consiglio di usare dei nastri (cassette) per archiviare dati che vuoi ritrovare anche tra decine di anni!
AUHAHUAUHAUHAUH
Incredibile tutta la mole di dati che vengono creati
Ma a commentare ogni notizia che riguarda supercomputer e vari ci deve sempre essere il simpaticone di turno con questo genere di battuta?
E il compare relativo che si sbellica perchè non ha mai sentito nulla di più esilarante?
Mah
Ovviamente sembra uno spreco di soldi, ma se fosse sempre stato questo il modo di porsi davanti agli interrogativi della scienza il progresso sarebbe fermo al carbone fossile.
In quanto vorrei portarlo al mio professore di chimica per discuterne.
Molto interessante comunque. Ne servirebbero di + articoli di questo genere visto k secondo il mio punto di vista sono il futuro non solo della fisica ma anche dell'informatica.
E il compare relativo che si sbellica perchè non ha mai sentito nulla di più esilarante?
Mah
Ho scritto anche altre cose se ti va leggile vedi se sei daccordo con me invece di fare il denigratori di utenti nei forum!
con permesso "compare"...
Ovviamente sembra uno spreco di soldi, ma se fosse sempre stato questo il modo di porsi davanti agli interrogativi della scienza il progresso sarebbe fermo al carbone fossile.
Eccolo aspettavo un commento con buon senso tipo questo...
Ok in parte sono d'accordo ma quasi tutte le scoperte fatte hanno anche una "necessità"... la necessità aguzza l'ingegno...
Vabbè ma il progresso è ancora fermo al carbon fossile e derivati!!!... vedi le centrali elettriche che vogliono costruire in Italia, la benzina che metti nella tua auto ecc...
Incredibile tutta la mole di dati che vengono creati
se non fosse per questo tipo di esperimento ora non avresti il pc da cui scrivi, internet, il www, le medicine..