De Europese Organisatie voor Nucleair Onderzoek (Cern) heeft een eerste opstelling gestart van zijn gridomgeving. Dat computergrid dient voor de in aanbouw zijnde nieuwe deeltjesversneller Large Hydron Collider (LHC).
|
De nu geteste eerste opstelling van het LCG beslaat ruim zesduizend computers op achtenzeventig locaties die internationaal verspreid zijn. Dit zijn systemen bij wetenschappelijke instellingen, onder meer in Groot-Brittannië dat duizend systemen op twaalf locaties bijdraagt.
Professor Tony Doyle, leider van de Britse grid-groep voor deeltjes-fysici (Gridpp), roemt de draaiende eerste opstelling die nu al het grootste werkende grid ter wereld is. Hij zegt dat het doel is de totale rekenkracht met een factor tien te verhogen. “We willen alleen al in Groot-Brittannië tienduizend computers koppelen, zodat we klaar zijn voor de LHC in 2007.”
Verspreid
Het voordeel van een gridopstelling is hierbij niet alleen beperkt tot het bundelen van de verspreide rekenkracht, maar ook het distribueren van de data alsook de bewerkingen daarvan. Verschillende wetenschappers willen verschillende LHC-resultaten onderwerpen aan verschillende analyses. Het LCG is een krachtige virtuele supercomputer, die tegelijkertijd op de diverse locaties toegankelijk en bruikbaar is.
Dit staat in tegenstelling tot een uitdeel- en terugzendmodel zoals dat van het bekende Seti@Home-project. Toch wordt die benadering eveneens ingezet voor de LHC: middels de LHC@Home-client (gebaseerd op grid-software Boinc) kunnen individuele gebruikers hun computers laten meerekenen.
De cio van het Cern, Wolfgang von Rüden, was deze week in Nederland. Hij sprak op de HP Dutchworld-bijeenkomst van Hewlett-Packard. Die it-leverancier is betrokken bij dit Cern-project, zowel de diverse grid-systemen als de directe ict-infrastructuur rondom de LHC. HP is echter niet de enige leverancier; het bevindt zich in het gezelschap van IBM, Oracle en vele anderen.< BR>
Wie, wat, ……….waar weten we dus. Bij wie zijn vele namen in te vullen, bij wat moeten we maar afwachten, het gaat immers om experimenten.
Opvallend is dat er weinig info gegeven wordt over CERN, wie dit LHC controleert bijvoorbeeld en waar ze het geld vandaan halen om dit soort dingen te doen.
Het vreemdste van alles is wel het gerucht dat het hier om mogelijk gevaarlijke experimenten kan gaan, zwarte gaten bijvoorbeeld……..?
Nog vreemder is dat de heren wetenschappers zelf niet precies weten wat ze aan het doen zijn, volgens geruchten.
Of toch geen geruchten? Kortom, wie draagt hier de verantwoording ingeval er iets behoorlijk mis gaat? Of is dat soms ook al ingecalculeerd en wie mogen er worden geofferd? Wie bepaald zoiets en wie denken zij dan wel wie ze zijn?
Op de link http://lhc-first-beam.web.cern.ch/lhc-first-beam/ is live te volgen wat er allemaal met de LHC gebeurt. Dat het CERN ook interessante spin-off heeft wordt bewezen door het feit dat hier het worldwideweb is uitgevonden. Dat er meer spin-off is wordt bijvoorbeeld bewezen door het bedrijf IdQuantique (http://www.idquantique.com)in Geneve. Dit bedrijf produceert singe photon detectors voor gebruik bij bijvoorbeeld het CERN. Deze techniek is echter ook bruikbaar voor het maken van Quantum Random Generatoren en Quantum Cryptografie Systemen. Met deze techniek zijn Informatie Uitwisselings Systemen te maken welke gebaseerd zijn op wiskundige en natuurkundige wetten. Het voordeel hiervan is dat deze wetten ontdekt en gebruikt kunnen worden, maar niet veranderd en daarmee zijn deze wetten dus universeel geldig. Als je systemen maakt welke gebaseerd zijn op deze wetten en de eigenschappen van deze systemen bewijst met deze wetten, dan zijn de eigenschappen van deze systemen dus ook universeel en tijdloos en kunnen niet door mensen gewijzigd worden. Een presentatie van een voorbeeld research systeem hiervan is te vinden op de link http://picasaweb.google.com/freemovequantumexchange