9. FISICA E FISICA ATOMICA

9.2 FISICA DELLE ALTE ENERGIE

Science, 19 Feb 93,Vol. 259, pg. 1116 - Gary Taubes - La situazione di limbo in cui si trova il progetto del Superconducting Super Collider (SSC) induce molti a cercare nuove strade con le quali attrarre la collaborazione internazionale. Questa collaborazione (Europa, Russia, Giappone e USA) è già operante nel progetto dello Stanford Linear Accelerator Center (SLAC). Contro i 40 TeV dello SSC, in un acceleratore chiuso di 87 km per la collisione protone-protone, lo SLAC si propone più modestamente un acceleratore lineare di 10 km da 1 TeV per collisione elettrone-protone. Questo tipo di collisione crea effetti più semplici e certi risultati predetti sono più facili da verificare.

Science, 26 Mar 93, Vol. 259, pg. 1823 - Random Samples - Lo European Synchrotron Radiation Facility (ESRF) in Grenoble ha iniziato recentemente la sua attività come la sorgente di raggi X più intensa del mondo. La lunghezza d’onda ottenibile è inferiore a 0,5 ångström. Attualmente ci sono due progetti competitivi in costruzione, uno negli USA che sarà pronto nel 1995 e l’altro in Giappone che è previsto nel 1998. Il programma di esperienze presso lo ESRF riguarda rilievi di diffrazione per determinare strutture di composti complessi.

Science, 27 Aug 93, Vol. 261, pg, 1111 - Faye Flam - Lo Stanford Linear Accelerator Center (SLAC) ed i Laboratori della Cornell University sono in competizione per un progetto di fisica delle alte energie che promette di dare una risposta alla domanda perché l’universo contiene più materia di antimateria. Attraverso la collisione di positroni ed elettroni si vogliono generare le particelle B e Anti-B e dal loro decadimento scoprire i difetti del Modello Standard. Il Modello Standard ammette solo una piccola violazione della proprietà charge-parity (CP) dove la carica distingue le particelle dalle antiparticelle e la parità distingue una particella dalla sua immagine. Una violazione più consistente, misurabile dalla differenza del tempo di decadimento fra B ed Anti-B, potrebbe spiegare la scarsità di antimateria.

Science, 15 Oct 93, Vol. 261, pg. 328 - Faye Flam - La scorsa settimana il presidente Clinton ha dichiarato vincitore la Stanford per il megaprogetto della B-factory , un acceleratore per collisione di elettroni e positroni per la generazione dei mesoni B. L’osservazione dei mesoni B dovrebbe risolvere il problema della mancanza di antimateria nell’universo. La scelta della Stanford a preferenza della Cornell può essere dovuta a ragioni economiche e politiche ed ai maggiori rischi associati alla soluzione Cornell.

Science, 17 Dec 93, Vol. 262, pg. 1808 - Peter Aldhous - Dopo la cancellazione del progetto SSC USA, il Large Hadron Collider (LHC) del CERN europeo è rimasto il solo progetto con cui continuare la ricerca sul Modello Standard della materia. Verrà costruito all’interno dello stesso tunnel circolare da 27 km che oggi contiene il Large Electron Positron (LEP) Collider e per questa limitazione potrà raggiungere solo i 14 TeV, 1/3 di quanto promesso dal circuito da 84 km dello SSC. I fisici del CERN sono confidenti di scoprire con esso i bosoni di Higgs e trovare le nuove particelle previste dalla teoria della supersimmetria. Il piano per il progetto LHC prevede una spesa di 2,63 miliardi di franchi svizzeri; a giugno 1994 il Concilio del CERN voterà la proposta finale, fra il 1995 ed il 1999 si svilupperà la versione migliorata del LEP (LEP200), i lavori per lo LHC inizieranno nel 2000 e sarà pienamente operativo entro il 2003.

Science, 6 May 94, Vol. 264, pg. 777 - Michael Simm and Daniel Clery - Con l’uso di acceleratori di ioni pesanti e facendo collidere nuclei più piccoli, in Germania è stato creato l’isotopo 100 dello stagno, un nucleo predetto dai teorici, ma mai trovato. Lo stagno 100 fa parte degli elementi detti “doppio magico” perché hanno un uguale numero di protoni e neutroni che occupano una serie di strati sferici completi; questi sono gli elementi con peso atomico 2, 8, 20, 28, 50, 82, sono più facili da studiare per ragioni di simmetria ed hanno un grado superiore di stabilità. Lo stagno 100 sopravvive per parecchi secondi, il piombo 164, il successivo magico, è molto al di là del campo di stabilità e nessuno pensa che possa esistere. Riportando su un diagramma tutti gli elementi noti con in ascisse il numero dei neutroni ed in ordinate quello dei protoni, c’è una fascia che contiene tutti gli elementi presenti in natura e due curve, una più bassa con gli isotopi instabili con numero di neutroni più alto del valore normale ed una curva più alta, ma molto vicina al limite superiore della fascia stabile, con un numero di neutroni più basso del valore normale. Infatti i neutroni contrastano nel nucleo la repulsione elettromagnetica dei protoni ed entro certi limiti favoriscono la stabilità.

Science, 30 Sep 94, Vol. 265, pg. 2013 - Faye Flam - Alle alte energie le particelle subatomiche hanno la capacità di trasformarsi le une nelle altre, ma anche i fotoni molto energetici possono generare particelle rare come le W+ e W-, le particelle massive responsabili delle interazioni deboli. Un modo di generare impulsi di raggi gamma da trilioni di watt è quello di fare interagire un raggio laser con il fascio di elettroni di un acceleratore lineare. Per una strana legge di meccanica quantistica, i fotoni incidenti rubano il 90% dell’energia degli elettroni producendo un fascio di fotoni con un’energia trilioni di volte più alta. Producendo un altro fascio simile in direzione opposta agendo su un fascio di elettroni in collisione con il primo, si crea un collisore fotoni-fotoni che può generare particelle W e forse particelle di Higgs. Queste esperienze potranno essere possibili con il futuro Next Linear Collider (NLC) a Stanford o con il Large Hadron Collider (LHC) del CERN. Un altro candidato può essere il Free Electron Laser (FEL), studiato durante il periodo delle Star Wars come sistema di difesa antimissile, se il suo sviluppo viene ripreso.

Science, 7 Oct 94, Vol. 266, pg. 26 - Alexander Hellemans - La scorsa settimana a Grenoble si è avuta l’inaugurazione ufficiale dell’European Synchrotron Radiation Facility (ESRF), un acceleratore di particelle da 6 GeV e 600 milioni di US$ costruito nei limiti di tempo e budget previsti, che è oggi la sorgente più potente del mondo di raggi X. Le sorgenti di raggi X intense sono usate per studiare la struttura interna della materia e fra le esperienze in programma è lo studio della struttura metallica dell’ossigeno sotto pressioni di 900000 atmosfere, il rilevamento della struttura di proteine e degli strati atomici di diamante.

Science, 11 Nov 94, Vol. 266, pg. 972 - Daniel Clery - Negli ultimi due anni presso il CERN di Ginevra si sta cercando di adattare l’acceleratore per usare ioni di piombo con 208 nucleoni. Un fascio di queste particelle accelerato fino ad una velocità 99,998% quella della luce acquista un’energia di 177 GeV per nucleone e potrebbe essere sufficiente a produrre all’impatto un plasma di quark-gluoni come quello che esisteva dopo i primi 10 millisecondi dal big bang. Una serie di rivelatori dovrebbero mettere in evidenza un particolare spettro di fotoni emesso quando i nucleoni compressi si trasformano in plasma. L’energia da impatto potrebbe anche generare altre particelle, predette dalla cromodinamica quantistica dette “strangelet”, condensazione del plasma in una particella gigante invece che in tanti piccoli nucleoni.

Science, 6 Jan 95, Vol. 267, pg. 26 - Daniel Clery - Dopo 6 mesi di incertezze i membri del CERN hanno approvato il mese scorso il piano per la costruzione del Large Hadron Collider (LHC) nello stesso tunnel da 27 km costruito per il Large Electron-Positron Collider. Le restrizioni di bilancio hanno costretto a modificare il piano originale che prevedeva la completa operatività entro il 2003, ora invece verrà costruito in due fasi. I primi 14 km di magneti superconduttori verranno installati entro il 2004 ed il sistema potrà operare ad un’energia di 10 TeV sufficiente per la ricerca del top quark. I rimanenti magneti verranno installati per il 2008 portando l’energia a 14 TeV sufficienti per estendere la ricerca al bosone di Higgs. Il programma potrebbe essere accelerato se USA e Giappone decideranno di contribuire finanziariamente.

Science, 17 Nov 95, Vol. 270, pg. 1115 - Andrew Lawler - Due anni fa il Congresso USA cancellò il progetto del Superconducting Super Collider (SSC) da 11 miliardi di US$ ed ora gli sforzi riuniti di USA, Europa e Giappone sono rivolti al nuovo progetto del Next Linear Collider (NLC) lungo 25 km e dal costo previsto fra 2 e 3 miliardi di US$. Si dovrà stabilire fra le due tecnologie dei magneti convenzionali a temperatura ambiente o dei magneti a superconduzione, dopo ci vorranno circa 5 o 6 anni per costruirlo una volta trovati i fondi e l’accordo politico sul posto dove installarlo. Lo NLC farà collidere elettroni e positroni con una sezione del fascio di 5 nanometri, avrà minore energia, ma un fascio meglio focalizzato del Large Hadron Collider (LHC) del laboratorio DESY (Deutsches Elektronen Synchrotron) di Amburgo.

Science, 26 Apr 96, Vol. 272, pg. 479 - Susan Biggin - Entro dicembre i fisici svizzeri si aspettano una decisione del loro governo di assegnare 1,5 milioni di US$ per lo studio e la costruzione di una nuova sorgente a raggi X morbidi, detta Swiss Light Source (SLS), realizzata con un acceleratore circolare di elettroni da 2,1 GeV. L’impianto dovrebbe essere operativo per il 2001. L’acceleratore userà magneti superconduttori e verrà usato per esperimenti di olografia, essendo il fascio di raggi X coerente, e per l’analisi strutturale di molecole complicate e di proteine.

Science, 19 Jul 96, Vol. 273, pg. 306 - Andrew Watson - Il nuovo Large Electron-Positron (LEP) collider del CERN, portato ora ad un’energia di 161 GeV, ha dato subito i primi risultati quando il 10 luglio scorso si è avuta la prova della creazione di una coppia di particelle W, i portatori carichi della forza nucleare debole, aventi una massa di 80 GeV ciascuno. Entro il 1998 il LEP sarà portato ad un’energia di 192 GeV e si comincerà ad esplorare il campo di energia dove trovare la particella di Higgs, che è legata al meccanismo con cui si acquisisce la massa, e le altre particelle predette dalla teoria di supersimmetria particolarmente quelle a più bassa energia.

Science, 13 Sep 96, Vol. 273, pg. 1492 - Gary Taubes - Si suppone che un plasma di quark e gluoni sia esistito nell’universo 10 microsecondi dopo il big bang ed i fisici hanno cercato di ricreare queste condizioni negli acceleratori di particelle. Lo scorso maggio i fisici del CERN di Ginevra hanno acquisito prove di averlo realizzato anche se non con assoluta certezza. I fisici teorici negli anni ‘80, attraverso calcoli di cromodinamica quantistica, avevano dimostrato che facendo collidere dei nuclei fra 150 e 200 miliardi di eV si poteva realizzare una densità di materia 10E20 volte più grande di quella ordinaria producendo un plasma quark-gluoni per una durata di 10E-23 secondi. Il Super Proton Synchrotron (SPS) del CERN è in grado di raggiungere queste energie e si è cercata la prova indiretta. Il punto chiave sta nella particella nota come J/psi costituita dal quark pesante charm e dal suo gemello di antimateria; questa particella sparisce nella formazione del plasma quark-gluoni. A metà degli anni ‘80 nel CERN fu costruito un rivelatore della presenza della particella J/psi e nelle prove dello SPS, con l’uso di nuclei di piombo come proiettili, si è notata una drastica riduzione di queste particelle.

Science, 3 Jan 97, Vol. 275, pg. 19 - Alexander Hellemans - Entro il 2005 sarà completata la prima fase del progetto Large Hadron Collider (LHC) con un costo di 2 miliardi di US$ che farà collidere protoni con un’energia di 14 TeV; si spera così di poter provare l’esistenza del bosone di Higgs e di altre particelle previste dalla teoria della supersimmetria. Questo obiettivo, con un anticipo di 3 anni sul previsto, viene reso possibile dai nuovi contributi finanziari forniti dal Giappone e dagli USA anche se i contributi europei sono in riduzione come quelli della Germania. L’annunzio è venuto alla fine del mandato triennale del presidente Hubert Curien, francese, che verrà sostituito da Luciani Maiani, un fisico dell’Istituto Nazionale di Fisica Nucleare di Roma, Italia.

Science, 3 Jan 97, Vol. 275, pg. 30 - Andrew Watson - Nell’ultimo anno uno dei rivelatori del Large Electro Positron Collider (LEP) ha registrato 18 eventi inaspettati che non si adattano a nessuna delle attuali teorie compresa la supersimmetria. Nella collisione fra elettroni e positroni 4 getti di particelle secondarie hanno mostrato un contributo diseguale che implicava l’emissione di particelle a breve vita che decadevano producendo i getti. Si stanno indagando varianti della supersimmetria che possono dare una spiegazione, ma è necessario raccogliere un maggior numero di dati. Il LEP inizierà una nuova serie di esperimenti nel maggio 97.

Science, 28 Feb 97, Vol. 275, pg. 1266 - James Glanz - La scorsa settimana in un seminario tenuto ad Hamburg in Germania presso il DESY (Deutsches Elektronen Synchrotron) si sono discussi i casi anomali di collisione sperimentati con l’acceleratore HERA che risultano difficili da spiegare nell’ambito del Modello Standard. Il numero di collisioni “hard” è stato superiore alla previsione teorica, ma sempre troppo limitato per distinguere fra le diverse spiegazioni. Potrebbero essere prova dell’esistenza di leptoquark, una fantomatica particella che combina le caratteristiche di quark e leptoni o del corrispondente supersimmetrico del top quark (stop) oppure più semplicemente di fluttuazioni statistiche. Nello HERA, un anello di 6,3 km, vengono fatti collidere protoni e positroni con un trilione di eV e qualche volta il positrone e violentemente rinviato all’indietro. Essendo l’interazione fra quark e leptoni molto debole secondo il Modello Standard, ci si aspettava solo un caso nel doppio delle prove eseguite con lo HERA; per il momento si deve aspettare di accumulare più dati.

Science, 18 Apr 97, Vol. 276, pg. 351 - James Glanz - Il laser di potenza Nova, destinato a comprimere il plasma alle temperature e pressioni richieste dalla fusione nucleare, è capace anche di riprodurre in miniatura le condizioni dinamiche esistenti nelle stelle che esplodono. Questa idea ha creato un’iniziativa scientifica per portare l’astrofisica in laboratorio. Negli esperimenti si cerca di riprodurre le eruzioni solari, le esplosioni delle supernove ed alcune condizioni estreme come quelle che si verificano al confine dei buchi neri. Le condizioni riproducono un modello in scala dove i chilometri si trasformano in micron ed i secondi in nanosecondi, ma le equazioni rimangono le stesse. Per riprodurre una supernova in miniatura si crea un bersaglio costituito da uno strato di rame che simula lo strato di elio e da uno strato di plastica che costituisce quello di idrogeno. Si è visto che le instabilità provocate sulla superficie del bersaglio sono molto simili a quelle simulate al calcolatore con il modello della supernova. Si tratta ora di vedere se le instabilità crescono più rapidamente di quelle del modello. La riproduzione delle eruzioni solari in presenza di campo magnetico può mettere in evidenza l’effetto di quest’ultimo sulle instabilità ed il confronto con la semplificazione 2D delle simulazioni.

Science, 8 Aug 97, Vol. 277, pg. 756 - Andrew Lawler - Attualmente il DOE sostiene il funzionamento di quattro grandi impianti di sincrotroni in quattro centri di ricerca diversi:

1) nel Lawrence Berkeley National Lab (Berkeley, CA) completato nel 1993 e costo operativo attuale di 18 milioni di US$;

2) nel Brookhaven National Laboratory (Upton, New York) completato nel 1981 e costo operativo attuale 25 milioni di US$;

3) nello Stanford Linear Accelerator Center (Menlo park, CA) completato nel 1973 e costo operativo di 17 milioni di US$;

4) presso Argonne National Laboratory (Argonne, Illinois) completato nel 1996 e costo operativo attuale di 76 milioni di US$.

Le restrizioni di budget mostrano che gli impianti andranno in rosso entro un anno o due e si prospetta la dolorosa decisione di quale chiudere anche per avere fondi per una nuova generazione. Solo gli impianti 1) e 2) appartengono alla terza generazione, quella più avanzata, ma gli altri due hanno dei sostenitori perché attualmente questi impianti attraggono molti nuovi ricercatori da discipline come la biologia. Un modo di salvare tutti sarebbe quello di trovare soldi da altre agenzie come la NIH ed EPA per il crescente interesse dei biologi.

Science, 29 Aug 97, Vol. 277, pg. 1202 - David Ehrenstein - Un team di fisici dello Stanford Linear Accelerator Center (SLAC) ha dimostrato come ottenere materia dalla luce facendo collidere un fascio laser con un fotone gamma generato da un fascio di elettroni dello SLAC. L’interazione provoca la generazione di una coppia elettrone positrone. L’esperimento è servito a verificare aspetti della teoria nota come Elettrodinamica Quantistica (QEM).

Science, 29 Aug 97, Vol. 277, pg. 1214 - Alexander Hellemans - Le radiazioni da sincrotrone sono oggi essenziali per la ricerca su strutture molecolari complesse per le quali sono richieste radiazioni X sempre più dure e fasci di alta qualità. Le tecniche di analisi sono quelle dell’olografia, immagini a contrasto di fase, tomografia, microscopio a scansione, microdiffrazione e spettroscopia a correlazione di fotoni. Fasci di raggi X si ottengono forzando fasci di elettroni a muoversi in un percorso circolare mediante magneti come nei vecchi sincrotroni, ma ora le sorgenti di terza generazione sfruttano un altro sistema: in un percorso rettilineo gli elettroni sono costretti da magneti a polarità alternata a seguire una specie di slalom, ad ogni deviazione emettono fotoni e questi si aggiungono formando un fascio intenso e focalizzato largo 50 micrometri; il dispositivo è detto “ondulator”. La focalizzazione dei fasci è andata migliorando arrivando a 8, 5 e recentemente a 2-1 micrometri mediante ottiche ottenute con fori sottili su blocchi di alluminio che modificano l’indice di rifrazione del metallo o mediante tubi di vetro capillari con superfici interne riflettenti. La prima di queste sorgenti di terza generazione è stata lo European Synchrotron Radiation Facility (ESRF) a Grenoble in Francia, operativo nel 1994 con un’energia di 6 GeV. La seconda è l’Advanced Photon Source (APS) USA nell’Argonne National Laboratory, operativo dal 1996 con 7 GeV. La terza è il giapponese Spring-8 operativo nel 1997 con 8 GeV. Le applicazioni sono le più varie: dalla struttura della tela di ragno all’analisi termica di materiali scaldati dagli stessi raggi X alla spettroscopia di strutture caotiche come colloidi, polimeri, leghe e multistrati sintetici.

Science, 29 Aug 97, Vol. 277, pg. 1220 - Daniel Clery - I geofisici cercano di riprodurre le condizioni all’interno della Terra prendendo dei piccoli campioni di materiali, come silicati, ossidi o ferro, sottoponendoli a enormi pressioni, schiacciandoli fra le facce di due diamanti, e riscaldandoli ad alcune migliaia di gradi con un laser. L’analisi delle strutture in queste condizioni estreme viene effettuata con le radiazioni dei sincrotroni di terza generazione. Il metodo è valido anche per studiare l’interno dei pianeti come Giove e Saturno studiando come si comporta l’idrogeno sotto enormi pressioni divenendo metallico e persino superconduttore. Prima era difficile analizzare i campioni di idrogeno che con una pressione di 100 GPa diventavano troppo piccoli, ora con i fasci da 30 micrometri del sincrotrone ESRF la cosa è diventata possibile. Si è trovato che l’idrogeno è molto più morbido di quanto predetto dalla teoria e non ci sono indicazioni di metallizzazione. Per lo studio della struttura del ferro nel nucleo terrestre, nel 1993, sono stati compressi campioni a 38 GPa riscaldandoli fra 1200 e 1500 K. In queste condizioni la struttura del ferro è diversa da quella esagonale normale ed è ancora poco compresa.

Science, 2 Jan 98, Vol. 279, pg. 24 - Alexander Hellemans - Lo scorso mese il Consiglio del CERN ha deciso che il suo presidente, Luciano Maiani sarà Direttore Generale del Laboratorio dal prossimo gennaio 1999. Il suo prossimo compito sarà di guidare la costruzione del Large Hadron Collider (LHC) che nel 2005 sarà il più potente acceleratore di particelle. Durante la costruzione verrà reso inoperativo il Large Electron-Positron Collider (LEP) del quale verrà utilizzato il tunnel. Luciano Maiani è stato professore di fisica teorica all’Università La Sapienza di Roma e presidente dell’Istituto Nazionale di Fisica Nucleare di Frascati dal 1993.

Science, 9 Jan 98, Vol. 279, pg. 169 - Alexander Hellemans - Quando si accelerano le particelle subatomiche per farle collidere e generare nuove forme di materia è critica la scelta del tipo di particella. Gli adroni come i protoni si frantumano nell’impatto in quark e gluoni rendendo le collisioni di difficile interpretazione. Gli elettroni invece sono indivisibili ed il risultato è molto più pulito ma, essendo più leggeri, devono essere accelerati di più e dissipano energia negli acceleratori circolari per radiazione di sincrotrone. Un’alternativa è nell’uso dei muoni che sono 207 volte più pesanti degli elettroni, devono essere meno accelerati e dissipano quindi meno energia. Il loro uso è stato proposto come proiettili del Large Hadron Collider (LHC) in via di costruzione a Ginevra. I muoni però sono difficili da produrre; sono scarsi in natura perché sopravvivono solo per pochi microsecondi prima di decadere in un elettrone ed un neutrino. Per produrli si fa collidere un intenso fascio di protoni su un bersaglio metallico liquido producendo delle coppie quark-antiquark detti pioni; i pioni decadono in muoni. Adesso viene la parte critica della sequenza: i muoni devono essere raccolti in un fascio che si muova alla stessa velocità e quindi accelerati a velocità vicine a quelle della luce allungando la loro vita per effetto della dilatazione del tempo.

Science, 27 Feb 98, Vol. 279, pg. 1296 - David Kestenbaum - Dopo il rigetto del Superconducting Super Collider (SSC), cancellato dal Congresso nel 1993, gli USA si sono orientati a partecipare alla costruzione del Large Hadron Collider (LHC) del CERN, ma i fisici sono concordi nel ritenere che un successore del LHC è necessario per ottenere un quadro esatto del mondo delle particelle. Nella lista dei desideri si trovano tre diversi dispositivi: una versione più grande del LHC detta Very Large Hadron Collider, un Next Linear Collider (NLC) lungo da 30 a 50 km che usa gli elettroni ed un nuovo collisore che usa i muoni, elettroni pesanti di breve vita. Ciascuna di queste tre opzioni costerebbe oltre un miliardo di US$ e richiederebbe più di 10 anni per il progetto e la costruzione. Questo obiettivo potrebbe diventare una competizione internazionale fra i fisici dello SLAC e del DESY (Germania) per la scelta delle tecnologie da usare, ma per superare la dispersione degli sforzi sarebbe necessario creare un organismo internazionale.

Science, 7 Aug 98, Vol. 281, pg. 764 - Andrew Watson - Allo Stanford Linear Accelerator Center (SLAC) si metterà a punto agli inizi del prossimo anno un esperimento per verificare il fenomeno della CP violation che polarizza l’universo a favore della materia. La simmetria CP (di coniugazione di carica e parità) è la proprietà per cui particelle e antiparticelle si comportano in modo identico facendone l’immagine speculare ed invertendo il segno delle cariche e dello spin. La violazione riguarda il comportamento all’interazione debole che porta a tempi di decadimento diversi per le due particelle. Nell’esperimento, facendo collidere elettroni e positroni, si generano mesoni B che contengono il pesante quark bottom e la sua antiparticella. Il mesone B mostra una forte violazione della simmetria CP e l’esperimento, producendo circa 100 milioni di mesoni B all’anno, permetterà di studiare a fondo il problema.

Science, 4 Sep 98, Vol. 281, pg. 1469 - John Stamper - Un impulso laser di alta intensità (sopra 10E18 W/cmq) possiede un enorme campo elettrico e magnetico che può forzare gli elettroni di un plasma ad oscillare a velocità relativistiche e produrre in un plasma campi magnetici di parecchi milioni di gauss. Il suo uso potenziale è nella fusione laser nel sistema detto di “fast ignitor”. Laser ad alta potenza di picco possono essere realizzati oggi con una tecnica di amplificazione di impulso chirp espandendo con un reticolo un impulso laser di pochi picosecondi a pochi nanosecondi, amplificando la luce e quindi ricomprimendo con un secondo reticolo.

Science, 20 Aug 99, Vol. 285, pg. 1195 - Davis Voss - Al Brookhaven National Laboratory in Long Island alla fine di quest’anno i fisici creeranno una copia in miniatura del big bang facendo collidere nuclei di oro a velocità vicine a quelle della luce. Protoni e neutroni, raggiungendo temperature miliardi di volte quella della superficie del Sole genereranno un plasma di quark e gluoni. L’esperimento sarà realizzato con il Relativistic Heavy Ion Collider (RHIC), un tunnel di 3,8 km costato 600 milioni di US$ ed anticiperà le possibilità che saranno offerte dal Large Hadron Collider (LHC) del CERN di Ginevra nel 2005. Il plasma di quark e gluoni è stato presente circa 10 miliardi di anni fa durante il big bang ed è durato solo 10 microsecondi prima che il raffreddamento dell’espansione ha reso posssibile l’accoppiamento dei quark per formare le particelle elementari. Nello RHIC si avranno 1000 collisioni al secondo di atomi d’oro con un’energia per ogni protone o neutrone di 200 miliardi di eV e la temperatira raggiungerà il trilione di gradi. Vi saranno quattro rivelatori ad osservare l’impatto e la pioggia di particelle che verrà emessa. Il primo rivelatore è lo STAR (Soleniodal Tracker at RHIC) che usa fibre ottiche per rivelare le traettorie di migliaia di particelle e misurare la ionizzazione totale. Il secondo rivelatore è il PHENIX, nato dalle ceneri di tre diversa proposte, che rivelerà qualche centinaio di particelle leggere, elettroni e muoni, che, non essendo affetti dalla forza forte, provengono dal cuore più denso della collisione. Gli ultimi due rivelatori più piccoli sono il BRAHMS ed il PHOBOS. Il BRAHMS (Broad Range Hadron Magnetic Spectrometer) misura l’energia portata dagli hadroni carichi che escono dal punto di collisione. Il PHOBOS è progettato per mettere in evidenza la comparsa del plasma quark-gluoni dalla fluttuazione nel numero di particelle prodotta nella transizione di fase. I rivelatori raccoglieranno un torrente di dati; in pochi minuti di funzionamento si riempirà una memoria di molti gigabyte. Oltre a rivelare la transizione di fase del plasma quark-gluoni si pensa di usare lo RHIC anche per la misura dello spin del protone facendo collidere solo dei protoni.

Science, 18 Aug 2000, Vol. 289, pg. 1127 - Charles Seife and David Malakoff - Il progetto del National Ignition Facility (NIF) del Lawrence Livermore Laboratory ha lo scopo di ottenere una reazione di fusione nucleare usando un superlaser. Il costo stimato nel giugno di quest’anno è di 4 miliardi di US$, il più alto fra i progetti del DOE, ed il NIF ha già superato tempi e costi programmati. In origine il progetto, approvato nel 1993, doveva costare 2 miliardi di US$ e finire nel 2002, oggi si parla di finire nel 2008. Un superlaser comprimerà delle capsule di idrogeno pesante per ottenerne la fusione; l’energia in gioco è di 1,8 megajoule concentrata in pochi nanosecondi il che porta la potenza di picco a 500 terawatt, maggiore delle potenza istantanea richiesta dal mondo intero. Alla base dei problemi tecnici c’è la costruzione dei componenti che dovranno maneggiare queste densità di energia, ad esempio i vetri per i laser. Un altro problema riguarda i cristalli di potassio e fosfato usati per triplicare la frequenza dei fasci di infrarossi per passare all’ultravioletto, il cosiddetto processo 3-omega. I problemi crescono con i fasci di ultravioletti perché qui le ottiche sono molto critiche con le potenze in gioco ed il minimo difetto le fa deteriorare con rapidità esponenziale ad ogni colpo. Attualmente bisogna sostituire le ottiche ogni 50-100 colpi. Anche se si superano questi problemi ce ne sono altri di natura fisica; la compressione del laser deve avvenire in maniera perfettamente simmetrica sulla capsula di idrogeno in caso contrario l’idrogeno verrebbe lanciato in tutte le direzioni invece che compresso. Il processo è inerentemente instabile e non è sicuro che si riesca ad ottenere la fusione. Nel frattempo il NIF si aspetta di ottenere informazioni sulle proprietà dell’idrogeno ad altissime pressioni e temperature, utili per gli astrofisici ed i progettisti delle bombe, ma è certo che se non si raggiunge la fusione il NIF perderà ogni supporto politico.

Science, 27 Jul 2001, Vol. 293, pg. 582 - Charles Seife - Alla fine di un recente summit i fisici delle alte energie hanno concordato nel voler costruire, come prossimo grande acceleratore, un collisore lineare da diversi miliardi di dollari. Questo collisore userà elettroni e positroni come particelle da far collidere e, essendo queste particelle elementari indivisibili, si potranno più facilmente studiare i prodotti finali. Attualmente esistono il tedesco TESLA (Tera Electron Volt Superconducting Linear Accelerator) e l’americano Next Linear Collider che accelerano su 10 km particelle fino a 500 GeV e si pensa che debbano permettere la rivelazione del bosone di Higgs e forse delle prime particelle supersimmetriche. C’è infatti la convinzione che il bosone di Higgs, da cui dipende la massa delle particelle, abbia un’energia di 200 GeV. Il prossimo acceleratore dovrebbe costare almeno 6 miliardi di US$ e nessuna nazione vorrebbe finanziarlo da sola. Europa; Giappone e USA potrebbero collaborare ed il luogo di installazione è conteso fra Hamburg in Germania e Batavia nell’Illinois, USA. La Casa Bianca ha fino ad ora mostrato scarso interesse a questi programmi e chiede sempre quale sarebbe l’impatto sulla società se i fondi venissero negati; è necessario quindi un grande impegno da parte degli scienziati per spiegare i benefici che derivano alla società dal loro lavoro.

Science, 10 May 2002, Vol. 296, pg. 1008 - Adrian Cho - Nelle ultime due decadi i fisici hanno perfezionato la generazione di intensi fasci di raggi X prodotti dai sincrotroni. Con queste sorgenti si sono scoperte le strutture di migliaia di proteine e di materiali complessi come quelli dei superconduttori al alta temperatura. Ora i fisici si preparano a costruire una sorgente a raggi X 10 miliardi di volte più intensa dei sincrotroni reinventando il laser. Questa macchina si chiama X-ray Free Electron Laser (X-FEL) e promette di rivelare le strutture di molecole più complesse, di filmare i singoli atomi nei loro legami e di produrre uno stato di materia simile a quello che si trova al centro dei pianeti. Un X-FEL consiste in un acceleratore lineare di particelle lungo un km o più che produce un fascio di elettroni e lo fa passare quindi attraverso un array lungo 100 m di magneti accostati, detto ondulatore; questo fa oscillare il fascio nel piano orizzontale producendo un’emissione X che si accumula nella direzione di propagazione. Il principio è stato inventato nel 1970 alla Stanford University dimostrando che i fotoni prodotti in un ondulatore stimolano gli elettroni a produrre più fotoni, un’emissione stimolata che è alla base del principio del laser. I fotoni emessi nell’ondulatore viaggiano insieme agli elettroni che si muovono ad una velocità vicina a quella della luce, l’interazione rallenta gli elettroni con maggior energia e accelera quelli di energia più bassa raggruppandoli in micropacchetti che si muovono in sincronia con i fotoni che si accumulano. Il fenomeno è detto “self-amplification of spontaneous emission” (SASE); il fattore di amplificazione, uguale al numero degli elettroni può essere di 10 miliardi. I fisici del laboratorio DESY di Amburgo, Germania, hanno dimostrato il principio base e prevedono di costruire un’unità con 470 milioni di US$ da sperimentare nel 2010; lo Stanford Linear Accelerator Center (SLAC) in Menlo Park, California, spera di essere il primo con una macchina da 220 milioni di US$ entro il 2008 partendo da ciò che è disponibile. Una macchina completa dovrebbe costare un miliardo di US$. Ci sono ancora molti problemi da risolvere. Per una lunghezza d’onda di un decimo di nanometro si dovrà controllare la posizione degli elettroni entro 20 micrometri nell’intera lunghezza dell’ondulatore, bisognerà anche aumentare la corrente del fascio stringendolo e contrastando la sua tendenza ad allargarsi. A giustificazione del progetto i fisici spigano come un X-FEL aprirà un campo completamente nuovo di ricerche specie se si potranno raggiungere lunghezze d’onda di un decimo di nanometri e durate di impulso di 1/10000 di nanosecondo. Questa durata è inferiore al tempo che impiegano a cambiare i legami chimici ed i raggi X avrebbero lunghezze d’onda comparabili con le dimensioni dei legami, si avrebbe così la possibilità di filmare i processi chimici. Oggi per determinare la struttura di una molecola si illumina con raggi X un complesso cristallino formato da queste molecole e la struttura si deduce dalla misura della diffusione. Molte molecole però non formano cristalli sufficientemente grandi, invece con un singolo impulso di X-FEL si può rivelare la struttura di una singola molecola e, data la durata dell’impulso, questa non ha il tempo di muoversi. Un X-FEL può scaldare un piccolo campione di materia senza che questo abbia il tempo di espandersi e mantiene la densità di un solido, ma con una temperatura di 10000 K simile a quella che si ha al centro dei pianeti (warm condensed matter). Ciò fornirà nuovi dati agli astrofisici che studiano la formazione dei pianeti ed ai fisici che studiano la fusione nucleare indotta dal laser.

Science, 2 Aug 2002, Vol. 297, pg. 757 - Charles Seife - Un anno e mezzo fa l’acceleratore Tevatron che fa collidere fra di loro protoni ed antiprotoni con enorme energia ha cominciato ad operare dopo un aggiornamento da 260 milioni di US$, ma la “luminosità” del fascio è risultata insufficiente e si sono presentate grosse difficoltà. Ancora lo scorso gennaio si è fatto un nuovo piano per affrontare i problemi e sei mesi dopo si è ancora di un fattore 2 al di sotto della prestazione prevista. Il problema maggiore sta nel sistema che accumula e accelera gli antiprotoni, particelle più difficili da produrre a differenza dei protoni. Era previsto che solo l’80% degli antiprotoni prodotti sopravvivessero nel percorso dall’accumulatore al collisore, ma in gennaio solo il 30% erano utilizzabili. Fino ad aprile non si conoscevano le cause di questa perdita e nonostante gli sforzi si era raggiunto solo al 40%. Ad aprile si comprese che la causa prima stava nello scattering del fascio maggiore di quanto supposto. Gli antiprotoni che ruotano confinati nell’accumulatore in uno spazio ristretto urtano fra di loro ed il fascio si allarga. Migliorando il sistema di raffreddamento e la focalizzazione si è ora riusciti a utilizzarne dal 50 al 60%, un grande miglioramento, ma ancora insufficiente. Ad ogni modo sono ripresi gli esperimenti ed i fisici hanno misurato le proprietà dei bosoni W e Z, i portatori della carica debole, con energie finora mai raggiunte. Un altro problema da risolvere è la mutua interazione fra i fasci di protoni ed antiprotoni che camminano vicini nell’acceleratore. Ora tuttavia il problema del Tevatron sembra più sotto controllo. La preoccupazione si è ora trasferita ai fisici del CERN a Ginevra dove è in corso la messa a punto del Large Hadron Collider (LHC) e dove pure ci sono due fasci ad alta luminosità che si muovono vicini; così il rapporto fra i due gruppi di fisici è diventato più stretto.

Science, 25 Oct 2002, Vol. 298, pg. 718 - Charles Seife - La scorsa settimana i ricercatori del Relativistic Heavy Ion Collider (RHIC) del Brookhaven National Laboratory in Upton, New York, hanno annunziato dei risultati che per il momento nessuno sa spiegare. Facendo collidere atomi di oro a velocità prossime a quelle della luce i ricercatori speravano che questi creassero una fase della materia detta plasma quark-gluoni. Ma, anche se alcuni risultati potevano essere interpretati favorevolmente, ha meravigliato il comportamento delle particelle emesse durante la collisione. I nuclei sono un insieme di protoni e neutroni ed a basse energie si comportano nelle collisioni come palle di biliardo, ma ad alte energie, essendo formati da quark e gluoni, le collisioni dovrebbero diventano morbide e l’energia delle particelle emesse deve diminuire. Il sistema di misura è costituito da 4 rivelatori che devono misurare il diverso comportamento “duro” (hard) e “morbido” (soft) della collisione. Uno di questi rivelatori, il PHENIX, scopre le particelle nate dopo la collisione dalla ricombinazione di quark e gluoni; ora mentre i pioni prodotti dalla combinazione di quark ed antiquark hanno una bassa energia come previsto, le particelle formate da tre quark anche includenti antiquark si comportano come provenienti da collisioni hard. Le prossime prove con lo RHIC useranno collisioni fra atomi di deuterio ed oro o fra protoni con energie più basse e si vedrà se questa anomalia sparisce.

Science, 21 Feb 2003, Vol. 299, pg. 1168 - Adrian Cho - Entro un anno i fisici decideranno quale tecnologia usare per il linear collider da 6 miliardi di US$, lungo 30 km che farà scontrare fra di loro elettroni e positroni con tale violenza da generare particelle esotiche parecchie centinaia di volte più pesanti del protone, spiegare la natura della massa o indicare l’esistenza di nuove dimensioni. Il progetto base sarà deciso prima di stabilire dove impiantare il sistema, se in Nord America o in Europa o in Asia, e prima di dividere i costi. I fisici americani e giapponesi hanno proposto una tecnologia convenzionale e ne faranno una dimostrazione entro la fine dell’anno. I fisici tedeschi ed altri collaboratori internazionali hanno progettato una macchina a più bassa energia basata su una nuova tecnologia già provata sotto gli auspici del German Electron Synchrotron (DESY) di Amburgo. La decisione deve essere presa all’inizio del 2004 per completare il collider nei primi anni della prossima decade. Il linear collider è al primo posto nella lista dei fisici delle particelle che vedono vicina la scoperta di nuove particelle esotiche e persino nuove dimensioni dello spaziotempo forse già con il Tevatron del Fermilab in Batavia, Illinois, che fa scontrare protoni ed antiprotoni e con il più potente Large Hadron Collider (LHC) del CERN europeo che inizierà a lavorare nel 2007 e dovrebbe funzionare per 20 anni. Il nuovo collider elettroni-positroni sarà diverso da tutti gli altri. Non sarà circolare come il LEP (Large Electron-Positron Collider) del CERN spento nel 2000, perché quando le particelle cariche descrivono un cerchio perdono energia per irraggiamento. La nuova macchina avrà due opposti acceleratori lineari per portare le particelle vicino alla velocità della luce prendendo energia da cavità eccitate con onde elettromagnetiche. Gli USA ed il Giappone vogliono usare cavità di rame a temperatura ambiente simili a quelle usate nello SLAC (Stanford Linear Accelerator Center) in California. I fisici tedeschi lavorano con cavità al niobio superconduttore portate a pochi gradi kelvin. Con questa tecnologia i Tedeschi stanno costruendo il TESLA (Tera-electron volt Energy Superconducting Linear Accelerator) in un tunnel di 8 m di diametro dal villaggio di Rellingen sotto una famosa chiesa vicino Amburgo. Negli ultimi 2 anni i ricercatori del TESLA hanno prodotto con le cavità a semiconduttori gradienti di 23 milioni di volt per metro capaci di produrre energie di collisione di 500 miliardi di elettronvolt, più del doppio del LEP e valore minimo per il collider. I fisici ritengono che il linear collider debba raggiungere almeno gli 800 miliardi di elettronvolt e quindi le cavità dovrebbero produrre gradienti di 35 milioni di volt, valori ottenibili entro un anno. Molti fisici temono però le frizioni politiche fra CERN e TESLA che competono per le risorse. I fisici americani e giapponesi spingono la loro soluzione ritenendo che le cavità a superconduzione non potranno andare più su di 800 miliardi di elettronvolt perché perderebbero le loro proprietà per valori troppo alti del campo elettrico e magnetico. Le macchine di prova negli USA ed in Giappone sono rispettivamente il Next Linear Collider (NLC) ed il Japanese Linear Collider (JLC) ed usano cavità di rame di dimensioni 1/4 di quelle dello SLAC risuonando in banda X e si ritiene che si possano raggiungere energie di collisione maggiori di un trilione di elettronvolt. NLC deve competere per le risorse con altri progetti del DOE fra cui un acceleratore per nuclei radioattivi e l’ITER per la fusione nucleare. Circa il luogo dove impiantare il sistema i Giapponesi insistono nel volerlo nel loro paese. Il JLC ha proposto anche una soluzione con cavità in banda C che produrrebbe energie solo di 300-400 miliardi di elettronvolt, ma sarebbe più semplice da costruire. I fisici concordano nel decidere prima la tecnologia in modo da rendere più facili le discussioni politiche e, se ambedue le soluzioni si dimostrano fattibili, il tradeoff sarà fra un X-band collider con più alta energia ed un collider a superconduttori che può produrre dati ad un rate maggiore. La tecnologia può però essere condizionata dal denaro se la Germania o il Giappone si presentano con un’offerta economica più elevata.

Science, 21 Feb 2003, Vol. 299, pg. 1171 - Charles Seife - Tutte le particelle previste dal Modello Standard sono state trovate e studiate, ma i fisici sono ora alla ricerca di qualcosa di più grande. Con il Large Hadron Collider (LHC), che entrerà in funzione nel 2007, i fisici delle particelle sono sicuri di scoprire nuovi personaggi. Il bosone di Higgs spiegherà come le particelle acquistano la loro massa e ad ogni particella nota si aggiungerà un superpartner più pesante che sarà chiamato con una “s” aggiuntiva (squark, selectron, ecc.); questa rivoluzione porterà alla “teoria del tutto” e potrà individuare le particelle esotiche della dark matter che costituiscono la maggior parte della materia del nostro universo. Tuttavia LHC è uno strumento rozzo per determinare le caratteristiche delle nuove particelle una volta generate. Uno strumento più raffinato è il Linear Collider, lungo 35 km che farà scontrare elettroni ed antielettroni invece dei protoni. Gli acceleratori sono i microscopi della fisica delle alte energie. Secondo le leggi quanto-meccaniche, più alta è l’energia della collisione, più massive e di breve durata sono le particelle generate ed i fisici possono imparare sempre di più aumentando l’energia degli acceleratori. Come microscopio LHC è un mostro, costruito dal CERN a forma di anello con un tunnel di 27 km al costo di 1,6 miliardi di US$, genera nello scontro un’energia di 14000 giga elettronvolt (GeV). Ad ogni collisione si crea uno sciame di particelle, frammenti dei protoni originari ed altre create dall’energia della collisione. Quando i fisici analizzano le tracce di queste particelle possono capire quali sono state create e distrutte e quali forze governano le loro interazioni. Così si sono analizzati quark, neutrini, elettroni, tau e muoni e le forze portate da fotoni, gluoni e dai bosoni W e Z. Da queste analisi è nato il grande successo del Modello Standard. Ora il primo problema che i fisici cercano di risolvere è quello della massa perché la versione più semplice del Modello Standard non consente che le particelle abbiano una massa. Introducendo la massa nelle equazioni del modello si hanno degli infiniti e tutto perde significato. Il fisico inglese Peter Higgs propose una soluzione alla fine degli anni ‘60 introducendo una nuova particella, che da lui prese il nome di bosone di Higgs, che interagisce con tutte le particelle frenandole quando una forza cerca di accelerarle. Nel 2000 i fisici del LEP hanno forse scoperto il bosone di Higgs ad un livello di 115 GeV come previsto dai teorici, ma il LEP è stato smantellato per iniziare la costruzione di LHC e le prove furono interrotte. Il secondo problema del Modello Standard sta nell’unificazione delle tre forze della natura: le forze nucleari forte e debole e la forza elettromagnetica. A livelli di energia molto alti ed in piccola scala le tre forze diventano la stessa cosa e finiscono con avere la stessa forza, ma la convergenza non è perfetta. Per risolvere questa discrepanza i teorici hanno sviluppato la supersimmetria secondo la quale ad ogni particella nota ne corrisponde un’altra più pesante e di più breve durata e lo stesso succede per quelle che trasportano le forze (photino, gluino ecc.); con queste nuove particelle l’unificazione è praticamente perfetta. Un’altra ragione che spinge alla supersimmetria è che dalle osservazioni cosmologiche l’85% della massa dell’universo non può essere fatta delle particelle note dal Modello Standard. Le particelle della supersimmetria sono i primi candidati per questa materia oscura (dark matter) e si spera di cominciare a vedere queste nuove particelle con il LHC ed il Linear Collider; quest’ultimo sarà il preferito perché lo scontro fra protoni genera troppe particelle come quark e gluoni ed altre virtuali in base al principio di indeterminazione di Heisemberg e ciò rende molto difficile l’analisi. In un collisore lineare che fa scontrare elettroni e positroni questi si annichiliscono in un lampo di pura energia, ciò che si produce è molto più pulito e l’analisi diventa molto più semplice. Essendo però elettroni e positroni molto più leggeri del protoni è necessario accelerarli di più Ora ciò che è necessario è convincere i governanti che questa semplicità vale parecchi miliardi di dollari.

Science, 4 Jul 2003, Vol. 301, pg. 153 - Charle Seife - Da numerosi esperimenti con alte energie sembra che si siano create particelle esotiche contenenti 5 quark invece dei normali 2 o 3 della materia ordinaria. Se confermato, questa nuova particella, chiamata theta-plus, potrebbe aiutare i fisici a togliere le ultime ombre della cromodinamica quantistica (QCD), cioè la teoria che descrive i quark e le forze che li uniscono. La QCD non vieta la formazione di una particella a 5 quark, ma tutte le particelle note sono costituite da 3 quark (barioni) o dalle coppie quark-antiquark noti come mesoni. Ora in tre laboratori gli scienziati credono di aver visto particelle a cinque quark. Il primo esperimento è avvenuto nell’acceleratore SPring-8 vicino ad Osaka, colpendo un bersaglio di carbone con luce ad alta energia. Il secondo esperimento è avvenuto presso il Jefferson National Accelerator Facility (JLab) in Virginia mandando luce contro bersagli di deuterio o idrogeno. Il terzo all’Institute of Theoretical and Experimental Physics (ITEP) in Mosca facendo collidere mesoni su nuclei di xenon. In tutti i casi è rimasta traccia della ricombinazione nella nuova particella che decade poi nei più convenzionali barioni e mesoni. Tutti i laboratori hanno riferito su risultati identici, ma non si può essere sicuri al 100% senza ulteriori prove; è ancora possibile che ci sia stato un errore, o per esempio che si tratti di una specie di molecola con un legame fra un mesone ed un barione.

Science, 4 Jul 2003, Vol. 301, pg. 154 - Robert F. Service - Il 23 maggio 1996 al Lawrence Livermore National Laboratory in California è stato creato un singolo impulso laser con una potenza di picco mai raggiunta prima. Usando la tecnica di compressione di impulso lo si è portato a 500 femtosecondi (10E-15 s) raggiungendo un potenza di picco di 1,25 quadrilioni di watt o petawatt (10E15 w), in questo breve intervallo di tempo è disponibile più di 1200 volte la potenza prodotta da tutte le centrali degli Stati Uniti. Nel corso dei successivi 3 anni i ricercatori del laboratorio hanno usato questa potenza per spaccare o fondere atomi, accelerare elettroni vicino alla velocità della luce, creare pressioni 300 miliardi di volte quella atmosferica, produrre intensi impulsi di raggi X, raggi gamma e protoni ad alta energia. Lo sviluppo di questo laser era destinato al progetto Nova per la fusione nucleare poi abbandonato e sostituito dal National Ignition Facility (NIF), ora in costruzione, ed il laser fu usato in UK e Giappone. Ora esistono nel mondo decine di sistemi laser simili, finiti o in costruzione. Un petawatt laser, colpendo bersagli materiali può ricreare condizioni presenti alle origini dell’universo o all’interno dei buchi neri e delle stelle di neutroni rendendo possibile creare un laboratorio di astrofisica riproducendo un gran numero di esperimenti. Il primo laser ottico fu costruito nel 1960 presso i laboratori della Hughes. Da allora si cercò di costruire laser sempre più potenti ed alla fine degli anni ‘60 si era raggiunto un gigawatt cioè un miliardo di watt. Oltre questa potenza il fascio vaporizzava il materiale. Nel 1985 all’università di Rochester, New York, si scelse una nuova tecnica per aumentare al potenza di picco, detta chirped pulse amplification (CPA), che consiste nel far passare un breve impulso ad alta intensità attraverso un reticolo di diffrazione che allarga nel tempo l’impulso fino a 10000 volte abbassandone l’intensità. L’impulso può quindi essere amplificato e, passando poi attraverso un altro reticolo di diffrazione complementare al primo viene ricompresso alla durata originale con potenza migliaia di volte superiore. A metà degli anni ‘90 si raggiunse così il petawatt e l’intensità di potenza per cmq che si può concentrare su un bersaglio salì a 10E21 w/cmq. Quando le onde del laser con questa densità di potenze attraversano la materia gli elettroni vengono accelerati molto vicino alla velocità della luce e la loro massa aumenta di 1000 volte. In un gas ionizzato, o plasma, gli elettroni vengono accelerati e separati degli ioni, ma questo crea un campo che trascina gli ioni a velocità relativistiche accelerandoli a centinaia di milioni di eV nello spazio di un millimetro. Un petawatt laser è anche n grado di creare un denso plasma di elettroni e positroni che sembra abbia un ruolo importante nella generazione dei gamma ray burst. La fusione nucleare guidata dal laser è stato un lungo sogno con i progetti Nova e NIF con l’uso di fasci multipli per provocare un’implosione perfettamente simmetrica, ma la ricerca prosegue. Ci si pone ora l’obiettivo di superare il limite del petawatt fino allo exawatt ed allo zetawatt, 1000 e 1000000 di petawatt rispettivamente (10E18 e 10E21 W) e con questi valori si raggiungerebbero densità di potenza per cmq di 10E28 e si potrebbero riprodurre fenomeni osservati solo in astrofisica.

Science, 3 Oct 2003, Vol. 302, pg. 36 - Charles Seife - Attualmente il Tevatron è il più potente acceleratore del mondo. La macchina è stata migliorata 2 anni fa nello sforzo di riempire in piccola parte il vuoto lasciato dalla cancellazione del Superconductor Super Collider (SSC) decisa dal Congresso USA nell’ottobre di 10 anni fa. Se lo SSC fosse stato costruito, oggi ci sarebbe un collisore da 20 trilioni di eV (TeV) invece di un acceleratore da 1 TeV. I primi risultati si sarebbero avuti alla fine del secolo con la scoperta di nuove particelle come il bosone di Higgs ed avremmo forse saputo se esiste la supersimmetria. Oggi si spera in qualche interessante risultato del Tevatron mentre si aspetta fra 4 anni il debutto del Large Hadron Collider (LHC) europeo da 7 TeV per avere alcune risposte che ci si attendeva dello SSC. Questo era stato concepito nel 1982 per far collidere fra di loro fasci di protoni e creare una valanga di nuove esotiche particelle. Il sistema richiedeva un tunnel circolare lungo 90 km con magneti a superconduttori e fasci di protoni a velocità del 99% di quella della luce. Il progetto mirava a scoprire due tipi di particelle: il bosone di Higgs e le particelle supersimmetriche più leggere (LSP), risolvere il problema della massa e quello dell’unificazione. Per il Modello Standard a rigore le particelle non dovrebbero avere massa ed i fisici hanno risolto il problema ipotizzando l’esistenza di nuove particelle di scambio detti bosoni di Higgs che provocano sulle particelle una resistenza all’accelerazione. Allo stesso modo la scoperta delle LSP (Lightest Supersymmetric Particle) avrebbe permesso l’unificazione della forza elettrodebole con la forza forte e confermato la teoria della supersimmetria e l’esistenza di particelle supersimmetriche più pesanti, candidate della materia oscura fredda. Il progetto iniziale con un budget di 3 miliardi di US$ in 6 anni fu approvato a metà degli anni ’80 dal Presidente Regan, ma divenne presto da 4 miliardi e 9 anni e venne cancellato dal Congresso nell’ottobre del 1993. Nella metà degli anni ’90 i fisici rivolsero le loro speranze al Tevatron del Fermilab che ha prodotto risultati nella conoscenza del top quark (scoperto nel 1995), nel bottom quark e nelle particelle W e Z, ma non nella nuova frontiera. Ora si attende lo LHC europeo nel 2007 e forse si potrebbero raggiungere i 10 o 15 TeV, ma sempre inferiori alle possibilità di SSC. L’incertezza del futuro ha spinto molti fisici delle alte energie a migrare verso altre discipline, molti nel campo dei neutrini e nell’astrofisica. L’osservazione dei raggi cosmici apre verso sorgenti di energia di centinaia di exa eV, più di un milione di volte quella che lo SSC avrebbe impresso ai protoni, ma non c’è possibilità di controllare i raggi cosmici. Gli esperimenti con gli acceleratori rimangono sempre insostituibili.

Science, 27 Aug 2004, Vol. 305, pg. 1223 - Charles Seife - I fisici delle particelle sono convinti che la prossima macchina acceleratrice per esplorare le forze e la materia dell’universo sarà un collisore lineare che userà superconduttori raffreddati invece dei normali conduttori a temperatura ambiente. Dopo 75 anni questo sarà il prossimo passo nel progetto degli acceleratori. Nel 2007 o 2008 il Large Hadron Collider (LHC) del CERN vicino a Ginevra comincerà la ricerca di nuove particelle. Molti fisici hanno grandi speranze che si scopriranno particelle esotiche come quella di Higgs ed i partner supersimmetrici delle particelle note, ma LHC, che fa collidere particelle complesse come i protoni, non ha la finezza per analizzare in dettaglio le nuove scoperte. Un collisore lineare che fa scontrare semplici elettroni ed antielettroni è invece in grado di analizzare le nuove particelle con maggior precisione. La decisione di un collisore lineare si è avuta nella riunione del Colorado nel 2001, ma erano diverse le opinioni su come realizzarlo. Gli scienziati giapponesi del laboratorio KEK a Tsukuba e quelli dello SLAC preferivano usare cavità di rame per pompare grandi quantità di energia nelle particelle da accelerare in uno spazio ristretto. Gli europei del laboratorio DESY di Amburgo hanno proposto un piano per usare cavità al niobio superconduttore per accelerare elettroni ed antielettroni in modo meno concentrato, ma più efficiente. La tecnologia calda produce gradienti più elevati e la macchina è più piccola e più corta, ma la tecnologia fredda usa meno potenza ed è più economica nel funzionamento. La maggior parte degli scienziati concordano sul fatto che ambedue le tecnologie raggiungono lo scopo con lo stesso costo. Altri fattori hanno poi influenzato la decisione in particolare la più bassa frequenza di operazione della tecnologia fredda che rende il sistema meno sensibile alle vibrazioni; la tecnologia è inoltre simile a quella usata nel Tera-electron-volt Energy Superconducting Linear Accelerator (TESLA) del DESY. Il consenso dei fisici apre buone prospettive perché faciliterà le decisioni politiche. Il prossimo passo è di arrivare ad un progetto preliminare cosa che richiederà circa 2 anni. Non c’è ancora una buona risposta sui costi, ma si tratterà di parecchi miliardi di US$.

Science, 24 Dec 2004, Vol. 306, pg. 2180 - Charles Seife - Nell’anno 2000 gli scienziati del CERN, il laboratorio europeo di fisica delle alte energie vicino Ginevra, hanno creduto di essere sul punto di creare uno stato della materia che è durato poche frazioni di secondo dopo che è nato l’universo. I loro colleghi del Brookhaven National Laboratory, che lavoravano su un nuovo e più potente acceleratore erano ancora più confidenti, ma dopo quasi 5 anni nessuno conferma di aver creato un plasma quark-gluoni, uno stato di alta energia della materia in cui i componenti fondamentali di protoni e neutroni si muovono liberi. I ricercatori confessano che ciò che avevano osservato non si comporta come dovrebbe. Nel nostro freddo universo i quark che formano la materia nota sono congelati all’interno degli adroni e non si vedono mai da soli, ma nel primo universo molto caldo gli scienziati credono che quark e gluoni, in un breve intervallo di tempo, si muovevano liberi prima di unirsi a formare gli adroni; per questo i ricercatori hanno tentato di ricreare questo breve momento nei loro acceleratori. Un acceleratore è come una macchina del tempo, più alta è la sua energia più si va indietro nel tempo. Al CERN il Super Proton Synchrotron (SPS) con i suoi 3,5 TeV ci porta a pochi milionesimi di secondo dopo il big bang. Facendo collidere fra di loro atomi di piombo. Protoni e neutroni si rompono ed i loro componenti nucleari vengono eiettati. Gli scienziati analizzando il getto di particelle risultante, alcune generate dai quark e gluoni dei nuclei di piombo, altre dall’enorme energia sprigionata, hanno cercato i segni della formazione di questo plasma. La prova è stata indicativa, ma non conclusiva. Un indicatore promettente fu la quasi mancanza di un particolare tipo di particella nota come J/Psi costituita dal raro quark charm e dal suo opposto di antimateria. Queste particelle si generano insieme dall’energia e non dalla materia nucleare e, anche se la coppia J/Psi si può generare nella ricombinazione di quark vicini, i quark liberi di un plasma creano più facilmente mesoni D piuttosto che coppie J/Psi. Dopo queste prove lo SPS fu fermato per la trasformazione nel Large Hadron Collider e successivamente è entrato in funzione il Relativistic Heavy Ion Collider (RHIC) del Brookhaven Lab. che ha un’energia 4 volte più elevata. I primi risultati con la collisione di atomi di oro hanno confermato la possibile presenza del plasma. Anche se RHIC non era in grado di rivelare la mancanza di coppie J/Psi, ha trovato un’altra prova nel fenomeno del “jet quenching”. Quando due nuclei collidono un getto di particelle viene irradiato dal centro della collisione come palle di biliardo, ma le collisioni nello RHIC hanno creato meno getti di quanto atteso e questo effetto di soppressione (quenching) è stato interpretato dagli scienziati come dovuto alla formazione di uno stato liquido o gassoso nel punto di collisione dove le particelle si comportavano come se si espandessero da una massa fluida. Il jet quenching sparisce se si fanno collidere nuclei di massa minore e quindi con minore energia. La conclusione sembrava ovvia, ma l’annunzio ufficiale della creazione di un plasma quark-gluoni non è venuto. In realtà il comportamento non era quello atteso, non c’era una netta transizione di fase dallo stato ordinario di materia condensata a quello di plasma. In un cambiamento di stato, come ad esempio dal ghiaccio all’acqua, aggiungendo calore la temperatura rimane costante; nel nostro caso è mancata una indicazione netta che qualcosa di nuovo stava accadendo. I teorici si aspettavano che i nuclei evaporassero come un gas per un certo tempo mentre era solo evidente che non si comportavano più come un solido. Quark e gluoni sentivano ancora fortemente la reciproca presenza ed al centro il comportamento era più quello di un fluido. I dati mostrano che quark e gluoni si trovano in uno stato fortemente interagente le cui proprietà non sono ancora comprese e non si può affermare che questo fluido sia il plasma cercato.

Science, 1 Apr 2005, Vol. 308, pg. 38 - Charles Seife - Il 7 febbraio scorso è stato un giorno sgradevole per gli scienziati del Fermi National Accelerator Laboratory (Fermilab), che lavoravano al progetto di molti milioni di dollari BTeV per lo studio delle proprietà del quark bottom, quando hanno scoperto che il progetto era stato cancellato dal Congresso perché non c’erano altri soldi da spendere. Il BTeV era il solo progetto pianificato di fisica delle alte energie per lo studio delle particelle fondamentali entro il 2010. Oltre questa data, se il nuovo progetto del Linear Collider del Department of Energy (DOE) non si materializza, tutti i successi USA sulla fisica delle alte energie saranno solo oggetto di storia passata. Gli acceleratori sono per i fisici delle alte energie ciò che i microscopi sono per i microbiologi. Più grandi sono le macchine meglio i fisici possono vedere nel mondo subatomico. Gli acceleratori sono macchine che trasformano l’energia in materia. Accelerando le particelle vicino alla velocità della luce, quando queste colpiscono un bersaglio, consumano in un istante tutta la loro energia e nuove particelle vengono alla luce create dall’energia della collisione. Dopo che queste particelle interagiscono e decadono lasciano una cascata di residui ed i fisici, osservandoli, possono dedurre la natura delle particelle esotiche create in una frazione di secondo dall’energia della collisione, ma queste particelle esotiche sono limitate dall’ammontare di energia disponibile dall’acceleratore misurata in MeV, milioni de elettroni volt. Più potente è la macchina più pesanti ed esotiche sono le particelle create e più in profondità si può vedere nelle leggi che governano la materia e nelle forze della natura. A metà del decennio 1950 l’acceleratore Bevatron del Berkeley National Laboratory in California ha portato alla scoperta dell’antiprotone (938 MeV). Nei decenni 1970 e 1980 gli acceleratori non stavano più dentro un solo edificio ed il laboratorio di fisica delle alte energie creato dal CERN a Ginevra ha portato i fisici europei alla scoperta delle particelle W e Z, portatrici della forza debole che hanno rispettivamente un’energia di 80000 e 90000 MeV. Nel 1995 l’acceleratore Tevatron del Fermilab, circa mille volte più potente del Bevatron ha scoperto il top quark (174000 MeV). Nel 1993 fu cancellato il più grande acceleratore fra tutti, il Superconducting Super Collider, mentre era già in costruzione nel Texas. Ci cono altri esperimenti che non sono basati solo sulla forza bruta. Osservando come interagiscono i mesoni ad energie relativamente basse si possono dedurre le proprietà di particelle di grande massa e questo tipo di progetti ha portato ad una descrizione efficace dei componenti della materia e delle forze che la regolano secondo il Modello Standard, ma il Modello Standard è incompleto ed i fisici si sentono vicini a due grandi scoperte. Il Large Hadron Collider (LHC) del CERN, che sarà pronto verso il 2007, porterà forse i fisici a scoprire il bosone di Higgs che spiegherà perché le particelle hanno massa. Molti scienziati credono inoltre che LHC farà osservare anche le prime particelle supersimmetriche, una nuova classe di particelle fondamentali che sono al di fuori del Modello Standard e che sono responsabili della maggior parte della materia dell’universo. I fisici sperano infine nell’uso del prossimo grande acceleratore, l’International Linear Collider (ILC) che darà l’opportunità di estendere il Modello Standard ad una vera teoria della materia che includerà tutto.

Per il momento il budget degli USA è in caduta. Quest’anno il DOE, che finanzia la maggior parte dei fisici delle alte energie, ha chiesto 716 milioni di US$, 3% in meno dello scorso anno e si andrà avanti a basso profilo; ogni nuova iniziativa deve partire da un riorientamento generale, ma la notizia della cancellazione del BTeV è stata uno shock, non c’è nulla per rimpiazzarlo ed il budget è stato decurtato di 20 milioni di US$. Il programma del Fermilab viene indebolito mentre il Brookhaven National Accelerator Laboratory di Upton, New York, ha spostato il centro delle sue ricerche sulla fisica nucleare. Lo Stanford Linear Accelerator Center (SLAC), che attualmente usa un collider per produrre mesoni B, chiuderà la sua fabbrica di mesoni B nel 2008. Incerta è la direzione del Fermilab, il Tevatron sarà probabilmente chiuso intorno al 2010 e finché non inizia l’ILC gli Stati Uniti saranno tagliati fuori dalla competizione della fisica delle alte energie. Il supporto che ha in mente il DOE è di spostarsi dalla fisica dei quark a quella dei neutrini. Nel 2002 il progetto Fermilab MiniBooNE usava l’acceleratore per colpire un bersaglio con dei protoni e generare dei neutrini che venivano poi osservati da un rivelatore. Lo scorso mese il Fermilab ha lanciato il progetto NuMI/MINOS che invia neutrini ad un rivelatore nel Minnesota. Il progetto è certo interessante, ma lascia nello sconforto i fisici delle alte energie. Il Tevatron rimarrà però in funzione fino alla fine del decennio. I fisici potranno collaborare agli esperimenti dello LHC e potranno orientarsi all’osservazione dei raggi cosmici che rappresentano un modo indiretto per comprendere le particelle fondamentali della natura, ma così si lascerà atrofizzare un’importante linea di ricerca per non essere in grado di alimentarla. Una grande speranza degli USA è l’ILC, se il collider verrà installato negli USA sarà una grande opportunità per i fisici ed eviterà l’emorragia di esperti verso l’estero. Tutto dipenderà dai parametri del progetto ed uno dei più importanti fra questi è il costo che il DOE stima di 12 miliardi di US$ dei quali la metà sarà pagata da chi lo ospiterà. Il completamento del progetto si concluderà entro la metà della prossima decade e questa scadenza lascerà un’intera generazione di fisici e studenti fuori dall’accesso a questo acceleratore. La situazione viene a cambiare tutte le priorità nei progetti ed è stata creata una sottocommissione per questo. Alcuni temono che la fisica delle alte energie non sia più considerata molto importante. Laboratori come SLAC e Brookhaven hanno fermato la ricerca in questo campo; il Fermilab si sta concentrando sulla fisica dei neutrini e se il Congresso non da spazio al DOE per il progetto ILC si va incontro ad un arresto.

Science, 22 Apr 2005, Vol. 308, pg. 478 - Charles Seife - Alla riunione dell’American Physical Society del 16-19 aprile scorso gli scienziati hanno presentato prove consistenti che la tanto studiata particella Theta Plus potrebbe essere solo un miraggio statistico. I nuovi dati da un esperimento del Thomas Jefferson National Laboratory (JLab) in Newport, West Virginia, non escludono completamente la presenza del pentaquark, ma indeboliscono una linea di supporto fondata sull’esistenza della particella e potrebbe bloccarla. La storia del pentaquark è cominciata 2 anni fa quando l’esperimento giapponese Spring-8 sembrò trovare la traccia di una particella Theta Plus che non poteva essere formata da un insieme di 2 o 3 quark come tutte le altre particelle note. In pochi mesi altri esperimenti annunziarono circa una dozzina di altri avvistamenti della particella. Poiché i dati di precedenti esperimenti non mostravano questa particella, i fisici attesero nuovi esperimenti progettati allo scopo del JLab. Nel primo di questi esperimenti, detto g11, i fisici illuminarono con raggi gamma un bersaglio pieno di protoni; teoricamente una collisione fra fotoni e protoni poteva creare una Theta Plus e nel 2003 una collaborazione in Germania con un esperimento simile aveva prodotto circa 60 pentaquark, quasi una rivelazione con 5 deviazioni standard, ma con il nuovo esperimento non si trovò nulla. Si sta ora preparando una seconda prova al JLab usando un bersaglio ricco di deuteroni, formati da un protone ed un neutrone, con cui dovrebbe essere più facile produrre la Theta Plus. Questo risultato sarà decisivo, ma è comprensibile un certo scetticismo.

Science, 22 Apr 2005, Vol. 308, pg. 479 - Charles Seife - Alla riunione dell’American Physical Society del 16-19 aprile scorso gli scienziati che lavorano al Relativistic Heavy Ion Collider (RHIC) hanno celebrato la scoperta di un nuovo stato della materia che non si è visto dopo i primi istanti del big bang cioè il plasma quark-gluoni. L’eccitazione è stata temperata dalla preoccupazione per lo stato del budget della fisica nucleare e l’incerto futuro del Brookhaven National Laboratory del DOE, stato di New York, dove si trova RHIC. Questo impianto è stato concepito nel 1983 e fa collidere atomi a velocità prossime a quelle della luce. Gli scienziati avevano sperato che l’energia della collisione avrebbe fuso protoni e neutroni dei nuclei formando un plasma dei loro costituenti, quark e gluoni. Dopo anni di esperimenti gli scienziati hanno visto certamente qualcosa di nuovo. Getti di particelle che sfuggivano dal punto di collisione e sembravano muoversi da un centro viscoso piuttosto che da un gruppo solido di protoni e neutroni come avviene generalmente. Dopo la collisione il sistema si comportava come un fluido in espansione piuttosto che come uno sciame di particelle. Si parlò di un liquido ideale senza viscosità e di un fluido perfetto come predetto dai calcoli. Fu anche una sorpresa, ci si aspettava un gas caldo e denso, invece quark e gluoni interagivano in modo più forte di quanto previsto e come risultato gli scienziati non furono d’accordo nel parlare di plasma quark-gluoni. La comunità dei fisici teorici è favorevole, ma i fisici sperimentali vogliono una prova più diretta che quark e gluoni si muovono in modo più libero. Un fluido perfetto si espande molto rapidamente ed i vari elementi del fluido hanno la stessa velocità, quindi le particelle più pesanti subiscono una spinta più grande di quelle leggere, ma i fisici di RHIC non hanno la possibilità di studiare questo stato della materia più a lungo. Il budget del DOE ha per il 2006 un taglio dell’8% ed il tempo di funzionamento di RHIC scenderà da 30 settimane a 12, il laboratorio dovrà ridurre il personale di 40 persone, cioè del 10%. Il taglio dei fondi avviene purtroppo in un momento critico della ricerca.

Science, 21 Apr 2006, Vol. 312, pg. 374 - Mike Dunne - Da molti anni la comunità dei laser di potenza ha inseguito l’obiettivo di realizzare acceleratori di particelle miniaturizzati. Le tecnologie convenzionali usate nella ricerca della fisica delle alte energie richiedono acceleratori di dimensioni chilometriche e lo stesso è necessario per le applicazioni medicali nel trattamento dei tumori per cui risultano accessibili ai soli grandi ospedali. Al contrario le tecniche basate su plasma e laser possono produrre campi elettrici di 4 ordini di grandezza più grandi di quelli delle tecniche convenzionali ed aprono la speranza che gli acceleratori di particelle possano diventare più maneggevoli. All’università di Düsseldorf è stata dimostrata una tecnica innovativa per accelerare e focalizzare un fascio di protoni con energie di molti MeV mediante l’uso di una lente capillare costituita da un tubicino all’interno del quale viene creato un intenso campo elettrico illuminandolo lateralmente con un laser. Il fascio di protoni inviato alla lente viene generato con un altro impulso laser con durata di subpicosecondi che irradia un foglio metallico e crea un gradiente elevato fra la faccia anteriore e posteriore del foglio con un’intensità di 10E18 W/cmq. Il laser ionizza il materiale ed accelera gli elettroni a velocità relativistiche e l’interazione con il laser produce anche un fascio energetico di protoni ed ioni. L’efficienza varia fra 1 e 10% e gli impulsi si possono ottenere ad alta frequenza di ripetizione. I risultati sono stati incoraggianti e le potenziali applicazioni sono numerose, ma richiedono caratteristiche di stabilità e riproducibilità ancora da dimostrare. Non è ancora conclusa la ricerca di base per sviluppare il principio e sarà necessario un processo di industrializzazione per ogni applicazione. Sono stati ottenuti fondi dall’Unione Europea per un acceleratore guidato dal laser a livello di GeV per produrre un fascio monocromatico. Altre due applicazioni sono per la fisica delle alte energie e per le applicazioni cliniche. Un altro obiettivo è di realizzare un acceleratore multiplo per produrre sorgenti di elettroni, raggi gamma e fasci di protoni per numerose applicazioni.

Science, 2 Jun 2006, Vol. 312, pg. 1302 - Adrian Cho - Quattro anni fa il Tevatron del Fermilab, dopo le migliorie, non riuscì a far collidere protoni su antiprotoni con la frequenza prevista togliendo ogni speranza di ottenere i risultati sperati prima che il Large Hadron Collider (LHC), in costruzione presso il CERN entro il prossimo anno, entrasse in funzione. Però dopo alcuni rimaneggiamenti e con un duro lavoro del personale, ora il Tevatron sta macinando dati ad una frequenza prodigiosa e gli sperimentatori del Fermilab sono cautamente ottimisti di scoprire fra breve il bosone di Higgs, la particella da cui dipende la massa delle altre particelle. Se la macchina continua a migliorare, entro il 2009 produrrà un po’ più della metà dei dati che i ricercatori avevano sperato. Se Higgs ha una massa non maggiore di 130 volte quella del protone, lo si potrà scoprire entro i 2009 e si potranno risparmiare soldi per i futuri progetti come l’International Linear Collider, un acceleratore lineare da 30 km che potrà competere con LHC. Quando nel 2001 il Tevatron iniziò una revisione lunga 5 anni che sostituiva l’acceleratore per far collidere protoni ed antiprotoni, si sperava di ottenere una frequenza nelle collisioni di 10-20 volte quella di prima, ma il miglioramento ottenuto fu solo di un fattore 2. Il problema stava nel modo con cui si ottenevano gli antiprotoni. Per generarli si sparavano protoni su un bersaglio metallico e si raccoglievano particelle di antimateria che venivano passati ad un altro acceleratore (recycler) per accumularli in fasci e passarli all’iniettore principale. La frequenza con cui si possono ottenere le collisioni dipende da un fattore noto come luminosità e l’obiettivo era di raggiungere un fattore 8 entro il 2009. Il modello standard riunisce la forza elettromagnetica, dell’elettricità e del magnetismo, e la forza debole che produce il decadimento radioattivo che sono manifestazioni diverse della stessa cosa anche se non sono intercambiabili. La forza elettromagnetica agisce a grandi distanza perché i fotoni che la mediano non hanno massa, la forza debole invece agisce su distanze pari a quelle dei nuclei atomici perché viene mediata dalle particelle W e Z la cui massa è molto maggiore di quella del protone. La massa delle particelle secondo i teorici si origina però da un campo di Higgs che riempie lo spazio e frena le particelle dando ad esse un’inerzia e quindi una massa Il modello standard non predice la massa della particella di Higgs, ma pone delle condizioni fra le masse delle particelle e ci si aspetta che sia inferiore ad un’energia di 125 GeV. Questo è però solo il più semplice dei modi con cui il bosone di Higgs si può presentare. Nella teoria della supersimmetria per ogni particella si può avere un superpartner di massa maggiore e si possono avere due campi di Higgs e 5 particelle di Higgs che saranno più difficili da scoprire. Il futuro è condizionato dallo sviluppo di LHC che comincerà a funzionare il prossimo autunno e fornirà i suoi primi dati nella prossima primavera. LHC farà collidere protoni con protoni a 14 TeV. Il funzionamento avverrà gradualmente perché l’energia dei fasci è così elevata che potrebbe forare la struttura se non vengono ben indirizzati. Certamente nel 2009 LHC raggiungerà il 50% della sua luminosità superando il Tevatron.

Science, 16 Feb 2007, Vol. 315, pg. 933 - Edwin Cartlidge - Cinquant’anni fa, al tempo del Presidente Eisenhower, i fisici hanno iniziato a sviluppare gli acceleratori di particelle noti come fixed-field alternating-gradient (FFAG) synchrotron ed oggi hanno ripreso il progetto per realizzare un sistema che funzioni realmente. I proponenti affermano che questi acceleratori possono produrre fasci di particelle per nuove applicazioni come distruggere tumori con grande precisione, ridurre il tempo di dimezzamento della vita dei rifiuti radioattivi e studiare le proprietà delle particelle fondamentali della natura. Come i sincrotroni ed i ciclotroni, oggi ben noti agli scienziati, gli FFAG usano campi elettrici per accelerare fasci di particelle come protoni ed elettroni, ma differiscono nel modo di guidare le particelle nel circuito. Nei ciclotroni un campo magnetico fisso forza il fascio di particelle cariche a muoversi in circolo, ma la tensione accelera regolarmente le particelle e le costringe a spire sempre più larghe. Le dimensioni del magnete limitano quindi la massima energia del fascio. I sincrotroni superano il problema con un campo magnetico variabile a rampa che cresce con il crescere dell’energia, ma una volta iniziato non si possono iniettare altre particelle a energia più bassa e c’è un limite all’intensità del fascio. Gli FFAG risolvono questi problemi usando un campo magnetico che rimane fisso, ma che cresce radialmente nell’anello. Man mano che cresce l’energia delle particelle esse si spostano all’esterno dove trovano un campo più forte che le fa circolare e producono così fasci di maggiore energia dei ciclotroni e più intensi dei sincrotroni. Questa idea era stata avanzata per la prima volta dal fisico giapponese Chihiro Ohkawa nel 1953 ed i ricercatori USA avevano realizzato tre piccoli FFAG alla fine del decennio 1990 con lo scopo di costruire poi un impianto per la generazione di neutrini da molti miliardi di dollari ritenendo che gli FFAG fossero l’ideale per accelerare particelle e produrre poi neutrini. Nel 2000 fu costruito un impianto di prova e dopo uno più grande con un raggio di 5 m. Lo scorso anno questa macchina ha accelerato protoni a 100 milioni di eV con una frequenza di 100 pacchetti al minuto, due volte il massimo ottenuto con i sincrotroni. Questo prototipo fu costruito per applicazioni terapeutiche per distruggere i tumori. All’università di Kyoto si studiò poi la possibilità di ridurre il dimezzamento della vita di rifiuti radioattivi a lunga vita. Un FFAG potrebbe fare con un impianto di poche decine di metri ciò che un acceleratore lineare farebbe con una lunghezza di un chilometro. Ci sono ancora alcuni problemi tecnici da risolvere. Magneti più grandi hanno problemi di scala nel progetto che sono estremamente complessi. Un consorzio UK di diverse università crede di poter risolverli ed ha ricevuto 16 milioni di US$ per un modello da dimostrazioni che, se tutto va bene, sarà in grado di trattare i pazienti in un ospedale di Bristol entro 6-7 anni.

Science, 23 Mar 2007, Vol. 315, pg. 1652 - Adrian Cho - Il Compact Muon Solenoid (CMS), con la una dimensione trasversale di 15 m ed un peso di 13010 tonnellate, è l’enorme rivelatore che presto capterà le particelle di materia emesse dal Large Hadron Collider (LHC) nei laboratori europei di fisica del CERN. Fra pochi mesi i ricercatori avranno completato il percorso da 27 km di LHC ed a novembre si spera di portare all’accensione il sistema. Facendo collidere le particelle con un’energia 7 volte superiore delle precedenti, LHC farà emergere le particelle di materia che mancano ancora fra quelle previste dalla teoria. LHC farà del CERN il centro della fisica delle particelle. Appena LHC surclasserà il collisore Tevatron del Fermilab, il centro di gravità della fisica si sposterà al CERN che ha investito molto denaro in questo esperimento. Nessuno sa in realtà che cosa troverà LHC, ma ha già creato una rivoluzione. Oltre a far collidere le particelle con l’energia più alta, LHC associa pure i rivelatori più grandi e complessi mai costruiti per un collisore. Essi forniranno il più grande torrente di dati e LHC consumerà 120 MW di potenza, quanto consumato nelle abitazioni dell’intero cantone di Ginevra. Con un costo di 4,7 miliardi di Franchi svizzeri (3,8 miliardi di US$), è il collisore più costoso mai costruito e gli USA hanno contribuito per 531 milioni di US$ nei rivelatori. Tutto è colossale. Ad esempio il rivelatore ATLAS è alto 8 piani e lungo quanto un mezzo campo di calcio. Il maggiore obiettivo di LHC è di scoprire il bosone di Higgs che completerebbe il modello standard delle particelle conosciute, ma i fisici sperano che il modello standard non sia l’ultima parola della fisica delle particelle e che LHC ne faccia emergere di nuove ed altre novità. Stephen Hawking, ad esempio spera nei mini-buchi neri. ATLAS e CMS potrebbero scoprire le particelle predette nel concetto della supersimmetria. Il rivelatore chiamato LHCb studierà le asimmetrie fra particelle che contengono il bottom quark ed altri elementi di antimateria. Un altro rivelatore chiamato ALICE e posto a 7 km di distanza studierà il plasma di particelle quark-gluoni che esisteva nel primo universo e che è stato ricreato nel Relativistic Heavy Ion Collider (RHIC). LHC potrà far collidere atomi di piombo con energie 28 volte più alte. Per il momento certo i ricercatori vogliono completare il collisore e sono nei tempi per finire quest’anno; l’ultimo magnete sarà sistemato a metà aprile. I fisici hanno sognato questo collisore da 20 anni anche se al CERN è stato costruito prima il LEP (Large Electron-Positron Collider) che ha funzionato fra il 1989 ed il 2000 ed infatti avevano pianificato di riutilizzare il tunnel del LEP per LHC. A quel tempo negli Stati Uniti i fisici pianificavano il Superconducting Supercollider (SSC) lungo 87 km. Nel 1993 però il Congresso annullò il progetto ancora non completato ed il CERN diede luce verde a LHC. Per rendere LHC interessante bisognava essere innovativi ed i ricercatori progettarono i magneti più potenti, usarono superconduttori ad alta temperatura ed affrontarono la progettazione elettronica resistente alle alte radiazioni per i rivelatori. Ora con due anni di ritardo i ricercatori vedono la fine. Circa 7500 persone di 111 diverse nazionalità hanno lavorato sul sito. Il CERN sembra un luogo di soggiorno, tutti sono eccitati e parlano del progetto mentre negli USA si parlava di budget. Dagli anni ’60 la collaborazione internazionale è cresciuta e si è passati da una dozzina a centinaia e migliaia di scienziati, L’ambiente è molto competitivo ed i giovani ricercatori cercano di spaziare su tutto il progetto. Gli Americani hanno partecipato al 20% dell’ATLAS ed al 30% del CMS e, data la distanza sono connessi con la loro rete di computer ad alta capacità ed una rete dei computer collega anche fisici del Pakistan, dell’India e del Brasile. I ricercatori pianificano di lanciare i protoni nell’anello a novembre e cominciare a raccogliere dati nella primavera successiva. Partiranno a bassa energia, un decimo di quella di progetto, per la fine del primo anno. Bisogna andare gradatamente perché LHC è il primo collisore così potente da distruggere se stesso. Ciascun fascio di particelle trasporta 362 megajoule di energia equivalenti a 90 kg di TNT sufficiente a fondere 500 kg di rame. Se per errore la macchina colpisce una sua parete i protoni potrebbero produrre un buco lungo decine di metri e fermare LHC per mesi. Per impedire tale evento i ricercatori hanno creato i sistemi di protezione più raffinati, vi sono più di 4000 monitor del fascio che controllano i protoni che sfuggono dal percorso previsto ed agiscono sui magneti e si è cercato di prevedere ogni possibile scenario di guasto. Il collisore è progettato per assiemare 10E14 protoni in ogni fascio e se solo un 10milionesimo di essi cade sui magneti farebbe bloccare la superconduttività provocando la sfocalizzazione del fascio. Per impedire ciò si sono installati centinaia di collimatori. Per ogni 1000 particelle non più di una deve sfuggire e raggiungere i magneti a valle. Quando arriverà il momento di accendere, il problema maggiore sarà però quello di controllare le persone nella centrale di comando.

Science, 23 Mar 2007, Vol. 315, pg. 1657 - Adrian Cho - Diverse nazioni hanno dato parecchi miliardi di Franchi svizzeri per costruire una macchina che proverà l’origine dalla massa, quello strano qualcosa che mantiene gli oggetti in moto uniforme a meno che siano sottoposti ad una forza. La spiegazione della massa richiede una nuova particella chiamata bosone di Higgs che sarà scoperta da questa macchina. Dopo due decenni ora si è pronti ad accenderla e nulla si teme di più della possibilità di essere stati in errore e che la particella non esista. Tuttavia la maggior parte dei fisici delle particelle temono soprattutto che la nuova macchina, il Large Hadron Collier (LHC), scopri solo il bosone di Higgs e nient’altro. Nei decenni 1960 e 1970 i ricercatori hanno definito una teoria, detta del modello standard, che, benché lasci fuori la gravità e soffra di altre lacune, ha spiegato tutto ciò che si è visto negli esperimenti con i collisori, ma alle energie di LHC il modello standard diventa confuso con probabilità negative ed altri risultati senza senso. Di conseguenza il collisore dovrebbe mostrare qualcosa di nuovo e, se scopre solo il bosone di Higgs, la nuova era delle scoperte finisce prima di cominciare. Se si scoprirà solamente che Higgs ha la massa prevista di 190 volte quella del protone, il modello standard sarebbe esaurito e sarebbe un vero disastro perché significherebbe che non c’è bisogno di una nuova fisica fino alla dimensione di Planck. Se LHC non scopriranno altre particelle, le regole della meccanica quantistica e la teoria speciale della relatività di Einstein devono essere sbagliate. Il bosone di Higgs è in realtà una soluzione trovata ad un astruso problema del modello standard: cioè come dare una massa alle particelle ed in particolare come dare massa alle particelle W e Z che convogliano la forza debole e causano il decadimento radioattivo. Forza debole e forza elettromagnetica, secondo il modello standard sono due facce della stessa cosa. Non sono intercambiabili: la forza elettromagnetica si scambia fra le stelle mentre la forza debole sta solo dentro i nuclei atomici. Inoltre i fotoni, le particelle quantistiche che scambiano la forza elettromagnetica, non hanno massa, mentre le particelle W e Z hanno rispettivamente una massa di circa 86 e 97 volte quella del protone. Il modello standard inoltre non consente di attribuire delle masse alle particelle e queste devono nascere dalle interazioni con altre particelle anche senza massa. Peter Higgs, un teorico dell’università di Edimburgo, UK, nel decennio 1960 comprese che lo spazio deve contenere un campo come quello elettrico che ha un’azione di resistenza sulle particelle e procura loro un’inerzia e quindi una massa. Il campo viene portato da una nuova particella che si nasconde nel vuoto. Con questa ipotesi i teorici hanno predetto le masse di W e Z e nel 1983 furono scoperte nel CERN con il massa prevista. Tutto fa credere che Higgs può essere scoperto da LHC. La scoperta del bosone di Higgs completerà il modello Standard, ma scoprire solo Higgs non permetterà ai fisici di andare avanti per rispondere ad altri problemi più profondi come se le quattro forze della natura siano solo differenti aspetti della stessa cosa. La maggior parte dei ricercatori però pensa che LHC scoprirà molte cose nuove ed in particolare le particelle previste nel concetto della Supersimmetria (SUSY) che presume l’esistenza di superpartner più pesanti per ogni particella nota. Questo risolverebbe tutti i problemi del modello standard e darebbe anche una spiegazione alla misteriosa materia oscura la cui gravità tiene insieme la galassie. In realtà SUSY risolverebbe anche i problemi tecnici causati dallo stesso bosone di Higgs che sarebbe nascosto fra particelle virtuali che portano all’infinito la sua massa, mentre con SUSY la presenza del superpartner la renderebbe finita e la sua esistenza emergerebbe in modo naturale. SUSY aiuterebbe ad unificare le quattro forze, mentre il modello standard tiene conto solo di tre: la forza elettromagnetica, la forza debole e la forza forte che tiene i quark all’interno dei protoni e degli neutroni e di altre particelle. Con la supersimmetria le tre forze avrebbero tutte la stessa energia vicino alla scala di Planck e si potrebbe unificarli con la gravità nella teoria della grande unificazione. SUSY è troppo bella per essere sbagliata. LHC potrebbe rivelare altri più strani fenomeni come i piccoli buchi neri o nuove dimensioni dello spazio che potrebbero spiegare perché la gravità è molto più debole delle altre forze. Naturalmente nessuna di queste esotiche possibilità è garantita, ma non trovare nulla potrebbe creare problemi almeno con i governi che hanno pagato LHC ed anche trovare solo Higgs metterebbe in difficoltà i fisici per convincere i governi a costruire altri grandi acceleratori come il proposto International Linear Collider (ILC) che costerebbe da 10 a 15 miliardi di US$. Questo acceleratore farebbe collidere gli indivisibili elettroni e positroni con risultati più facilmente interpretabili senza essere oscurati dalla massa di particelle prodotte nelle collisioni fra protoni e protoni.

Science, 2 Nov 2007, Vol. 318, pg. 738 - Daniel Clery - La cittadina di Darmstadt, vicino a Francoforte, ha avuto un suo momento di rinomanza quando il suo Laboratorio Nazionale, detto GSI, ha prodotto sei nuovi elementi chimici mai visti sulla Terra. Il successo è stato celebrato con un pacchetto di sei dolci di diverso colore. Il primo elemento, di numero atomico 107, è stato chiamato Bohrium con la data del 24 febbraio 1981, giorno della sua creazione, e l’ultimo, che rappresenta l’elemento 112 scoperto nel 1996 ed è ancora senza nome, attende ancora una verifica. Anche se altri laboratori rivali hanno prodotto altri cinque elementi superpesanti, il GSI spera di mantenere il primato in molte aree di ricerca. Nel prossimo decennio il laboratorio raddoppierà le sue dimensioni con due sincrotroni a superconduzione per accelerare atomi fino a quelli dell’uranio. La prossima settimana inizierà la costruzione di un nuovo impianto detto Facility for Antiproton and Ion Research (FAIR) con il contributo di molte altre nazioni ed il costo di 1,2 miliardi di euri. Con un ampio spettro di fasci di particelle ad alta energia, i ricercatori del FAIR potranno studiare il plasma di particelle che esisteva all’inizio dell’universo, quello che si trova nel nucleo delle nane brune e delle stelle giganti dove si formano gli elementi pesanti. Il FAIR produrrà fasci di particelle con 10000 volte l’intensità e 30 volte l’energia attuale. Il GSI è stato fondato nel 1969 mettendo insieme le risorse di molte università dello stato di Hessen. Si cominciò con un acceleratore lineare che portava elementi dall’idrogeno all’uranio al 20% della velocità della luce. Un sincrotrone aggiunto più tardi portò la velocità al 90%. Alla fine del decennio 1990 i ricercatori cominciarono a pensare al futuro e, nel 2001, emisero un rapporto per il progetto di un nuovo impianto più grande con la possibilità di usare gli antiprotoni. Il Governo Federale finanziò al 25% del progetto e furono chiamati 13 partner stranieri incluse nazioni europee, la Russia, l’India e la Cina. L’impianto dovrebbe essere completato nel 2016. Mentre il GSI rimane tedesco, il FAIR è proprietà dei 14 paesi partecipanti, ma nell’ambito di una compagnia tedesca. Vi sono però delle opposizioni, come quelle della Francia, che preferirebbero un ente pan-europeo ed alcuni paesi non hanno ancora confermato il loro finanziamento. GSI e FAIR lavoreranno insieme. Il GSI fornirà un fascio di particelle già accelerato e questo periodicamente verrà fatto collidere in un rivelatore che analizzerà i frammenti per analizzare lo stato della materia al momento della collisione. Ci sarà anche un anello di memoria dove verranno mantenuti alcuni di questi frammenti per fare certi tipi di esperimenti. La pianificazione del FAIR ha richiesto la partecipazione di 2500 scienziati ed ingegneri di diverse nazioni. Circa 700 scienziati di più di 30 paesi hanno partecipato al programma di FAIR per i nuclei esotici, i più instabili che sono all’origine di molti elementi chimici della Terra. Pochi sono gli elementi prodotti nelle alte temperature e pressioni alla fine del big bang, molti di più, fino al ferro ed al nichel, sono prodotti nelle esplosioni di supernova e dove si producono i lampi di raggi gamma e raggi X. In queste esplosioni gli elementi leggeri sono bombardati con neutroni e protoni aumentando di dimensioni e divenendo instabili. Dal loro decadimento si formano i normali elementi chimici, ma il processo non è ancora ben noto. Altri laboratori seguono le stesse ricerche con tecniche diverse e complementari, come il CERN di Ginevra, il francese GANIL, il Radioactive-Isotope Beam Factory giapponese del laboratorio RIKEN e la Facility for Rare Isotope Beams negli USA. Il FAIR produce il più intenso fascio di antiprotoni e permette lo studio spettroscopico più completo dell’antìidrogeno per compararlo con quello dell’idrogeno normale. Ogni diversità darà un contributo al problema dell’antimateria nell’universo. Con i fasci di antiprotoni si entra in un campo totalmente nuovo nello studio della forza nucleare forte e della struttura degli adroni, protoni e neutroni formati da quark. Le attuali teorie non spiegano le masse e gli spin di queste particelle. Ad esempio i tre quark che formano un protone spiegano solo il 10% della sua massa ed il 40% del suo spin. L’obiettivo del FAIR è di bombardare gli adroni con antiprotoni per verificare il legame fra quark e gluoni, le particelle che mediano la forza forte e che sono responsabili della maggior parte della massa. Un altro obiettivo del FAIR è la rivelazione del plasma quark-gluoni (QGP), uno stato della materia che esiste in condizioni estreme ed esisteva 20-30 microsecondi dopo il big bang. Il Relativistic Heavy Ion Collider (RHIC) del Brookhaven National Laboratory, NY, ha creato il QGP, ma non ha rivelato la fase di transizione dalla materia normale ed alcuni pensano che a queste temperature non c’è transizione netta, ma un passaggio graduale. Non c’è ancora una prova di questo nuovo stato e FAIR seguirà un approccio diverso usando alte pressioni come quelle che si trovano nelle stelle di neutroni. Fra le migliaia di particelle prodotte dalla collisione si cercheranno quelle che portano l’impronta del QGP. Per questa analisi sono necessari processori con velocità di calcolo che ancora non esistono ed i ricercatori pensano di usare quelli destinati alle PlayStation, in migliaia lavorando in parallelo.

Science, 30 May 2008, Vol. 320, pg. 1150 - Adrian Cho - Gli sforzi per sviluppare l’International Linear Collider (ILC), un collisore di particelle lungo 40 km, ha subito una battuta di arresto. I fisici concordano che lo ILC rappresenta il futuro della fisica delle particelle. Questa estate il Laboratorio europeo del CERN, presso Ginevra, accenderà il Large Hadron Collider (LHC) che potrebbe scoprire nuove particelle e forse rivelare nuove dimensioni dello spazio. LHC sparerà protoni contro protoni, ciascuno dei quali è un grumo di particelle, detti quark e gluoni, e produrrà una complessa massa di dati. ILC farà collidere indivisibili elettroni e positroni, producendo risultati di più semplice interpretazione, che permetterà ai ricercatori di studiare in dettaglio le particelle intraviste con lo LHC. I problemi sono iniziati per l’ILC nel febbraio 2007, dopo che il team del Global Design Effort (GDE) aveva rilasciato la stima dei costi con una valutazione di 6,7 miliardi di US$ senza includere costi di contingenza o inflazione durante la pianificazione e la costruzione. Con l’aggiunta di questi fattori, qualora gli USA avessero ospitato la macchina e pagato il 50%, la quota USA sarebbe stata di 7,5 miliardi. Due settimane dopo, il Department of Energy (DOE) avvertì che bisognava aspettare fino al 2025 o più tardi per l’inizio. A dicembre lo Science and Technology Facilities Council dell’UK, annunziò che la Gran Bretagna cancellava il progetto come non praticabile. Tuttavia i fisici di Europa ed Asia continuarono lo studio e Spagna ed India si sono uniti nello sforzo. Il risultato fu che cadeva la probabilità che la machina venisse costruita negli USA presso il Fermi National Accelerator Laboratory (Fermilab) in Batavia, Illinois. In aggiunta gli USA hanno tagliato il contributo all’esperimento ITER che verrà costruito a Cadarache, in Francia, ed al momento non sono più un partner affidabile per progetti a lungo termine, così è più probabile che l’ILC venga costruito presso il CERN. Tuttavia gli USA non hanno abbandonato completamente la speranza di avere l’ILC. Il Congresso manterrà il presente budget finché il nuovo presidente non si insiederà nel gennaio 2009 ed allora tutto andrà nelle mani della nuova Amministrazione.

Science, 5 Sep 2008, Vol. 321, pg. 1289 - Daniel Clery - Appena il Large Hadron Collider (LHC) verrà acceso la prossima settimana, fisici ed ingegneri non saranno soli ad attendere ansiosamente le prime collisioni, ma lo saranno anche i ricercatori incaricati di raccogliere la massa di dati che produrrà il sistema, processarli e memorizzarli per renderli disponibili ai fisici che devono studiarli in tutto il mondo. Ci si attende che LHC produrrà 15 petabyte (15 milioni di megabyte) di dati ogni anno. Linee in fibra ottica sono state stese per trasferire rapidamente i dati dal CERN a 250 altri laboratori di fisica in 50 paesi del mondo dove circa 100000 processori PC sono pronti a riceverli. All’inizio di questo decennio il dipartimento IT (Information Technology) del CERN ha deciso di trattare il torrente di dati dello LHC con un’architettura di computer nota come la Grid (griglia). Una Grid è il modo di trattare internet come World Wide Web e le e-mail, ma la tecnologia non si è sviluppata così rapidamente come ci si aspettava. Sul funzionamento della LHC Computer Grid (LCG) ci sono ancora dei dubbi. Come ordine di grandezza questa è la più grande Grid mai assemblata; 15 petabyte è un’enorme massa di dati e gli esperti del CERN ne hanno cominciato a pianificarne il trattamento dalla fine del decennio 1990 ed hanno subito compreso che era impossibile fare tutto all’interno del CERN, non sarebbe bastata nemmeno tutta la potenza elettrica disponibile a Ginevra. All’inizio il team decise un’architettura nella quale i dati forniti dai rivelatori sarebbero stati archiviati al CERN (livello-0) ed inviati ad almeno 10 grandi laboratori di fisica nel mondo, a questo livello-1 sarebbe avvenuta una prima elaborazione e, dopo archiviazione, inviata a 10-20 centri di secondo livello. In questo modo elaborazione ed archiviazione sarebbe stata distribuita nei laboratori di tutto il mondo. A metà del decennio 1990 si era configurata l’idea di Grid come rete che distribuisce dovunque e mette in comune a tutti. In una griglia di computer un ricercatore può usare un’interfaccia standard per chiedere di fare il lavoro. Un programma mette allora insieme le risorse di molti siti attraverso internet. La maggiore difficoltà è di fare superare alla Grid i “firewall”, le protezioni create nei computer contro gli accessi non autorizzati, e bisogna creare dei “certificati” che autorizzano lo scambio di risorse. Una volta compresa questa filosofia, il team del CERN nel 2002 decise di adottare questo sistema più flessibile usando la rete internet oltre il livello-1. Nell’ambito dell’Unione Europea si è creata la Enabling Grid for E-Science (EGEE) che forma la base della LCG in Europa. Lo stesso è stato fatto negli Stati Uniti dalla National Science Foundation con la Open Science Grid. Altre griglie più piccole sono state create in Scandinavia (NorduGrid) ed in Italia (INFN Grid) collegate alla LCG. A febbraio e marzo di quest’anno i ricercatori hanno fatto due prove del sistema inviando dei dati simulati dai rivelatori LHC ai livelli-1 ed alle griglie. Ora tutte le risorse di computer sono pronte e si è confidenti, ma non si sa cosa potrà succedere quando LHC comincerà a produrre dati interessanti. La situazione potrebbe diventare caotica ed imprevedibile. Vi sono state difficoltà a creare la griglia ed alcune compagnie sono pronte anche a fornire servizi commerciali.

Science, 26 Sep 2008, Vol. 321, pg. 1753 - Adrian Cho - Il 10 settembre, quando i fisici hanno inviato le prime particelle all’interno del più grande collisore del mondo, il Large Hadron Collider (LHC) del laboratorio del CRN a Ginevra, l’enorme macchina è sembrata docile. Nove giorni dopo però, si è verificato un grave incidente che ha messo fuori uso il sistema fino alla prossima primavera. Tutto sembrava semplice all’inizio del mese, quando dopo poche ore i ricercatori hanno visto i fasci di protoni muoversi lungo i 27 km dell’anello, costato 5,5 miliardi di US$, in ambedue le direzioni. La partenza lasciava sperare che LHC avrebbe iniziato le collisioni entro la settimana. Venerdì scorso (19 set.) però, uno dei 1232 magneti superconduttori, che mantengono i fasci nella traiettoria, si è improvvisamente sovrariscaldato per un evento noto come “quench”. L’incidente ha danneggiato i condotti che portano l’elio liquido ai magneti per mantenerli alla temperatura di 2 K, cioè solo 2 gradi sopra lo zero assoluto. Si è scoperta la facilità con cui LHC ha potuto autodanneggiarsi. Paragonato ai precedenti collisori LHC opera in condizioni molto più estreme e ci si chiede se il sistema di protezioni ha funzionato correttamente. Un magnete superconduttore è un avvolgimento con filo superconduttore, dentro cui una corrente molto alta può fluire senza resistenza, e l’effetto quench si verifica quando una parte si sovrariscalda e si comporta invece come un conduttore normale che esalta il riscaldamento e brucia il magnete, trasformando in calore tutta l’energia del campo. Questo evento può succedere se i protoni escono dalla traiettoria e finiscono nel materiale del magnete. Il 19 settembre il meccanismo del quench è stato diverso. I magneti, lunghi 15 m, sono connessi in serie e la corrente passa da un magnete al successivo. I ricercatori stavano facendo crescere la corrente in una catena di 54 magneti in assenza di particelle ed improvvisamente la connessione fra due magneti si è scaldata ed ha fuso. L’interruzione improvvisa di corrente ha prodotto la caduta del campo ed una sovratensione che ha sovrariscaldato il magnete. Il campo di un magnete contiene 8,6 megajoule di energia, abbastanza per fondere 42 kg di rame e bruciare il magnete in una frazione di secondo. I ricercatori hanno proporzionato la protezione di quench per shuntare rapidamente la corrente del magnete in un grande blocco di acciaio, ma questo ha scaldato l’intero magnete. Il danneggiamento dei condotti dell’elio comporta che il magnete da 900000 US$ va sostituito. Per il momento è troppo presto per conoscere le cause precise. Per eseguire le riparazioni i ricercatori devono riportare l’intero LHC a temperatura ambiente e dopo raffreddarlo di nuovo. I ricercatori del DESY hanno sperimentato quattro volte questi cicli con il collisore HERA che faceva collidere protoni con elettroni. Un ciclo di riscaldamento e raffreddamento per LHC impiegherà almeno 2 mesi e bisognerà attendere fino alla prossima primavera per riprendere gli esperimenti.

Science, 12 Dec 2008, Vol. 322, pg. 1620 - Adrian Cho - La scorsa settimana, il CERN vicino Ginevra, in Svizzera, ha emesso un rapporto di quattro pagine che descrive come rimettere in funzione, dopo il grave guasto del 19 settembre scorso, il Large Hadron Collider (LHC) lungo 27 km che è il più grande collisore di particelle del mondo. Benché nel rapporto non si faccia cenno di errori di progetto, la lista dei problemi indica i difetti e ne includono uno che alcuni fisici dicono non può essere completamente eliminato. Il guasto è avvenuto 9 giorni dopo che i ricercatori avevano fatto circolare per la prima volta fasci di protoni attraverso il collisore da 5,5 miliardi di US$. LHC comprende più di 1600 magneti posti in cascata a formare un anello. I ricercatori avevano fatto crescere la corrente a 9000 ampere in un tratto di 209 magneti, quando si è fuso un collegamento elettrico fra due di questi. Si è bruciata una tubazione che circondava l’avvolgimento a superconduzione di niobio titanio ed è fuoriuscito l’elio liquido di raffreddamento che, bollendo, ha creato un’enorme pressione intorno ai magneti da 3 tonnellate. Gli addetti al CERN hanno iniziato a rimuovere dal tunnel LHC 53 magneti danneggiati, ne ricostruiranno 39 e puliranno gli altri. LHC rimarrà fuori uso almeno fino al prossimo luglio. Solo uno ogni quattro magneti ha una valvola di sicurezza. Per correggere questo inconveniente sarà installata una valvola più grande in ogni unità. Benché LHC abbia un sistema per individuare il sovrariscaldamento dei magneti e quindi la perdita della superconduttività, il tratto di collegamento è protetto da un sistema poco sensibile che rivela l’aumento di tensione nella sua lunghezza. Per meglio rivelare il sovrariscaldamento, CERN installerà dei monitor singoli sulle connessioni e dei sensori di temperatura sull’elio liquido. Sono necessari 100 secondi per shuntare la corrente sui magneti e questo tempo è troppo lungo per evitare la fusione della connessione, ma la macchina non può essere modificata per accorciare questo tempo. Il sistema è al limite e bisogna saper usare i sensori. Non si potrà tollerare un secondo guasto dello stesso tipo.

Science, 31 Jul 2009, Vol. 325, pg. 522 - Adrian Cho - Lo scorso settembre, il più potente collisore di particelle, il Large Hadron Collider (LHC), si è danneggiato, quando il collegamento di un percorso a superconduzione si è fuso ed ha provocato una reazione a catena di danni meccanici. Da allora i fisici del Laboratorio di fisica delle particelle del CERN hanno installato sensibili sistemi di allarme per monitorare i collegamenti critici ed evitare in futuro simili catastrofi. Ora tuttavia i ricercatori hanno trovato difetti in differenti connessioni elettriche che limitano l’energia del sistema. Le cattive connessioni limitano la corrente che può attraversare con sicurezza i 1232 magneti a superconduzione che guidano i protoni lungo i 2 km dell’anello sotterraneo. Questo limita l’energia che i due fasci di protoni controcircolanti, possono raggiungere prima di collidere fra i loro nel cuore dei quattro enormi rivelatori di particelle disposti lungo il circuito. I ricercatori stanno finendo di testare le 10000 connessioni e pensano di valutare i dati entro una settimana per conoscere quale sarà la corrente di sicurezza senza altri cambiamenti e quindi la massima energia con cui lavorare. Se il problema fosse più grave, potrebbe ritardare ancora la riaccensione del gigantesco sistema ora stabilita a novembre, dalla precedente data di settembre. Attualmente l’energia più alta di collisione è quella prodotta nel Tevatron del Fermi National Accelerator Laboratory di Batavia, Illinois, che accelera protoni e antiprotoni alle energie di 2 teraelettroni-volt (TeV). LHC è progettato per 14 TeV, anche se il CERN aveva posto a 10 TeV il funzionamento operativo. Il nuovo problema potrà limitare l’energia a 8 TeV o meno. L’incidente è avvenuto in un collegamento saldato fra due superconduttori a forma di nastro. L’interruzione di una corrente di 900 Ampere ha creato un arco con altre parti metalliche vicine. In un attimo ha bruciato il tubo che portava l’elio liquido. Bollendo il liquido e il gas hanno creato un’onda di pressione che ha danneggiato 53 magneti. La nuova preoccupazione non riguarda la connessione fra superconduttori, ma il nomale rame che li circonda. Dentro i magneti, il nastro superconduttore corre all’interno di uno spesso rivestimento di rame. Alla giunzione fra due magneti i nastri sono esterni in modo da poter essere saldati uno sopra l’altro. La connessione è racchiusa in un manicotto stabilizzatore che deve essere saldato alle due estremità con il rivestimento di rame. I ricercatori hanno scoperto che alcune di queste saldature di rame su rame non sono a norma. Normalmente tutta la corrente fluisce lungo il nastro superconduttore ed è deviata sullo stabilizzatore di rame esterno solo nel caso che il percorso superconduttore si riscaldi abbastanza da perdere in parte le sue capacità superconduttrici. Gli elementi stabilizzatori incerti sono più numerosi delle connessioni difettose. Dopo l’incidente del 19 settembre, i ricercatori hanno trovato solo una o due connessioni incerte, ma 80 e più stabilizzatori di rame difettosi inclusi 46 localizzati in un ottante dell’anello. Quando i fisici sapranno quale sarà la massima energia con cui si può lavorare in sicurezza, si deciderà su come procedere. Se l’energia è troppo bassa, significativamente inferiore a 8 TeV, gli sperimentatori potranno optare di ritardare la riaccensione fino a quando gli stabilizzatori saranno corretti. Fra 8 e 10 TeV si deciderà certo l’accensione, almeno per vedere se nascono altri problemi. Molti sperimentatori sono propensi a riaccendere anche a bassa energia per accumulare esperienza e calibrare i rivelatori, ma nessuno vuole farlo a 4 TeV per un anno. Nel frattempo i fisici stanno dibattendo se il problema costituisce un errore di progetto. In altre macchine queste connessioni sono assicurate con morsetti, ma nel 1999 il presente progetto è stato accettato in una revisione esterna e l’uso dei morsetti è stato scoraggiato perché avrebbe impedito il flusso dell’elio liquido. Altri fisici lamentano che il problema sarebbe dovuto essere stato messo in evidenza prima.

Science, 28 Aug 2009, Vol. 325, pg. 1067 - Adrian Cho - I fisici del CERN che attendono di far ripartire il Large Hadron Collider (LHC), non temono che il più grande collisore del mondo possa subire un altro guasto catastrofico, ma stanno affrontando tanti problemi minori nel lungo percorso di 27 km, come quelli che ha sofferto il Deutsche Electron Synchrotron in Amburgo nel 1991 e, date le maggiori dimensioni di LHC, richiederanno molto tempo per superarle. I ricercatori del CERN hanno modificato il collegamento fra i fili superconduttori dei magneti e i manicotti di rame intorno a questi collegamenti e funzioneranno a metà della potenza per cui il sistema è stato progettato (7 TeV invece di 14). Questo renderà più difficile alla macchina di raggiungere gli obiettivi di ricerca. Si ricorda che gli altri tre acceleratori che hanno preceduto LHC, cioè HERA, il Relativistic Heavy Ion Collider (RHIC) di Brookhaven e il Fermi National Accelerator Laboratory (Fermilab) di Batavia, Illinois, hanno impiegato anni per raggiungere i loro obiettivi di progetto. LHC e gli altri sono tutti sincrotroni a superconduzione, ideali per portare le particelle a velocità prossime a quelle della luce, produrre con le collisioni nuovi stati esotici della materia e cercare anche nuove dimensioni dello spazio. In un sincrotrone le particelle cariche sono fatte circolare all'interno di un tubo a vuoto mediante delle cavità dove un campo elettrico ad alta frequenza le accelera. Dei magneti incurvano la loro traiettoria e altri, detti quadripoli, li focalizzano. I sincrotroni a superconduzione usano nei magneti avvolgimenti raffreddati a elio liquido, 9 K sopra lo zero assoluto, che non hanno resistenza, consumano molto meno potenza e non usano materiali ferrosi, per poter raggiungere campi superiori a 2 tesla (8,3 tesla per LHC) riducendone le dimensioni. Se i magneti si sovrariscaldano, gli avvolgimenti perdono improvvisamente la loro proprietà di superconduzione (quench). In questo caso la protezione di quench (spegnimento) deve shuntare la corrente di migliaia di ampere prima che i magneti fondano. La protezione deve monitorare la piccola tensione che si forma ai capi delle connessioni fra i magneti che è un indice del riscaldamento e questo sistema di monitor è stato ultimamente migliorato. Il difetto di LHC ricorda quelli sperimentati dal Tevatron del Fermilab. Il Tevaton, concepito nel decennio 1970 e costruito agli inizi del successivo decennio, entrò in funzione nel 1983, ma dopo circa un anno si verificò un’esplosione per il difetto alla connessione fra due magneti, dove le forze magnetiche prodotte da una corrente di 4000 ampere hanno provocato la deformazione e la rottura. Prima che intervenisse la quench-protection, la connessione era evaporata. Dopo aver perso 5 magneti in 4 mesi, i fisici spensero il Tevatron nel luglio 1984. Il problema riemerse e fu ancora riparato nel 1988 e ’89, ma nel frattempo la macchina fu migliorata. Nel settembre 1985 furono fatti circolare in direzioni opposte protoni e antiprotoni per collidere fra loro, nel 1987 iniziarono gli esperimenti e, nel 1988, si raggiunse la luminosità (intensità del fascio) di progetto. Ogni volta per la sostituzione dei magneti e il raffreddamento della macchina erano necessari alcuni giorni. Nel caso di LHC al CERN, date le sue dimensioni, sono necessari 2 mesi. Al contrario del Tevatron, HERA e RHIC del Brookhaven non hanno distrutto magneti, ma ambedue hanno avuto una lunga fase di partenza. HERA ha iniziato la collisione fra protoni ed elettroni con solo lo 0,14% della sua luminosità di progetto che si portò al 10% un anno più tardi e solo nel 1995 fu vicina al livello di progetto. RHIC fu più rapida, dopo una breve prova nel 1999, all’inizio del 2000 cominciò la collisione di atomi di oro per esperimenti di fisica e raggiunse la sua luminosità di progetto nel 2001 per brevi periodi. Nel primo anno di lavoro, dei 167 giorni di funzionamento, solo 38 furono usati nei 4 esperimenti previsti. HERA è stato chiuso nel 2007 nelle condizioni di massima energia. Il Tevatron ha raccolto dati per 9 anni al livello di circa 1 TeV per beam, per un totale di 2 TeV, 98% della sua energia di progetto dopo gli ultimi miglioramenti, dal 1996 al 2001. LHC non raggiungerà presto i suoi limiti di progetto. Esso è stato costruito per la collisione di protoni 30 volte al secondo, come il Tevatron e si suppone di raggiungere gli obiettivi entro 5 anni. LHC avrà bisogno di 2-3 anni per raggiungere l’energia di progetto e accelerare ogni beam a 7 TeV, raggiungendo il totale di 14 TeV, 7 volte quella del Tevatron. I responsabili pianificano di iniziare le collisioni a metà novembre iniettando protoni a basse energie, iniziare l’accelerazione catturando i fasci nelle cavità a RF e incrementando l’energia. Una volta raggiunta in ogni fascio l’energia di 3,5 TeV, li si farà collidere al centro dei quattro rivelatori di particelle spaziati nell’anello. In realtà i ricercatori hanno già eseguito queste fasi lo scorso autunno il 10 settembre facendo circolare i fasci per 60 ore e avevano catturato uno dei fasci nelle cavità a RF. Facilmente ora si potrà arrivare alle collisioni entro una settimana. Tuttavia l’aumento dell’energia dei fasci può essere complicato, perché la corrente nei magneti deve crescere a rampa nello stesso tempo e si possono avere campi parassiti che disturbano il fascio. Per compensare, il controllo di accelerazione deve aggiustare contemporaneamente uno speciale magnete a sei poli e questo sarà il compito del prossimo inverno. Una volta ottenute le collisioni potrà essere difficile raggiungere la luminosità di progetto, perché il fascio pieno di LHC contiene un’energia di 350 megajoule, paragonata a 1 megajoule del Tevatron. Se una minima frazione colpisce un magnete si ripresenta il quench del sistema. La luminosità di LHC è una vera sfida ai limiti dei parametri. Un altro problema è se LHC possa raggiungere il limite dell’energia. Il problema non sta nelle giunzioni fra i magneti, questo sarà risolto entro l’inverno del 2010, ma negli stessi magneti che devono essere allineati per spegnersi a bassi livelli e questo è un processo lungo. Il problema potrebbe limitare l’energia a 6 TeV per fascio che potrebbe essere ancora un buon valore. Nel corso del lavoro, i ricercatori si potranno trovare di fronte a spiacevoli sorprese. Per esempio i fisici che hanno acceso RHIC nel 1999 hanno trovato un pezzo di metallo nel tubo a vuoto che interrompeva il fascio. I ricercatori devono fare continuamente dei compromessi evitando il rischio di andare in fretta e creare più problemi. Portare LHC al pieno funzionamento sarà una lunga battaglia, che potrebbe impiegare anni, anche contro tanti piccoli problemi tecnici.

Science, 4 Dec 2009, Vol. 326, pg. 1337 - Adrian Cho - Dopo aver perso il primato di detenere il più grande collisore del mondo, i fisici del Fermi National Accelerator Laboratory (Fermilab) hanno un’idea per tornare alle frontiere dell’energia. Essi sperano che il Department of Energy (DOE) dia loro abbastanza denaro per decidere se la loro idea è solo un sogno o una realtà tecnologica. Per 24 anni il collisore Tevatron del Fermilab ha sparato protoni contro antiprotoni con un’energia massima di 2 tera-elettronivolt (TeV), ma ora i fisici del CERN di Ginevra, in Svizzera, hanno riacceso il Large Hadron Collider (LHC), lungo 27 km e dal costo di 5,5 miliardi di US$ che fa collidere protoni contro protoni a 14 TeV. Mentre il Tevatron diventa obsoleto i fisici del Fermilab sperano di costruire un mostro chiamato collisore di muoni. La nuova macchina, argomento di un workshop dello scorso mese, deve fare collidere i muoni, che sono i cugini più pesanti degli elettroni, con gli antimuoni. In principio questo può raggiungere la stessa energia dei progetti rivali, cioè l’International Linear Collider (ILC), lungo 30 km già pianificato, che sparerà elettroni contro positroni e un higher-energy electron-positron collider, detto Compact Linear Collider (CLIC) che sarà sviluppato dal CERN. Ciò sarà vero se il collisore a muoni potrà essere costruito. A differenza di elettroni e protoni, i muoni sono radioattivi, quindi la macchina deve generare queste particelle, accelerarle e farle collidere in una frazione di secondo prima del loro decadimento. I fisici devono inoltre proteggere l’apparecchiatura dall’intensa radiazione emessa dai muoni e fermarla prima che esca dal laboratorio. Tre anni fa i fisici speravano di poter avere l’ILC, la cui costruzione doveva iniziare nel 2012, ma il DOE si è raffreddato, quando i ricercatori hanno stimato il suo costo a 7 miliardi di US$ e ora la direzione ritiene che possa raggiungere i 20 miliardi, includendo l’inflazione e la contingenza. I ritardi hanno aumentato i favori per il collisore a muoni che ha avuto l’interesse del DOE, perché si tratta di qualcosa di nuovo. Si discute se sia un’idea impossibile. Si tratta di una soluzione che oscilla fra il difficile, molto difficile ed estremamente difficile. I ricercatori hanno chiesto 16 milioni di US$ per anno, per 5 anni, solo per stabilire se potrà essere costruito. I collisori di particelle sono di due tipi: quelli che fanno collidere protoni o antiprotoni e quelli che usano elettroni e positroni. Un collisore a muoni combina i vantaggi delle macchine con protoni ed elettroni. Il massimo è stato raggiunto da LHC con 14 TeV che potrebbe scoprire nuove particelle massive e aprire nuove dimensioni dello spazio. Tuttavia LHC potrà rivelare tutto ciò in una confusa moltitudine di dati. I protoni contengono altre particelle, dette quark e gluoni, quindi, quando due protoni si decompongono, i detriti vanno in ogni direzione. In questa confusione, solo un gluone su sei o dieci colpisce un altro e produce una nuova particella. Al contrario, elettroni e positroni non sono composti di parti, le collisioni sono esenti da detriti e questo è il motivo per cui i fisici vedono ILC come successore di LHC. A 0,5 TeV, l’ILC potrà analizzare le scoperte di LHC. Le particelle cariche, nelle traiettorie curve degli acceleratori circolari dei sincrotroni, irradiano raggi X disperdendo energia, quindi ILC o CLIC useranno potenti acceleratori lineari che però faranno collisioni singole e non ripetute come le macchine circolari. I muoni si comportano meglio di protoni ed elettroni. Come i protoni hanno un peso maggiore, 207 volte quello degli elettroni, quindi irradiano meno energia quando sono deflessi e possono raggiungere energie più elevate in sincrotroni più piccoli. Come gli elettroni, i muoni non sono composti di parti e tutta l’energia delle collisioni va a formare nuove particelle. Un collisore a muoni è compatibile con lo spazio disponibile al Fermilab e richiede una sorgente di protoni, come quella prevista al Fermilab nel Project X per generare neutrini. Il collisore a muoni deve superare molti problemi: deve generare muoni e antimuoni facendo collidere protoni su metalli, si devono raccogliere gruppi di queste particelle “raffreddandole”, passarle a una serie di acceleratori e poi al sincrotrone finale dove circolano in direzioni opposte per collidere. Tutto questo deve succedere prima del decadimento dei muoni che, all’energia di 1,5 TeV, per la dilatazione del tempo dovuto alla relatività, raggiunge i 30 millisecondi dai 2 microsecondi della loro vita media. C’è abbastanza tempo per 500 rotazioni nel sincrotrone finale. Il processo di “raffreddamento” per raggruppare i muoni presenta altri problemi. I fisici propongono di farli passare nell’idrogeno liquido in presenza di radioonde e di un intenso campo magnetico (50 tesla), una tecnica che è al limite dello stato dell’arte. I muoni decadono in elettroni e neutrini e gli elettroni trasportano un’alta energia che creerà un background di radiazioni di neutroni e fotoni che disturberanno i segnali della collisione. Questi problemi avevano portato a un ripensamento nel decennio 1990 poi, recenti progressi, avevano rimesso in moto la proposta. I ricercatori avevano trovato anche una soluzione alla sorgente di muoni usando il mercurio come bersaglio. Prima di prendere una decisione si attende però che LHC scopra a quale livello di energia usciranno le nuove particelle e questo richiederà 3-4 anni. Se la risposta sarà intorno a 0,5 TeV, la soluzione sarà ILC, se sarà più alta, le opzioni saranno il collisore a muoni o il CLIC. I ricercatori del CERN, il prossimo anno pubblicheranno un rapporto per dimostrare la fattibilità del CLIC, 24 anni dopo la prima idea. Cinque anni da oggi non saranno quindi un tempo troppo lungo per sapere se anche il collisore a muoni sia fattibile.

Science, 8 Jan 2010, Vol. 327, pg. 142 – Daniel Clery – Fra gli acceleratori di particelle, il Large Hadron Collider (LHC) da 3 miliardi di US$ è certo l’esempio estremo come potenzialità. Anche fra gli acceleratori più semplici, come quelli richiesti dagli ospedali, per la terapia con fasci di protoni ai pazienti di cancro, il costo può superare i 100 milioni di US$ e nessuna delle comuni tecnologie esistenti, ciclotroni e sincrotroni, raggiunge le esigenze richieste. Ora un gruppo di fisici degli acceleratori sta sperimentando un nuovo tipo di macchine, intermedio fra ciclotroni e sincrotroni, che eliminano gli svantaggi degli attuali e sono più semplici ed economici. Queste nuove macchine, note come acceleratori fixed-field alternating-gradient (FFAG), dovrebbero essere l’ideale per la proton-therapy, per ispezionare i container da trasporto, per accelerare i muoni nei collisori a muoni e per i generatori di neutrini. Gli FFAG potranno anche rivitalizzare un nuovo tipo di reattori nucleari detti amplificatori di energia che richiedono come driver un acceleratore di particelle. Dopo il modesto inizio in Giappone di 10 anni fa, questi nuovi sistemi stanno ora per esplodere. Nei prossimi mesi, si è in attesa dell’electron Model for Many Applications (EMMA), il prototipo di una variante del tradizionale FFAG che promette di essere anche più semplice ed economico, detto nonscaling FFAG che è in costruzione al Daresbury Laboratory, in UK. Gli FFAG sono stati proposti inizialmente nel decennio 1950 e, negli Stati Uniti, furono costruiti numerosi acceleratori di elettroni, ma richiedevano grandi e complessi magneti e questa tecnologia fu superata da quella dei sincrotroni sviluppata nello stesso decennio. I precedenti acceleratori erano stati i ciclotroni che usavano magneti fissi per far muovere in circolo un fascio di particelle. Questo era iniettato in un punto del percorso e, una o più volte durante ogni rivoluzione, subiva un’accelerazione con un campo elettrico. Con l’accelerazione, il fascio descriveva una spirale di diametro crescente fino a raggiungere i confini del campo magnetico e uscire dalla macchina. Il ciclotrone produceva, quindi fasci con una sola energia massima limitata dalla dimensione e dalla potenza del magnete. I sincrotroni seguivano una tecnica diversa, usando un numero variabile di elettromagneti, lungo un anello, e facendo crescere il campo al crescere della velocità delle particelle. Tuttavia, una volta iniziato, il fascio rimaneva lo stesso e non si potevano iniettare altre particelle, anche se queste raggiungevano energie più grandi di quelle dei ciclotroni. Gli FFAG univano i vantaggi di ambedue i sistemi precedenti perché usavano un magnete fisso come i ciclotroni, ma il loro campo variava nello spazio, muovendosi dal centro alla periferia e si aumentava così l’energia massima raggiungibile. Nel decennio 1990, i progressi nella tecnologia dei magneti e nella progettazione computerizzata nei laboratori del KEK, in Giappone, hanno riportato in competizione gli FFAG. Nel 2000 fu costruito un esemplare con fascio da un milione di elettroni-volt seguito da una macchina da 150 MeV nel 2003. Ora ci sono variazioni del progetto originale. Alla fine del decennio 1990, nel Regno Unito (UK) e negli Stati Uniti si è studiato l’uso degli FFAG per accelerare i muoni, particelle di breve vita che devono essere accelerati rapidamente. Negli AAFG il campo magnetico deve aumentare con una potenza del raggio, spostandosi dal centro. Per i collisori a muoni, se sono accelerati abbastanza rapidamente, si evitano pericolose risonanze e il campo magnetico si può fare variare linearmente con il raggio. In questo caso i magneti sono più piccoli e più semplici. Questo tipo di macchina è anche l’ideale per la proton-therapy oncologica e la soluzione è più economica del ciclotrone. Nel Regno Unito sono stati finanziati 16 milioni di pound per il progetto CONFORM di 4 anni che costruirà un prototipo EMMA per il trattamento del cancro. Il progetto finale è stato chiamato PAMELA e accelererà protoni e ioni di carbonio che forse sono i più adatti. Il National Health Center, UK, farà una gara per due centri di proton-therapy. Nell’ambito del progetto CONFORM si è discussa anche un’applicazione più ambiziosa, quella di un accelerator-driven subcritical reactor (ADSR), noto anche come amplificatore di energia. Questa tecnologia è stata proposta la prima volta dal fisico Nobel Carlo Rubbia nel 1993. Si tratta di generare una sorgente di neutroni che sostenga la fissione nucleare in un reattore che ha una quantità di combustibile nucleare insufficiente ad autosostenerla. La sorgente di neutroni è ottenuta con un acceleratore di protoni che colpisce la superficie di un metallo pesante. Un ADSR produce meno radioattività dei reattori convenzionali ed è inerentemente sicuro perché si blocca spegnendo la sorgente di neutroni. Il punto focale è l’acceleratore. Quello pianificato in Europa costa 400 milioni di € e produce un fascio di 5 megawat (MW). Un ADSR richiede il doppio della potenza e il progetto PAMELA sembra soddisfi i requisiti di ADSR. Nel frattempo i ricercatori giapponesi si sono mossi sulla stessa linea. Il team del KEK ha messo insieme il primo esperimento del mondo di un ADSR assemblando in cascata 3 FFAG che hanno generato fasci di protoni fino a 100 MeV. Il 4 marzo 2009 si è sparato un fascio di neutroni nel reattore e le misure hanno indicato che era stata avviata la reazione nucleare e l’esperimento aveva avuto successo. Sarà necessario ancora risolvere molti problemi e difficoltà, come le perdite del fascio, l’efficienza, la stabilità, la sicurezza e altro. I ricercatori in UK seguono un altro progetto e vogliono alimentare il reattore con il torio che sulla Terra è più abbondante dell’uranio e che nelle sue reazioni non produce materiali che possono portare alla bomba nucleare. Il team ha una proposta per 300 milioni di pound, parzialmente finanziata dallo stato, per sviluppare la tecnologia ADSR in 5 anni e aspetta la risposta del governo.

Science, 29 Jan 2010, Vol. 327, pg. 514 – Daniel Clery – Dal Lawrence Livermore National Laboratory, in California, I ricercatori descrivono il loro primo esperimento del National Ignition Facility (NIF), un enorme laser per gli esperimenti di fusione nucleare che usa 192 fasci laser su un bersaglio formato da combustibile nucleare. I ricercatori sono riusciti a trasferire l’energia del laser sul bersaglio in modo efficiente e simmetrico per farlo implodere. Gli scienziati dicono che sono sul punto di provare una fusione nucleare che si autosostenga e produca un eccesso di energia. Il NIF è un laser che occupa un edificio grande quanto tre campi di football, alto 10 piani. Dentro vi sono centinaia di amplificatori ottici, divisori di fascio e dispositivi per creare fasci laser, dividerli in 192 vie e ottenere un’energia combinata di 1.8 megajoule. Il bersaglio è una piccola capsula sferica, delle dimensioni di un grano di pepe, fatta di berillio che contiene una piccola quantità di deuterio e trizio, isotopi dell’idrogeno. Quando i nuclei contenuti nella capsula cominciano a fondere l’energia prodotta sarà più grande che quella pompata nella capsula. Il Laboratorio ha speso più di 10 anni e 3,5 miliardi di dollari per costruire il NIF e i ricercatori ritengono che oltre ad essere un investimento per una futura centrale di fusione nucleare sarà in linea con gli obiettivi del NIF di provare le simulazioni al computer delle esplosioni nucleari e confermare che le armi nucleari conservate negli arsenali USA siano affidabili. Il team di ricercatori ha risolto il problema di concentrare la potenza del laser nella capsula e fare ciò simmetricamente in modo da implodere facilmente. Nell’esperimento descritto, il team ha prodotto una temperatura di 3,3 milioni di kelvin all’interno della cavità di fusione. La cavità è formata da un cilindretto di oro, dove si concentrano i fasci dei laser a ultravioletti e la temperatura facilita l’emissione di raggi X che inducono l’implosione. C’era il pericolo che il plasma di atomi d’oro interagisse con i fasci laser in modo imprevedibile. Nell’esperimento il team è riuscito a controllare la combinazione di tutti i fasci in modo che l’interazione fosse accettabile. Il campo di diffrazione dei fasci laser concentra l’energia al centro della camera di fusione. Il punto più critico è di assicurare che l’implosione sia regolare e simmetrica e fino a questo momento si sono usate solo capsule vuote. Gli esperimenti sono per il momento fermi e proseguiranno in maggio. Non c’è dubbio che la fusione si otterrà, ma forse non entro quest’anno.

Science, 12 Feb 2010, Vol. 327, pg. 766 – Adrian Cho – La notizia dell’ultima settimana dal CERN di Ginevra è che il maggiore collisore di atomi del mondo, il Large Hadron Collider (LHC) funzionerà nel 2011 a metà della sua massima energia e rimarrà fermo nel 2012. In precedenza era stato annunziato che quest’anno avrebbe funzionato al 70%. La riduzione diminuisce la probabilità che si possa scoprire il sospirato bosone di Higgs, la particella fondamentale per i fisici per spiegare l’origine della massa, prima che il rivale, il Fermi National Accelerator Laboratory (Fermilab), in Batavia, Illinois arrivi a scoprirlo. I fisici del Fermilab, non hanno subito dichiarato di rimettere in funzione il Tevatron Collider, di 27 anni fa, anche per il 2012, ma lasciano aperta questa possibilità. Il nuovo piano del CERN assicura un funzionamento senza rischi mentre si raccoglierà una buona massa di dati. LHC che ha un costo di 5,5 miliardi di US$ ed è progettato per far collidere protoni fra loro a 14 trilioni di elettroni-volt (TeV), 7 volte il massimo del Tevatron, ma i responsabili del CERN devono tenere bassa l’energia per proteggere le connessioni elettriche difettose delle migliaia di magneti superconduttori che guidano le particelle lungo l’anello sotterraneo di 27 km. Nel settembre 2008, solo 9 giorni dopo aver iniziato la circolazione delle particelle, LHC andò in avaria per la fusione di un’interconnessione e i ricercatori hanno speso 14 mesi a riparare il guasto. I responsabili avevano pianificato di partire con 7 TeV e poi salire fino a 10 TeV, ora è stato deciso di rimanere a 7 TeV per tutto il prossimo anno a raccogliere dati e possibilmente scoprire le nuove particelle previste dalla teoria della supersimmetria, si spegnerà poi per tutto l’anno successivo per sostituire tutte le circa 10000 interconnessioni e permettere a LHC di funzionare a 14 TeV nel 2013. Il ritardo nei programmi di LHC potrebbe dare ai fisici del Tevatron la possibilità di riprendere le prove, ma per il momento essi sono interessati ad aumentare la frequenza delle collisioni dell’acceleratore e per questo devono attendere la fine del 2011.

Science, 16 Apr 2010, Vol. 328, pg. 290 – Lauren Schenkman – L’Istituto Associato delle Ricerche Nucleari di Dubna, in Russia ha ottenuto i nuovi elementi dal 113 al 118, escluso il 117, facendo collidere intensi fasci di calcio 48 e ricavando elementi della famiglia radioattiva degli attinidi. La scorsa settimana, nella rivista Physical Review Letters, il team ha annunziato di aver ottenuto anche l’elemento mancante: il 117. Per decenni questo elemento era stato oggetto di una gara a tre. Dal 1940 il Laboratorio di Berkeley, che dominava questo campo di ricerche, aveva trovato gli elementi dal 93 al 106. Nel 1981 il Centro GSI Helmholtz di Darmstadt, in Germania, aveva trovato gli elementi dal 107 al 112, quest’ultimo chiamato Copernicum. L’elemento 117 era difficile da ottenere. I fisici di Dubna hanno fatto collidere trilioni di ioni di calcio 48, giorno e notte per 5 mesi e, fra migliaia di eventi interessanti, hanno estratto sei elementi 117. Nel decadimento radioattivo si formano catene di elementi prima di raggiungere la stabilità. Un elemento 117 con 177 neutroni, per esempio, emette una particella alfa e si trasforma nell’elemento 115 e poi nel dubnium 105. Elementi con più neutroni sono più stabili anche 6000 volte come nel caso dell’elemento 111. La teoria predice che vi sono certi numeri magici di protoni e neutroni che conferiscono una maggiore stabilità. Il numero magico di 184 neutroni produce ad esempio un’isola di stabilità e, per raggiungere quest’isola, i fisici devono produrre isotopi sempre più pesanti degli elementi noti. L’elemento 120 rimane fuori da quest’isola. La scoperta del 117 richiede ancora una conferma da parte di un competitore, secondo le regole internazionali, e questo potrebbe richiedere anni.

Science, 16 Apr 2010, Vol. 328, pg. 293 – Eli Kintisch – Una nuova verifica (audit) del Governo USA presso il National Ignition Facility (NIF) al Lawrence Livermore National Laboratory, in California, ha messo in evidenza che vi sono ancora problemi scientifici e tecnici e mancanze nella gestione. Gli scienziati affermano tuttavia che la macchina otterrà grandi risultati scientifici se il Congresso darà il suo supporto. I 192 laser focalizzati su un bersaglio di vari tipi di atomi d’idrogeno, in condizioni estreme di temperatura e pressione, dovranno permettere la fusione. L’innesco di questo processo permetterà ai ricercatori di monitorare il funzionamento delle armi nucleari e comprendere i processi che avvengono nei nuclei delle stelle e dei pianeti e aprirà la strada a un’energia pulita ed economica. Il progetto ha subito ritardi dalla costruzione iniziata nel 1997 e il suo costo e più che raddoppiato. L’anno scorso si era previsto di ottenere l’innesco della reazione entro il 2010. Il rapporto del Government Accountability Office (GAO) della scorsa settimana dice che il progetto ha fatto progressi, ma ci sono ancora problemi per raggiungere l’energia richiesta di 1,8 megajoule (MJ). Attualmente l’ottica laser limita l’energia massima a 1,3 MJ o meno. Il sistema ottico del laser ha un’alta probabilità di danneggiarsi a queste estreme energie e il NIF ha utilizzato 4 mesi per lavorare su questo problema. Gli esperti sono preoccupati perché questo difetto rende inaffidabile il progetto. Il GAO ha detto anche che la National Nuclear Security Administration (NNSA), che ha finanziato il progetto, ha avuto dei difetti nella gestione. I responsabili del progetto dicono che è possibile ottenere l’innesco a 1,3 MJ anche se con minore probabilità e questo laser è già 40 volte più energetico di altri esistenti. I responsabili del NIF difendono le decisioni del proprio management e, al momento, bisogna lasciare che gli scienziati facciano il loro mestiere e vedere ciò che succede.

Science, 14 May 2010, Vol. 328, pg. 808 – Danie Clery – Nel 1960 I fisici del Lawrence Livermore National Laboratory (LLNL) della California stavano studiando il modo di comprimere e riscaldare una capsula di isotopi di idrogeno per produrre la fusione e generare energia. La soluzione era basata su una tecnica esotica, quella di fare implodere la capsula di combustibile con il laser. Il risultato di questa iniziativa è oggi un salone alto dieci piani e largo come tre campi di football, cioè il National Ignition Facility (NIF) da 3,5 miliardi di dollari. NIF è stato completato nel 2009 e le prove sul gigantesco laser sono in corso dalla scorsa estate. Il laser del NIF produce impulsi con la più grande energia nel mondo per innescare un piccolo sole. La fusione inerziale con il laser richiede che funzioni l’innesco. Per aumentare la probabilità di successo, il laser produce impulsi on-off da 1,8 megajoule che durano solo 20 nanosecondi. Il NIF tuttavia può sparare oggi solo due - tre colpi il giorno e, se ogni fusione produce 100 megajoule di energia si potrà ottenere 3,5 kW di calore, la potenza richiesta da una tipica casa americana. Una centrale per la fusione inerziale dovrebbe fare esplodere 1e capsule 10 volte il secondo, richiede quindi circa un milione di capsule al giorno, bisogna costruire, intorno, un contenitore che assorbe i neutroni prodotti e convertire l’energia in calore per generare l’elettricità. Il punto di partenza è stato la costruzione di laser di potenza, quelli da 100 kW, per tagliare i metalli, ma deve essere concentrata in impulsi molto stretti per raggiungere potenze di picco più elevate. Nel NIF si parte da laser di potenza relativamente bassa e si aumenta passando attraverso una serie di amplificatori. Dopo il laser del NIF, il progetto successivo è stato chiamato LIFE (Laser Inertial Fusion Engine) che produrrà fino a 500 megawatt e può operare a 10 hertz, invece che ogni ora. Altri vogliono separare le due funzioni necessarie per la fusione: quella di comprimere la capsula e quella di riscaldarla per innescare la fusione e utilizzare quindi laser ottimizzati per le due funzioni. Quest’approccio è chiamato fast ignition fusion. Circa 5 anni fa, il problema è stato affrontato alla Osaka University, in Giappone, comprimendo 600 volte una capsula di idrogeno con un laser e alzando la temperatura a 10 milioni di gradi con un secondo laser. L’esperimento fu chiamato FIREX (Fast Ignition Realization EXperiment). Il laser per il riscaldamento doveva arrivare a 60 milioni di kelvin e produceva impulsi di petawatt (10E15 W) con durata di 10 picosecondi (10E-11 s). Con potenze di picco così elevate, si rompeva tutto. Per ottener alte potenze di picco senza rompere gli amplificatori, i progettisti usano la tecnica degli impulsi chirp. Si fa passare un impulso stretto attraverso un reticolo di diffrazione che lo allunga abbassandone la potenza di picco, lo si amplifica e, con un secondo reticolo di diffrazione, si comprime di nuovo alzando la potenza di picco. La realizzazione di maschere di diffrazione di alta precisione ha richiesto circa 5 anni e il completamento richiederà altri 2 anni, ma vi sono problemi di finanziamento. Anche in Europa si punta sulla fast fusion con un reattore dimostrativo chiamato HiPER (High Power Energy Research). Il progetto del Livermore con il LIFE usa tecnologia a basso rischio e si pensa a una collaborazione con il progetto europeo per ottenere risultati nel tempo più breve.

Science, 30 July 2010, Vol. 329, pg. 498 – Adrian Cho – Dal vecchio collisore Tevatron del Fermi National Accelerator Laboratory (Fermilab) di Batavia, Illinois, i fisici dicono di non essere ancora riusciti a vedere la tanto cercata particella del bosone di Higgs, tuttavia, il Tevatron funzionerà per ancora tre anni, fino al 2014. Si ritiene che i bosoni di Higgs si nascondano nel vuoto e provocano l’inerzia delle altre particelle dando loro la massa. I fisici del modello standard, tuttavia non sanno predire il suo peso. Da precedenti esperimenti dovrebbe pesare da 114 a 185 giga-elettroni volt (GeV), fra 121 e 197 volte la massa di un protone. Lo scorso anno i ricercatori del Fermilab hanno dimostrato che il suo peso non sarà fra 162 e 166 GeV ed hanno poi allargato questo campo da 158 a 175 GeV. Con questi dati, i ricercatori del Fermilab hanno abbastanza sensibilità da scoprirlo nella zona permessa fra 114 e 185 GeV e dovrebbero essere molto vicini a vederlo facendo collidere protoni e antiprotoni fino al 2014. Questo perché il concorrente LHC del laboratorio europeo CERN, presso Ginevra, Svizzera, sarà spento alla fine del 2011 per riparare le migliaia di saldature difettose nelle connessioni fra i magneti superconduttori. Nel settembre 2008, LHC è andato in avaria, durante un test preliminare, quando si fuse una di queste connessioni. Dopo 14 mesi di riparazioni, l’acceleratore ha potuto funzionale a non più della metà della sua massima energia che è, tuttavia, 3,5 volte quella del Tevatron, fino a quando non saranno rifatte tutte le saldature sospette. L’interruzione durerà 15 mesi per permettere anche altre modifiche. I fisici che lavorano ai due più grandi rivelatori di particelle, ATLAS e CMS, dicono che potranno battere il Tevatron con i dati che raccoglieranno fino alla fine del prossimo anno. Per fare funzionare il Tevatron fino al 2014, sono necessari 100 milioni di US$ e sarà un problema, se il laboratorio dovrà attrezzarsi per il nuovo esperimento dei neutrini, detto NOVA, da 260 milioni di US$ e altri progetti. Ci sarà certo un rallentamento del NOVA, se si farà funzionare il Tevatron. Alcuni fisici europei sono favorevoli al prolungato funzionamento del Tevatron in parallelo a LHC perché, nei prossimi 2-3 anni i due sistemi saranno complementari. I finanziamenti per il Tevatron non sono stati ancora trovati e il Comitato consultivo del Fermilab si riunirà il prossimo mese.

Science, 10 Sep 2010, Vol. 329, pg. 1266 – Adrian Cho – La scorsa settimana, una commissione del Fermi National Accelerator Laboratory (Fermilab) di Batavia, Illinois, ha sollecitato di riprendere l’attività del collisore Tevatron per un periodo addizionale di 3 anni, fino al 2014. Questa estensione potrebbe dare ai ricercatori del Fermilab la possibilità di battere i rivali europei del Large Hadron Collider (LHC) nella scoperta del bosone di Higgs. Questo è, infatti, l’elemento fondamentale per spiegare come le particelle acquisiscono la loro massa e, al momento, LHC è in ritardo nel programma e sarà chiuso dal 2012, per importanti riparazioni che dureranno 15 mesi. La raccomandazione della commissione non ha un appoggio universale perché il Department of Energy (DOE), che finanzia il Fermilab, è preoccupato per l’esperimento NOvA, da 260 milioni di US$, sullo studio dei neutrini, che ora è in costruzione e che dovrebbe partire nel 2013. I fisici generano i neutrini facendo collidere protoni su un bersaglio di carbonio e per questo è necessario il Tevatron. Nel campo delle alte energie il Fermilab ha avuto il supporto per un nuovo collisore da molti miliardi di dollari, detto International Linear Collider (ILC) che potrebbe essere rivale di LHC, ma questo non potrà essere costruito fino a metà del 2020. Il prolungamento dell’attività del Tevatron sul bosone di Higgs ha anche un problema di fondi, perché costerebbe 150 milioni di US$. In mancanza di questi fondi la decisione non può che essere negativa. Ora, per la decisione, si rimane in attesa della richiesta del budget 2012 alla Casa Bianca, per l’anno fiscale che inizierà a ottobre 2011, da parte del DOE e delle altre agenzie.