MICROARRAY
Per
lo studio delle basi chimiche della vita
AUTORI:
STRUMENTI PER PRODUZIONE E LETTURA
CONTROLLO DI QUALITA’
DEGLI SPOTS
MACCHINE PER L’AUTOMAZIONE DELL’IBRIDAZIONE
LA RACCOLTA DEI CAMPIONI BIOLOGICI
NORMALIZZAZIONE E TRASFORMAZIONE
LE APPLICAZIONI DEI MICROARRAY
IL SEQUENZIAMENTO MEDIANTE IBRIDAZIONE
LE SINDROMI NEOPLASTICHE EREDITARIE
RISPOSTE RAPIDE PER MALATTIE COMPLESSE
LA COMPONENTE GENETICA DELLE MALATTIE
FARMACOGENETICA E FARMACOGENOMICA
PROSPETTIVE BREVETTUALI E COMMERCIALI
COLLABORAZIONI E FINANZIAMENTI
I microarray o
biochips sono un piccolo supporto per analisi costituito, nella forma più
tradizionale, da un vetrino portaoggetti o anche altri tipi di supporto su cui
sono fissati, su linee parallele, decine, centinaia o anche migliaia di puntini
(spots) che sono piccoli o addirittura piccolissimi ammassi di acidi nucleici,
proteine o cellule e che quindi, funzionando da veri e propri biosensori,
rendono possibile, con l'aiuto del computer, la valutazione di qualsiasi tipo
di fenomeno vitale con una velocità e una precisione mai realizzate in
precedenza in tutta la storia della biologia. Un biosensore, infatti, è un
sensore chimico che sfrutta l'elevata specificità e sensibilità delle molecole
biologiche per trasformare un segnale biochimico ( in genere un evento di
riconoscimento specifico ) in un segnale quantificabile.
Praticamente il
microarray è un miniaturizzato sistema di analisi che si basa sulla
utilizzazione di supporti di vario genere, i più comuni sono in vetro, su cui
sono allineate microscopiche aree costituite da un numero anche notevole di
molecole di cattura, disposte secondo specifici criteri, che rendono possibile,
per mezzo di indicatori fluorescenti o di altro genere, determinare in
parallelo, e nello stesso tempo, anche migliaia di eventi biologici che, letti
da uno scanner in parallelo e contemporaneamente o da altro apparecchio in
grado di assolvere alla stessa funzione, sono resi evidenti sullo schermo di un
computer, che tra l' altro, in base ai risultati, può anche dare una risposta
numerica che è espressione della elaborazione complessiva del fenomeno preso in
esame.
La utilizzazione di
tali piccolissime quantità di molecole di cattura, e di altrettanto piccole
quantità dei campioni, rende il metodo molto più sensibile di altri che
utilizzano volumi centinaia di volte maggiori.
Pertanto, proprio per
le sue peculiari caratteristiche, l'uso dei microarray ha trovato immediata
larga applicazione nello studio del genoma in quanto è stato possibile
utilizzare vetrini su cui erano stati fissati anche decine di migliaia di
oligonucleotidi per centimetro quadrato e che quindi, in base a specifici
fenomeni di ibridazione, permettevano di mettere insieme rapidamente, ed in
parallelo, una enorme quantità di dati sull' espressione dei singoli geni.
La prima intuizione di
tale nuovo metodo di analisi la si deve a Mark Schena dell’università di
Stanford, che ne ha fatto cenno ad Amsterdam nel 1994 nel corso del quarto
congresso internazionale di Biologia Molecolare delle Piante, ma la prima
pubblicazione riguardante questa nuova tecnica è dell'anno seguente (Schena et
al. 1995). Presso l'università di Stanford, che ha una lunga tradizione negli
studi sugli acidi nucleici, e presso i contigui Laboratori Davis, sono state infatti
affrontate le prime problematiche su come fissare sui vetrini microscopiche
linee di sequenze di geni delle piante e su come studiarne l'espressione
utilizzando campioni di mRNA isolati dalle cellule e coniugati ad un enzima per
poter evidenziare poi l'avvenuta reazione con la comparsa di fluorescenza di
intensità variabile e quindi misurabile.
Quindi i microarray,
come i microprocessori, sono nati nella Silicon Valley. Parallelismo,
miniaturizzazione ed automazione sono tre aspetti che mettono in luce una certa
similarità fra le due tecnologie. I microprocessori hanno rivoluzionato i
rapporti umani ed hanno reso possibile favorire gli interscambi ed eseguire
milioni di calcoli per secondo. Abbiamo il convincimento che i microarray
potranno generare una rivoluzione tecnologica di inimmaginabile portata, perché
in grado di chiarire tantissimi problemi che sono alla base dei processi che
riguardano tutte le forme di vita sia vegetale che animale.
Infatti si è
sviluppato rapidamente un enorme interesse sulle prospettive di utilizzazione
di tale nuova tecnologia perché utilizzabile non solo per studiare le piante,
gli animali e l' uomo, ma anche i lieviti, i batteri, i virus. Ne consegue che
si intravede un' esplosiva applicazione non solo in medicina ma in tutta la
biologia, agricoltura compresa.
Per avere un' idea di
quello che può rappresentare in campo medico basti pensare che l'espressione
dei singoli geni è sempre strettamente correlata a quasi tutti i fenomeni della
crescita, dello sviluppo, dell'invecchiamento, all'azione delle droghe, degli
ormoni, alle malattie mentali e ad una infinità di malattie in cui la sequenza
genica del singolo individuo gioca un ruolo importante.
Ci si è subito resi
conto che, con questo nuovo mezzo d'indagine, sarebbe stato possibile non solo
fare diagnosi molto più precise e documentate, ma anche sarebbe stato possibile
arrivare alla individuazione dei farmaci più adatti da utilizzare di volta in
volta per i singoli pazienti.
Siamo quindi alla
vigilia di un modo nuovo di fare la medicina su basi biologiche molto più
complete e profonde perché potremo valutare rapidamente, grazie all'uso dei
microarray e dei computer, non solo il comportamento dei singoli organi o
distretti, ma anche essere informati di quello che è in atto in base alla
valutazione dell'attività di migliaia di singoli componenti cellulari, inclusi
i geni che ci daranno la possibilità di fare diagnosi esatte, anche in corso di
manifestazioni patologiche di difficile interpretazione, compresi i tumori.
Dato che nel genoma di
ciascuno di noi c'è scritto chi siamo e quello che possiamo o non possiamo
fare, e dato che la nostra vita è espressione delle interreazioni che,
specialmente attraverso le proteine, che derivano dai geni, avvengono fra le
nostre cellule, con i microarray, sapremo dare risposte precise a tante domande
a cui oggi non è possibile rispondere.
Ma questa nuova
tecnologia, se da un lato si va diffondendo perché permette di realizzare
tecniche diagnostiche finora
improponibili, è ancora abbastanza complessa perché, per lo meno sotto certi
apetti, alcune fasi non hanno ancora raggiunto l’optimum di standardizzazione e
di automazione. I problemi che si possono affrontare sono tali e tanti che non
ci si deve meravigliare se alcuni aspetti o alcuni tipi di soluzioni che sono prospettati possono far sorgere dei
dubbi.
Lo scopo di questa
monografia è pertanto sia quello di descrivere
le tecniche fondamentali e le possibili applicazioni ma anche di
illustrare tutti gli aspetti riguardanti i controlli di qualità che in tipo di
lavoro così complesso, che è ancora in gran parte di tipo artigianale e molto
capillarizzato assumono più che mai un’importanza determinante per ottenere
consistenza e ripetibilità di risultati.
L'essenza della vita è
un colossale ed apparentemente disordinato rimescolamento di molecole che
interagiscono in rete per effetto degli stimoli dell’ambiente con diversi gradi
di connettività e differenti stati di sensibilità alle perturbazioni.
Le molecole sono
sostanze formate da due o più atomi combinati in vario modo. Atomi della stessa
specie e della stessa massa formano la tavola periodica dei 118 elementi che è
praticamente l'alfabeto chimico. Gli elementi sono quindi atomi che, con le
normali reazioni chimiche non possono essere frazionati in strutture più
semplici.
I vari elementi sono
identificati usando o l'intero nome o lettere singole: Carbonio (C), azoto (N),
ossigeno (O), fosforo (P) e zolfo (S) sono gli elementi che più di frequente si
trovano nelle biomolecole.
Lo studio delle basi
chimiche della vita si articola nella biochimica, disciplina scientifica
sviluppatasi negli ultimi 200 anni, che ha svelato, con una impressionante
serie di progressive scoperte, il funzionamento delle più importanti molecole
che giocano un ruolo fondamentale nei meccanismi vitali e che sono il DNA, RNA,
le proteine ed i carboidrati.
Queste sono strutture
allungate,conosciute anche come biopolimeri, e che sono composte da catene di
molecole più piccole o monomeri. I più importanti monomeri, su cui si
articolano i meccanismi fondamentali della vita, sono i nucleotidi, gli
aminoacidi ed i monosaccaridi.
Cerchiamo di
ricapitolare brevemente le caratteristiche fondamentali di ciascuno di essi.
Sono i monomeri o
molecole costituenti le catene degli acidi nucleici sia tipo DNA che RNA, e
consistono, a loro volta di tre differenti componenti: una base azotata, un
gruppo fosfato ed una molecola di zucchero o monosaccaride.
Le basi azotate sono
strutture eterocicliche contenenti più atomi di azoto ed una delle cinque basi
azotate che sono note come adenina ( A ), guanina ( G ), citosina ( C ), timina
( T ) ed uracile ( U). Sono appunto dette basi perché in soluzione hanno
reazione basica. Come vedremo, le prime quattro entrano nella struttura del DNA
o acido desossiribonucleico, mentre l'uracile, invece della timina, entra nella
struttura del RNA o acido ribonucleico.
Oltre alle basi, la
molecola del nucleotide è composta anche da una molecola di un monosaccaride a
5 atomi di carbonio detto appunto pentosio. Le molecole del monosaccaride dei
nucleotidi del DNA e quelle del RNA sono praticamente identiche tranne che in
posizione 2' dell'anello che contiene, per il DNA, un atomo di idrogeno e
quindi H, invece dell'ossidrile OH che è nella stessa posizione del RNA. Da ciò
derivano pertanto le denominazioni desossiribosio e ribosio.
I nucleotidi che
compongono la molecola di DNA e RNA contengono una sola molecola di fosfato
mentre quelli utilizzati per la sintesi enzimatica sempre del DNA e RNA ne
contengono tre.
Sono i componenti
essenziali delle proteine e, come tali, indispensabili alla vita. Svolgono un
ruolo importantissimo in vari processi chimici naturali.
Gli aminoacidi sono 20
e tutti hanno come componenti caratteristici della struttura sia una gruppo
amminico ( NH3 ) che un gruppo carbossilico ( COO ) acido da cui deriva il
nome. Riportiamo nella seguente tavola come vengono contrassegnati in modo
abbreviato con tre lettere o con una singola lettera.
TAVOLA DEGLI
AMINOACIDI
Aminoacidi
|
Abbreviazione a tre lettere |
Abbreviazione a lettera singola |
Alanina |
ala |
A |
Arginina |
arg |
R |
Asparagina |
asn |
N |
Aspartato |
asp |
D |
Cisteina |
cys |
C |
Glutamina |
gin |
Q |
Glutammato |
glu |
E |
Glicina |
gly |
G |
Istidina |
his |
H |
Isoleucina |
ile |
I |
Leucina |
leu |
L |
Lisina |
lys |
K |
Metionina |
met |
M |
Fenilalanina |
phe |
F |
Prolina |
pro |
P |
Serina |
ser |
S |
Treonina |
thr |
T |
Triptofano |
trp |
W |
Tirosina |
tyr |
Y |
Valina |
val |
V |
Si sospetta che nelle
prime forme di vita, gli archeobatteri, il codice usato non arrivasse a
specificare tutti e 20 questi elencati ma ce ne fossero altri due: la
selenocisteina e la pirrolisina, che sono simili alla serina. Questo ci fa
pensare che il codice genetico, non sia stato sempre uguale ma che tenda ad
evolvere e ad espandersi dando origine a nuovi aminoacidi.
Sono composti
biochimici noti anche come zuccheri. altamente solubili, contenenti atomi di
carbonio, idrogeno e ossigeno in rapporto 1: 2 : 1. E' una famiglia di molecole
molto estesa che include glucosio, fruttosio, mannosio, galattosio ecc.
Le catene di
monosaccaridi contenenti due o più di tali molecole sono conosciuti come
polisaccaridi o carboidrati.
Il DNA o acido
desossiribonucleico è presente nel nucleo di ogni cellula del nostro corpo. E’
la molecola di cui sono composti i geni e che codifica le informazioni per la
sintesi sia dell’ RNA che delle proteine. E’ composta da tre componenti: uno
zucchero,un fosfato, ed una base. La molecola del DNA è lineare e si forma per
un’ azione enzimatica che lega il gruppo idrossilico 3' di un nucleotide al
gruppo S' del fosfato di un altro nucleotide. Due nucleotidi riuniti insieme in
questo modo formano un dinucleotide, ma le molecole di DNA sono formate da un
gran numero di nucleotidi. Risultano essere, quindi, sottili e lunghissime
scale a chiocciola ma avvolte e superavvolte in un'intelaiatura proteica, così
che il tutto assume la forma di un bastoncello microscopico che prende il nome
di cromosoma, che, come vedremo è composto da un insieme di segmenti
funzionali, detti geni.
Un tipico gene umano
contiene spesso circa 10.000 nucleotidi, mentre un cromosoma ne contiene anche
1.000.000.
La catena del DNA ha
una polarità e viene letta andando da sinistra, o parte alta, verso destra che
è la parte terminale. La parte alta contiene il fosfato legato all'atomo S' di
carbonio del desossiribosio, mentre l'estremo terminale contiene il gruppo
idrossilico legato all' atomo 3' di carbonio del desossiribosio.
Le molecole di DNA si
possono sintetizzare usando particolari macchine che, appunto, prendono il nome
di sintetizzatori di DNA. Si possono così realizzare delle catene di 10-100
nucleotidi a catena singola, noti come oligonucleotidi sintetici, largamente
utilizzati anche nella produzione dei microarray.
Le molecole di DNA
naturale, essendo le catene singole instabili, sono bicatenarie e le singole
catene, distanti l'una dall'altra 20 Å, sono tenute insieme da ponti idrogeno
che gli danno un andamento a spirale come in una scala a chiocciola e con le
singole volute corrispondenti a 10 basi. Una catena va dal 5' al 3' e l'altra,
che è complementare dal 3' al 5'. L'accoppiamento delle due catene si realizza
sempre con collegamenti esclusivi, nel senso che all'adenina (A) si lega alla
timina (T), e la guanina (G) si lega alla citosina (C). Questo processo di
interreazione fra le due catene complementari prende il nome di ibridazione.
L’unità fondamentale
del codice genetico è il codone che è
composto da tre nucleotidi.
Le molecole di DNA,
come dimostrato da Watson e Crick, sono costituite da un doppio filamento di
nucleotidi appaiati perfettamente
complementari. Si tratta di molecole filiformi e lunghissime, avvolte a
gomitolo e quindi tridimensionali, di carica negativa, facilmente solubili in
acqua, grazie alla presenza del fosfato e dello zucchero che sono altamente
idrofilici.
Si tratta perciò di
molecole con cui è relativamente facile lavorare in laboratorio. La carica
negativa, conferita dal fosfato, ne facilita il legame sulle superfici dei
microarray quando queste sono rese di carica positiva trattandole per es. con
derivati amminici ( R-NH 3+ ).
Le molecole di RNA
sono molecole intermediarie perché, come mRNA, ovvero RNA messaggero,
trasferiscono l'informazione genetica dal DNA alle proteine che devono essere
sintetizzate, e come t RNA, ovvero RNA trasportatore, raccolgono nel citoplasma
e mettono in fila, presso i ribosomi, i vari aminoacidi in modo che formino la
sequenza proteica prevista in base al segnale che arriva dal DNA. Sono molecole simili a quelle del DNA ma
hanno alcune particolarità, perché sono a catena singola, contengono la base
uracile ( U ) invece che la timina ( T ) ed hanno come molecola di zucchero il
ribosio invece che il desossiribosio.
Le catene di RNA,
oltre che essere singole, sono molto più corte nel senso che non superano mai i
10.000 nucleotidi. Anche queste molecole sono dotate di carica negativa,
facilmente solubili ma molto più instabili rispetto a quelle del DNA, perché
facilmente attaccate dalle ribonucleasi che sono enzimi molto diffusi nell'
ambiente e sulle superfici del nostro corpo per cui, quando ci si lavora
bisogna prendere particolari precauzioni ed indossare guanti di gomma
sintetica.
La maggior parte dei
ricercatori riconoscono tre tipi di RNA cellulari: messaggero ( m RNA ),
ribosomiale ( r RNA ) e di trasferimento ( t RNA ). Le molecole di m RNA,che
sono appunto quelle devolute al trasferimento dell'informazione genetica, non
superano il 5% del RNA totale cellulare, ma, sotto il profilo funzionale, sono
le più importanti, perché ciascuna molecola di m RNA corrisponde, come sequenza
di basi, ad uno specifico gene. Pertanto siccome i geni umani sono circa
30.000, ci sono 30.000 differenti molecole di mRNA nelle nostre cellule,
ciascuna formata da una catena di 1000-10.000 ribonucleotidi.
Sono le molecole di r
RNA le più abbondanti ( fino al 85% del totale ), ciascuna comprendente
100-5000 ribonucleotidi, che sono quelle che coordinano direttamente la sintesi
delle proteine che avviene proprio a livello dei ribosomi, che sono larghe
strutture citoplasmatiche devolute a questa funzione.
Le t RNA, che
costituiscono circa il 10% del totale, hanno la funzione di legare i singoli
aminoacidi al m RNA per rendere possibile poi il trasferimento ai ribosomi e
favorire così la sintesi delle proteine.
Ma si va facendo
strada il sospetto che esista un quarto tipo di RNA, che si potrebbe chiamare
RNA attivo, cosi chiamato perché sembra che simuli proprio la funzione dei
geni, tanto che qualcuno comincia a parlare di geni di solo RNA ( Eddy
Il dogma centrale su
cui si è basata la genetica molecolare, a partire dagli anni cinquanta, è molto
semplice: Il DNA fa l' RNA, l' RNA fa le proteine e le proteine svolgono quasi
tutto il lavoro biologico vero e proprio.Più esattamente possiamo dire che i
geni sono codificati nel DNA del nucleo delle cellule. Qui è prodotto (
trascritto) lo RNA messaggero ( m RNA ) che si trasferisce nel citoplasma,
elimina gli introni , subisce una serie di modificazioni e, poi, con l’aiuto dei ribosomi, ciascuno
viene tradotto nella relativa proteina.
Le proteine sono
composte da lunghe catene di centinaia o migliaia di aminoacidi , legati
insieme con legami covalenti fra il gruppo carbossilico di un aminoacido ed il
gruppo amminico del contiguo.
Abbiamo visto che
esistono 20 aminoacidi con formule chimiche diverse, e, quindi, una serie di
componenti elementari molto più numerosi dei quattro nucleotidi che formano le
molecole del DNA e del RNA. Ne deriva che, legandosi in vario modo possono dar
luogo a lunghissime catene diverse che costituiscono poi la struttura di tutto
il mondo biologico sia vegetale che animale.
Quando una proteina si
forma si ripiega in una struttura tridimensionale che è per lo più determinata
dall'affinità degli aminoacidi per l'acqua. Gli aminoacidi idrofobi tendono a
ripiegarsi all'interno della molecola, lasciando le loro controparti idrofile,
come per esempio il glutammato nella molecola dell' emoglobina, a contatto con
il citoplasma acquoso della cellula.
Nelle cellule la
trasmissione del messaggio dal DNA al RNA e poi alla proteina, avviene in modo
collineare sequenziale:
5' -CAC-TTT-GTA-3' DNA
5' -CAC -UUU -GUA -3' RNA
H3N -his -phe -val -COO Proteina
Ognuno dei circa
30.000 geni umani dovrebbe codificare una sola proteina e, quindi, nelle nostre
cellule ci dovrebbero essere circa 30.000 proteine diverse. Invece la realtà è
molto più complessa perché si è visto
che ciascun gene può codificare fino a 20 proteine diverse e che di molte
proteine si conoscono più varianti, simili ma diverse o per la sostituzione di
qualche aminoacido o per una diversa configurazione della forma terziaria
derivante dal ripiegamento. Le proteine sono quindi una vastissima famiglia di
molecole comprendenti enzimi, anticorpi, ricettori, trasportatori, ormoni ecc.
Pertanto oggi si ritiene che il proteoma umano comprenda non meno di un milione
di molecole diverse.
Gli enzimi, come è
noto, sovrintendono a tutte le attività biologiche quali la sintesi del DNA, la
sintesi del RNA, la sintesi delle proteine, il metabolismo cellulare in tutte
le sue forme, la degradazione del RNA, la degradazione delle proteine ecc.
Si sa che nel nostro
organismo i vari enzimi catalizzano, nelle cellule, centinaia e anche migliaia
di reazioni biochimiche al secondo.
Gli anticorpi sono
invece molecole di difesa che servono a proteggerci dall’invasione di virus,
batteri, e da molti tipi di molecole estranee che penetrano nei nostri tessuti,
che prendono il nome di antigeni.
Gli anticorpi sono
globuline che, in base al peso molecolare si dividono in due grandi categorie:
quelli di peso molecolare compreso fra 150.000 e 190.000 e quelli di peso
molecolare intorno a 900.000- Alla prima categoria appartengono quattro classi
IgA, IgD, IgE ed IgG. Alla seconda soltanto le IgM.
Già alla nascita sono
presenti nei nostri tessuti anticorpi di origine materna, trasmessi attraverso
la placenta e, nei primi giorni di vita, attraverso il colostro. Col tempo
compaiono poi gli anticorpi che poi, in ciascuno di noi, si formano come
risposta ad antigeni ambientali o ad infezioni o per effetto di immunizzazioni
indotte da vaccini. Caratteristica fondamentale degli anticorpi è quella di
reagire in modo specifico con l' antigene che ne ha determinato la formazione.
Sono pertanto noti anche come immunoglobuline.
Il gene è un segmento del
DNA genomico ed è quindi l'unità morfologica funzionale dell'intero organismo.
Il luogo fisico dove ciascun gene è posizionato è detto locus. In ogni locus
possono esistere forme diverse dei geni, perché, eccetto per i cromosomi del
sesso, ogni individuo ha due alleli per ciascun locus.Tali alleli sono analoghi
ai “ fattori “ descritti da Mendel. Gli individui sono omozigoti, per ogni
aspetto morfologico o funzionale, se i due alleli sono identici e, quindi,
indistinguibili l’uno dall’altro. Gli eterozigoti hanno invece alleli diversi.
I maschi sono emizigoti perché hanno una sola copia del cromosoma X.
La differenza fra i
due alleli può essere minima, ossia riguardare una sola coppia di basi. Alcune
volte la non corrispondenza degli alleli non ha conseguenze funzionali mentre
altre volte, come vedremo, anche la diversità di una sola base, può avere
effetti deleteri, come nel caso dell’anemia a cellule falciformi dovuta ad
un’accoppiamento timina-alanina che
porta all’alterazione della ctena B dell’emoglobina A, perché la sostituzione di
un’aminoacido idrofilo con uno idrofobo fa cambiare la struttura terziaria.
Quando gli alleli sono diversi, in genere, uno prevale sull’altro, e pertanto è
detto dominante.
Ciascun gene codifica
un solo tipo di m RNA ed una sola proteina, seppure con diverse varianti
strutturali, ed, attraverso di essi impartisce istruzioni al funzionamento
della cellula. Gruppi di geni adiacenti svolgono spesso funzioni correlate. Ma
i geni non funzionano tutti nello stesso tempo. Ad esempio i geni che
controllano il metabolismo del lattosio funzionano solo quando una cellula
cresce in un terreno contenente, come zucchero essenziale, il lattosio. In
assenza di lattosio non hanno bisogno di lavorare.
Ogni gene è composto
da circa 10.000 nucleotidi, ovvero l0 kb o chilobasi, che sono disposti in modo
da formare la doppia elica di acido desossiribonucleico ( DNA ).
I geni degli
eucarioti, e quindi anche delle cellule umane, contengono un certo numero di
esoni e di introni.
Gli esoni sono segmenti
di gene che vengono copiati sul corrispondente m RNA e sono composti da
sequenze di codoni ovvero da sequenze delle 64 triplette di nucleotidi
contenenti le quattro basi A T C G, ciascuna riferentesi ad uno dei 20
aminoacidi utilizzati per la sintesi delle proteine. Ma, con eccezione per
metionina e triptofano, anche triplette diverse possono codificare per lo
stesso aminoacido, per esempio quattro codoni codificano la leucina ( CTT, CTC,
CT A, CTG ), e due la lisina ( AAA, AAC ).
Introni sono invece segmenti
di geni che non vengono trasferiti nel m RNA e che quindi non codificano la
sintesi delle proteine. Queste porzioni di sequenze non codificanti, che
costituiscono oltre l’80% del genoma umano, non sono tuttavia inutili, come si
è creduto per molti anni, perché, come vedremo, danno origine a RNA
sorprendentemente attivi, in grado di silenziare o regolare i geni.
Un tipico gene umano è
costituito da 6-8 esoni ed introni, ciascuno lungo 100-1000 paia di basi e,
quindi, 0,1-1 kb. Ma la lunghezza e la struttura dei geni varia
considerevolmente. Per esempio il gene che determina la fibrosi cistica,
malattia che, in alcune aree, colpisce 1 neonato ogni 3000, contiene 25 esoni e
ben 250 kb che codificano una proteina patologica di ben 1480 aminoacidi.
Il più grande gene
umano noto è quello che determina la distrofia muscolare di Duchenne: contiene
75 esoni e 2,4 milioni di paia di basi.
E' interessante il
punto di vista dello zoologo inglese Richard Dawkins che, nel riconsiderare i
concetti di gene, individuo e specie ha affermato che l'organismo deve essere
visto nella sua interezza come una macchina le cui parti concorrono a
realizzare un unico fine che consiste nella replicazione di tutti i geni
dell'organismo. Ogni organismo si è sviluppato grazie ad un patto stabilito fra
loro dai geni che sono sopravvissuti proprio in virtù della propria capacità di
collaborare nel pool genetico per creare organismi individuali dello stesso
tipo. In quest'ottica i geni rappresentano i veri replicatori, mentre l'organismo
è semplicemente il veicolo per il replicatore e la specie è l'agglomerato nel
quale i geni collaborano tra loro perché presentano le stesse aspettative. I
replicatori sopravvivono attraverso il processo di selezione naturale in virtù
della loro compatibilità con l'ambiente.
Si intende l'insieme
di tutto il materiale genetico che costituisce il corredo ereditario di un
organismo vivente. Ogni cellula di un organismo contiene nel proprio nucleo un
insieme di coppie i di cromosomi costituiti da DNA e da proteine. Per esempio
ogni cellula umana contiene nel proprio nucleo 46 cromosomi, 23 di origine
paterna e 23 di origine materna e più precisamente 22 autosomi , che sono
uguali nel maschio e nella femmina e poi X ed Y che sono i cromosomi del sesso
che sono morfologicamente diversi.
Le cellule somatiche
degli animali superiori sono dette diploidi perché hanno due copie di ciascun
cromosoma che, come abbiamo visto, sono di origine diversa, una dal padre ed
una dalla madre. Invece le cellule dell’uovo o dello sperma per ciascun
cromosoma hanno un unico rappresentante e, quindi, sono dette aploidi.
Se si colorano le
cellule in fase di divisione si possono vedere al microscopio i singoli
cromosomi, che sonodistinguibili per la grandezza ed in base alla morfologia
caratterizzata dalla posizione del centromero che è interposto fra le braccia
corte ( p ) e le braccia lunghe ( q.).
All'interno dei
cromosomi risiedono i geni distribuiti l'uno dopo l'altro in modo da formare un
filamento attorcigliato lungo circa
I geni degli organismi
unicellulari primordiali e le cellule batteriche, che hanno preceduto di
miliardi d'anni la comparsa dell'uomo sulla terra, avevano un genoma più
semplice e privo di introni e i cui codoni sequenziavano un numero più ridotto
di aminoacidi. Invece gli organismi unicellulari attuali come i lieviti, hanno
nucleotidi ed aminoacidi simili a quelli umani, che, da un lato, confermano la
teoria evolutiva degli esseri viventi, che va dai più semplici fino all'uomo,
ma sono geni con strutture geniche più piccole e prive di introni.
Il genoma di molti
virus e batteri consiste di un singolo cromosoma circolare, mentre gli
organismi superiori hanno un genoma composto da numerosi cromosomi lineari.
Man mano che si sale
nella scala biologica si vede che il numero dei geni e quello dei cromosomi
aumenta e la struttura diventa più complessa. Quello che già si sospettava lo
ha confermato la completa identificazione delle sequenze genomiche ormai
completa per circa 1000 organismi diversi, che è stata estesa, negli ultimi
anni anche all'uomo.
Gli obiettivi
principali del Progetto Genoma Umano, che ha avuto fra i promotori James Watson
e l'italiano Renato Dulbecco e che, con inzio nel
Comunque ogni specie
di organismi ha un certo numero di cromosomi e di geni caratteristici e, poi,
all'interno di ciascuna specie, ogni individuo ha un proprio genoma specifico.
Notiamo infatti che,
per esempio, la mosca della frutta ( Drosophila melanogaster ) ha 5 cromosomi,
14.000 geni e 140.000.000 paia di basi; il topo ha 20 coppie di cromosomi,
30.000 geni e 3.000.000.000 paia di basi; l'uomo ha 3 coppie di cromosomi più
del topo, ma, all'incirca, lo stesso numero di geni e di paia di basi.
E' stato messo in
evidenza che il genoma di ogni essere umano è identico al 99,9%. Quindi solo
una limitatissima percentuale di geni può variare da persona a persona.Abbiamo
visto che ogni persona è portatrice di due alleli per ogni gene. Quando gli
alleli sono uguali, si dice che quella persona, per quel gene, è omozigota. Se
i due alleli sono diversi si dice che quella persona, per quel gene, è
eterozigota. Negli eterozigoti, come abbiamo già riferito, uno dei due alleli è
spesso dominante ed è espresso, l'altro è recessivo e può restare inattivo.
La presenza di due
versioni per lo stesso gene risulta essere un naturale meccanismo protettivo,
nel senso che, quando un allele risulta essere difettoso, può subentrare
l'altro, che è in grado di compensare.
Per avere un'idea di
come funzionino vediamo quello che succede per i gruppi sanguigni: ogni essere
umano è classificato come gruppo A, B, AB oppure O. Questo perché il gene ABO
ha tre alleli che sono A, B e O. Questi tre alleli hanno la struttura del DNA
quasi identica perché, infatti, differiscono solo per pochissimi nucleotidi.
Gli alleli A e B, che codificano rispettivamente per le proteine A e B, sono
codominanti. Coloro che hanno gli alleli AA o AO, e quindi solo la proteina A,
appartengono al gruppo sanguigno A. Coloro che hanno gli alleli BB o BO, e
quindi solo la proteina B, appartengono al gruppo sanguigno B. Coloro che hanno
ambedue gli alleli AB, appartengono al gruppo sanguigno AB. Coloro che sono 00,
e quindi non hanno nessuna delle due proteine, appartengono al gruppo sanguigno
O.
Come abbiamo già
riferito le variazioni della struttura genomica fra un essere umano ed un altro
sono limitatissime e riguardano praticamente singoli nucleotidi, nel senso che
in una stessa posizione una persona può avere una G invece che una C, mentre
un' altra può mancare di una T. Queste variazioni, meglio note come mutazioni e
polimorfismi possono essere di vario genere e sono contraddistinte dalle
denominazioni seguenti:
Sostituzione: una base
invece di un’ altra.
Delezione: perdita di
una base.
Inserzione: aggiunta
di una base.
Inversione: una breve
sequenza di basi è sostituita da un'altra che ha la stessa sequenza ma con
direzione invertita.
Traslocazione: una breve
sequenza di basi risulta rimossa e trasferita in un settore diverso.
I termini "
mutazione " e " polimorfismo " sono spesso usati in modo
intercambiabile, ma è più corretto considerare il polimorfismo una variazione
di sequenza che si riscontra in almeno 1 % della popolazione e che, in genere,
non produce effetti apprezzabili, mentre la mutazione è una variazione di
sequenza più rara, ma che può essere dannosa.
Nel 1865 un monaco
austriaco, Gregor Mendel, pubblicò il risultato delle sue osservazioni sulle
modalità di trasmissione di tre caratteri dei piselli, ossia il colore dei
semi, l’aspetto della superfice, liscia o rugosa, e l’altezza delle piante.
Egli dimostrò come un certo “fattore” venisse trasmesso immodificato e con
uguale frequenza da ciascuna generazione di piante alla seguente.
Le osservazioni di
Mendel non furono prese in seria considerazione fino al 1902, quando Sir
Archibald Garrod non dimostrò che l’alcaptonuria, una malattia umana, si
trasmettesse in via ereditaria.
Sono dovuti
trascorrere altri 90 anni dopo la prima osservazione di Mendel per capire che
il fattore genetico individuato fosse il gene e come i caratteri ereditari si
trasmettano fondamentalmente in base alle leggi di Mendel con il DNA,
utilizzando un codice molto semplice, perché costituito da un alfabeto di 4
lettere, giustamene definito l’alfabeto della vita: adenina,citosina,guanina e
timina. Tali quattro lettere poi si alternano in gruppi di tre creando 64
triplette o combinazioni, da cui derivano come vedremo, i 20 aminoacidi, che
sono la base costituente di tutte le proteine, che sono a loro volta le più
importanti molecole strutturali di tutti gli esseri viventi.
Appare sorprendente il
fatto che tutti gli esseri viventi sia vegetali che animali si formino utilizzando
lo stesso alfabeto e che sia possibile trasmettere geni anche da una specie ad
un'altra ossia attuare il trasferimento genico che sta rivoluzionando tutta la
biologia ed ha dato il via a non pochi dilemmi etici, perché la gente teme che
gli organismi geneticamente modificati, possano, con il passar del tempo
riservare delle sorprese.
Ogni uomo è formato da
circa 100 miliardi di cellule e ciascuno di noi eredita un certo tipo di
genoma, in cui sono presenti alcune variazioni che sono appunto dette ereditarie
per distinguerle da quelle acquisite che possono comparire nel corso della vita
per effetto di fattori tossici ambientali. Le mutazioni presenti nelle cellule
somatiche spesso dovuti alle interazioni
con l’ambiente, vengono trasmesse solo alle identiche cellule figlie mentre
quelle presenti nelle cellule della riproduzione o germinali sono ovviamente
trasmesse anche alle generazioni seguenti.
Tutti gli organismi
eucariotici, che includono i funghi, le piante, i roditori e i primati,
compreso l'uomo hanno cellule somatiche diploidi, che significa che in ogni
cellula hanno due copie dello stesso gene in una coppia di cromosomi analoghi,
che sono quindi in totale 46 che, come sappiamo, 23 sono di origine paterna e
23 di origine materna. Le cellule germinali, conosciute anche come gameti, sono
dette invece aploidi perché hanno una sola copia di ogni cromosoma, in totale
23, e quindi una sola copia di ogni singolo gene.
Durante la
fertilizzazione, si ha l'incontro e la fusione della cellula germinale uovo con
la cellula germinale spermatozoo, ciascuna portatrice di 23 cromosomi e si
riforma la cellula somatica in cui si ritrovano, per ogni gene, la copia di
origine maschile e quella di origine femminile. Quindi per ogni gene si può
avere l'incontro di alleli omozigoti o di alleli eterozigoti, a secondo se le
due copie sono, per quanto riguarda la sequenza dei nucleotidi, identiche o
diverse. Ma non tutti i caratteri del fenotipo, come vedremo, sono trasmessi ai
discendenti secondo le leggi di Mendel. Per cui c’è sempre una certa differenza
tra il genotipo ed il fenotipo, sia perché i meccanismi di trasmissione
ereditaria sono molto più complessi ma anche perché su tale espressione
interferiscono tutti i componenti ambientali.
Tutte le alterazioni o
mutazioni del codice genetico possono essere neutre, ovvero senza apparente
effetto, oppure benefiche o deleterie. Naturalmente, in questo ultimo caso,
portano ad alterazione di funzioni e quindi possono anche determinare una
malattia.
Un individuo che per
una certa malattia è eterozigote, può non manifestare i caratteri o i sintomi
di quella forma morbosa ma, essendo portatore, essere sempre in grado di
trasmettere quella variante o allele alla prole. Quando però, il carattere
riferentesi a quella malattia è dominante sull'altro allele recessivo, allora,
anche nell' eterozigote può evidenziarsi la sintomatologia della malattia.
Molte variazioni del
genoma, qualora determinino scambi di aminoacidi fondamentalmente simili, non
producono effetti apprezzabili a livello cellulare o producono anche effetti
benefici. Su ciò si basa non solo la grande diversità biologica ma anche ci fa
capire come mai l'evoluzione, condizionata dalle interferenze con l’ambiente,
abbia portato quasi sempre a far prevalere il meglio.
Altre mutazioni
possono essere dannose nel senso che possono essere causa diretta di malattia o
aumentare la suscettibilità ad una data malattia che può condurre anche a
morte. Per esempio una mutazione del gene p53, che codifica una proteina capace
di bloccare la proliferazione cellulare, può anche determinare un'abnorme
crescita cellulare fino alla formazione di tumori. Non c'è quindi da
meravigliarsi se in soggetti in cui sia presente tale mutazione compaiano poi
lesioni cancerose.
La maggior parte delle
mutazioni che si ritrovano nel genoma umano derivanti dalla relativa
instabilità del DNA,riguardano singoli nucleotidi e prendono il nome di
polimorfismi in singoli nucleotidi (SNP s ). Di tali sequenze mutate, nei
cromosomi umani se ne trova all'incirca 1 ogni 1000.
Comunque, come
vedremo, ci sono malattie genetiche ben definite dovute alla mutazione anche di
un solo gene, mentre la maggior parte delle malattie, per non dire tutte, hanno
una base genetica che determina la suscettibilità individuale, ma sono multifattoriali
perché sono espressione delle interazioni di più geni e dei singoli geni con
l’ambientee.
Comunque lo studio
sempre più approfondito del genoma ci sta chiarendo i rapporti fra struttura e
funzioni dei geni. Il Progetto Genoma Umano ha definito le sequenze
nucleotidiche di tutti i vari geni e, quindi di tutti i cromosomi. Alla fine di
questa memorabile impresa Prancis S. Collins ha giustamente esclamato: “Siamo
alla fine dell'inizio”.
Ora, infatti, dobbiamo
capire il funzionamento di tutti questi geni. Le domande che attendono una
risposta sono molte. Ne ricordiamo alcune:
Quali geni sono
espressi nei vari tessuti?
Come l'espressione di
un gene può essere influenzato da influenze extracellulari ?
Quali geni sono
espressi durante lo sviluppo di un organismo?
Come cambia
l'espressione di un gene in fase di sviluppo e di differenziazione ?
Quale effetto deriva
dalla disregolamentazione di un gene ?
Quale tipo di
espressione genica può essere causa di malattia o favorire l'aggravarsi di una
malattia. ?
Quale tipo di
espressione genica può influenzare la risposta ad un certo tipo di trattamento
?
Il diffondersi delle
analisi eseguibili con i microarray permetterà di chiarire questi ed altri
numerosissimi quesiti riguardanti tutta la biologia sia del mondo animale che
vegetale.
Il termine proteoma è
stato coniato circa dieci anni fa per introdurre un concetto simile a quello
del genoma, ma a livello delle proteine. Per qualsiasi essere vivente, lo si può
definire come l'insieme delle proteine che sono codificate dal suo genoma.
Il concetto di
proteoma è molto più complesso del suo predecessore genoma per le seguenti
ragioni:
Ne consegue che
l'identificare la sequenza degli aminoacidi che compongono una proteina può
essere di scarsa importanza se si desidera sapere, non solo come effettivamente
la molecola è strutturata, ma anche come funziona sia in condizioni
fisiologiche che patologiche.
C'è poi un altro
aspetto, non di secondaria importanza, che riguarda le relazioni di ciascuna
proteina con l'ambiente circostante per cui si può avere che la stessa proteina
in cellule diverse ha un comportamento diverso e può assolvere a funzioni
diverse. Poi occorre tener presente che le interazioni fra proteine sono eventi
transitori e la cinetica, secondo le circostanze, può cambiare molto. Ogni
condizione del nostro organismo, a seconda di quanto siamo malati o di quali
farmaci prendiamo, determina radicali cambiamenti del proteoma.
Ma se pure il proteoma
è molto più complicato da studiare di quanto lo sia stato il genoma, moltissime
aziende biotech stanno cercando di capire quali siano gli strumenti e le tecniche più adatti, non solo perché la
proteomica è alla base della biologia ma perché si è convinti che tale
approfondimento può aiutare molto lo sviluppo di nuovi farmaci.
Finora per capire
quali siano le proteine presenti in determinate cellule o tessuti si sono
utilizzate prevalentemente l' elettroforesi bidimensionale su gel, la
spettrometria di massa e la cristallografia a raggi X.
Nell'elettroforesi
bidimensionale si depone un piccolo campione della miscela di proteine sul
bordo di un sottile strato di gel in grado di separare le proteine spostandole
in due direzioni perpendicolari in base alla loro massa e alla loro carica
elettrochimica. Pertanto ognuna diventa identificabile come una macchia
distinta sul gel e quindi può essere prelevata e studiata con altre tecniche.
La spettrometria di
massa utilizza magneti o campi elettrici per separare proteine differenti in
base alla massa degli atomi che le costituiscono e i risultati appaiono come
picchi di un grafico. Ma gli spettrometri di massa sono apparecchi molto
costosi e non sempre si dimostrano utili nell'individuare le nuove proteine.
La cristallografia a
raggi X consente di analizzare proteine preventivamente purificate e
cristallizzate. Esaminando in che modo i raggi X vengano deviati dai singoli
atomi di una proteina, si può capire come sia fatta la molecola ed intravedere
la conformazione tridimensionale, che, come abbiamo già spiegato, per le
proteine è importantissima.
Ma, con questi
apparecchi, si riescono a catalogare le proteine presenti in un campione
biologico ma non è questo l'unico obiettivo che si pongono gli studiosi del
proteoma.
Per capire che cosa
realmente facciano le proteine nel corpo e per sviluppare farmaci efficaci,
dobbiamo sapere come varia la componente proteica da una cellula all'altra e,
all'interno della cellula, con il mutare delle condizioni circostanti. Dobbiamo
inoltre capire come le diverse proteine collaborino per portare a termine le
varie attività della cellula.
Le proteine si
combinano a formare reti funzionali e quindi è importante riuscire a capire con
quali altre proteine una proteina, momento per momento, interagisca.
Servono quindi metodi
nuovi e apparecchi nuovi. Siamo quindi certi che i microarray potranno dare un
contributo fondamentale per la soluzione di tali problemi proprio perché adatti
allo studio sistematico delle interazioni biologiche.
Gli organismi viventi
però non vivono nel vuoto ma, e tantomeno, in un ambiente statico, ma
permanentemente coinvolti in continue e subentranti sfide ambientali che vanno
da quelle dell’ambiente intracellulare a quelle dei singoli organi e sistemi
interni all’ambiente esterno in cui ogni essere vivete compie giorno per giorno
il suo ciclo di vita. Quindi, certamente, con la pubblicazione delle sequenze
del genoma dei singoli esseri viventi fino quelli umani si sono create le basi
di un sistema dinamico di vincoli che permettono alle cellule di agire in un
certo modo. Ora ci si deve muovere verso una nuova frontiera e stabilira non
solo le funzioni dei singoli geni ma anche scoprire i rapporti evolutivi e la
logica che governa l’assemblaggio delle proteine coinvolte in complicate reti
metaboliche che danno la possibilità a tutti gli esseri viventi di reagire in
modo diverso a tutte le sollecitazioni sia dell’ambiente interno che esterno a cui
si devono adattare.
L’elaborazione
dell’informazione ereditaria rende possibile la costruzione di reti dinamiche
d’interazione che caratterizzano le funzioni di tutti gli esseri viventi sia in
condizioni fisiologiche che patologiche.
Ora, mentre conoscendo
i genomi dei microrganismi è relativamente facile stabilire le funzioni dei
singoli geni, lo stesso non si può dire quando si ha a che fare con genomi più
complessi.
E’ ormai noto,
infatti, che non tutta l’informazione biologica è racchiusa nelle sequenze del
DNA che codificano le proteine, né che la funzione delle singole proteine
derivi solo dalle sequenze degli aminoacidi che le compongono. Esistono
certamente delle dinamiche interazionali che si esprimono a vari livelli delle
attività cellulari e che, probabilmente, sono ancora sconosciute.
Un microarray è una
linea ordinata di elementi microscopici su una superficie piana su cui è
possibile immobilizzare sia acidi nucleici che proteine capaci di riconoscere e
legarsi con molecole complementari. Permettono di eseguire, pertanto, sia
reazioni di ibridazione, quando si tratti di acidi nucleici, o reazioni
immunitarie, quando si tratti di antigeni o anticorpi. Ci si possono legare
anche cellule vitali per realizzare ricerche di vario genere.
Microarray è una nuova
parola scientifica composta da " micro ", che in greco significa
" piccolo " e dal francese " arayer ", che significa "
sistemare ".
I microarray, che
qualcuno ha anche chiamato biochips o gene chips, contengono un insieme di
piccoli elementi, detti anche spots, sistemati su file orizzontali e colonne
verticali.
Un microarray può
essere considerato un mezzo diagnostico se presenta quattro caratteristiche
standard ossia essere ordinato, microscopico, planare e specifico.
Ordinato
Significa che gli
elementi analitici, detti anche molecole probe o chip o spot, devono essere
disposti in modo ordinato e preciso lungo file orizzontali diritte ed
incolonnati anche su file verticali perfettamente perpendicolari. I vari
elementi devono essere, ovviamente, di grandezza uniforme e separati da spazi
uniformi.
E' assolutamente
necessario che tali elementi siano disposti in maniera ordinata, sia su linnee
orizzontali che verticali, perché questo ne facilita la produzione in
automazione e, quindi a costi contenuti, ma, ancora più importante, ne facilita
e accelera l'esame e l'interpretazione dei risultati.
Ogni elemento deve
essere uniforme per non rendere ambigua la lettura. Non è ammissibile la se pur
minima sbavatura che rischierebbe di contaminare la lettura dell'elemento
vicino. Elementi di forma diversa o di diversa densità, anche se contenenti lo
stesso numero di molecole, darebbero luogo ad un segnale di diversa intensità,
compromettendo la precisione del risultato.
Inoltre, ovviamente
ogni elemento deve avere una collocazione ben precisa, in base alle sequenze
desiderate, di modo che, automaticamente, si sappia che il dato che la macchina
legge corrisponda ad un unico e ben preciso probe o spot.
Microscopico
Microscopico è
qualsiasi oggetto le cui dimensioni siano inferiori ad
Si tende tuttavia a
realizzare probe quanto più piccoli, e questo sia perché così se ne possono
concentrare anche fino a oltre 5000 per centimetro quadrato. sia perché quanto
più piccolo è il probe o spot tanto più veloce è la cinetica della reazione
realizzabile.
Per rendersi conto
dell' enorme importanza della miniaturizzazione degli elementi, basti pensare
che sono stati già realizzati microarray che comprendono l'intero genoma umano
e, quindi con circa 35.000 spots.
Planare
il substrato di
supporto dei probes può essere di vetro, plastica o silicio ma è importante che
sia perfettamente piano. il materiale finora più usato è stato il vetro sia
perché è più facile realizzare superfici senza imperfezioni sia perché ci si
lavora meglio.
il materiale di
supporto deve essere solido, rigido, planare ed impermeabile e perché solo se
ha queste caratteristiche è possibile realizzare una produzione di alta qualità
in automazione e rendere possibile anche la lettura dei risultati in
automazione.
Comunque, anche se il
vetro è stato preferito, sono allo studio anche altri materiali che forse
potranno essere utilizzati per specifiche applicazioni.
Specifico
Ogni microarray ha la
funzione di misurare in modo preciso il numero, la quantità o la concentrazione
di molecole presenti nel campione. Quindi è fondamentale che le molecole
presenti nel campione o target vengano legate dal probe in modo assolutamente
specifico ed il segnale che ne deriva deve essere esattamente correlato alla
quantità.
Ogni target deve
legare solo una specie delle molecole presenti nel campione ed esprimere la più
accurata misura del gene o del prodotto genico; inoltre il risultato deve
essere riproducibile con un alto livello di confidenza.
L'assoluta specificità
di legame fra il probe o spot che è sul vetrino ed un solo tipo di molecola fra
quelle presenti nel campione o target è il criterio fondamentale per poter
utilizzare un determinato microarray per fare analisi.
I microarrays per il
DNA hanno reso possibile la convergenza di due aree scientifiche molto diverse:
la genetica e l'elettronica. L'origine di tale nuova tecnologia va fatta
risalire agli esperimenti di Southern che, nel 1975, dimostrò come fosse
possibile fissare il DNA ad un supporto solido ed attrarre, in modo specifico,
una catena complementare sempre di DNA. Tale processo, poi largamente
utilizzato per scopi diagnostici, è noto come
“Southern blotting ".
Fu poi Fodor, che nel
1991, fabbricò i primi microarray, combinando il metodo fotolitografico, usato
per i semiconduttori, per realizzarne i primi fissando degli oligonucleotidi su
superfici di vetro. Avendo intuito l'importanza commerciale che tale tecnologia
avrebbe potuto avere, fondò l'Affymetrix che ha avuto il merito di mettere sul
mercato i GeneChip, che sono stati i primi vetrini con DNA utilizzabili per
tests genetici.
Negli anni che sono
seguiti i microarray con DNA hanno trovato una sempre più vasta applicazione in
vari settori e con diversi fini. La tecnologia si è andata progressivamente
affinando fino a produrre vetrini con decine di migliaia di microspots su pochi
centimetri quadrati adatti per indagini molto complesse sulle modalità d'azione
dei vari geni che prima non sarebbe stato possibile realizzare o avrebbero
richiesto tempi molto lunghi.
Infatti solo con
questa tecnologia è diventato possibile identificare, quantificare, e comparare
in modo simultaneo l’espressione dei singoli geni. Quindi solo con questo approccio
sarà possibile decifrare l’impianto regolativo delle reti geniche che
controllano non solo i vari aspetti e funzioni del singolo fenotipo ma capire
anche cosa effettivamente avviene in tante malattie la cui patologia rimane
ancora in tutto o in parte oscura.
Oggi, che conosciamo
la struttura dei singoli geni, dobbiamo capire se in un dato momento siano in
funzione o meno, ma capire anche ed interpretare la dinamica delle migliaia di
informazioni che ne derivano.
Infatti questo è il
problema che interessa moltissimo non solo ai genetisti ma a tutti i medici, i
biologi e tutti coloro che sono interessati a decifrare i più reconditi
meccanismi e rapporti riguardanti tutti gli esseri viventi sia del mondo
animale che vegetale. Ormai conosciamo esattamente la struttura dei geni di
migliaia di piante e animali, uomo compreso, ma ora vogliamo capire come,
quando e perché funzionano.
Abbiamo visto che,
fino a qualche anno fa si credeva che ogni gene codificasse un solo tipo di m
RNA e quindi, almeno teoricamente, una sola proteina ed attraverso di essa,
impartisse istruzioni alle strutture cellulari e quindi al metabolismo. Oggi
sappiamo invece che la realtà è molto più complessa perché ogni gene, con le
varianti, può codificare fra 3 e 20 proteine. Quindi per capire come i geni
funzionano bisogna arrivare alle proteine che essi esprimono e capire anche
come le varie proteine interagiscono fra di loro. Ne deriva che se è stato
molto importante studiare a fondo il genoma è ancora più importante studiare il
proteoma, ossia lo sconfinato mondo delle proteine che è molto più complesso,
anche perché non statico ma continuamente mutevole in un contesto di reti
dinamiche per la continua serie di interazioni che avvengono fra diloro per
effetto sia dei processi metabolici sia come risposta agli stimoli ambientali.
Infatti tutti gli
acidi nucleici sono costituiti da quattro basi, sono sempre idrofilici e di
carica negativa. Le proteine, invece, sono costituite da 20 aminoacidi, possono
essere sia idrofiliche o idrofobiche, e sono alcune acide ed altre basiche. Ne
consegue che, per poterci lavorare, si devono adoperare diversi tipi di
soluzioni. Poi le proteine hanno una struttura terziaria con gruppi attivi che
ne caratterizzano le funzioni individuali e, quindi, mentre il DNA è molto
stabile, alcune proteine sono in genere molto delicate per cui possono essere
denaturate da sbalzi di temperatura o umidità dell' ambiente. Solo gli
anticorpi, che per fortuna sono largamente usati per la produzione dei
microarray come molecole di cattura, sono molecole proteiche piuttosto robuste.
Queste maggiori
difficoltà hanno reso piuttosto difficile il trasferimento delle tecnologie
usate per produrre i microarray con DNA alla produzione dei microarray con
spots di proteine.
C'è poi un altro
aspetto che ha reso più difficile ancora tale trasferimento: mentre i geni
umani, che sono il caso limite, sono circa 30.000, si ritiene, che nel corpo
umano, dato che si possono trovare numerose varianti delle singole proteine, il
numero complessivo di strutture proteiche diverse del proteoma possa arrivare a
circa un milione.
Comunque l'interesse
per allestire microarray per le proteine è enorme sia perché le varie attività
cellulari sono prevalentemente realizzate attraverso interreazioni fra proteine
sia perché la maggior parte dei farmaci esercitano i loro effetti reagendo con
le proteine.
I primi esperimenti
ben riusciti con le proteine sono quelli di Silzel ( 1998 ) che allestì, su un
film di polistirene, degli spots di 200 micron con anticorpi monoclonali e
dimostrò che le reazioni con le proteine del mieloma erano dose dipendenti.
La qualità delle
superfici ha un' importanza enorme nella produzione di microarray che possano
essere usati per eseguire delle analisi ed ottenere risultati riproducibili.
Infatti le superfici dei vetrini che si adoperano giocano un ruolo
importantissimo nel determinare non solo come le molecole probe ci si attaccano
ma anche per far si che le reazioni che ci si svolgono, possano evolvere senza
problemi o inconvenienti.
Riteniamo pertanto
utile elencare le qualità essenziali che microarray ideali dovrebbero avere per
poter operare bene:
Dimensione
L'ampiezza delle
superfici operative dipendono ovviamente dalle dimensioni del supporto. Come
già abbiamo accennato, attualmente si preferisce operare su vetrini
portaoggetto le cui dimensioni ottimali sono in larghezza, lunghezza e spessore
25-76-
Tale dimensione
standard facilita sia l'automazione della produzione che tutte le fasi
operative di utilizzazione che si concludono con la lettura dei risultati.
Liscia
La superficie di
lettura deve essere omogenea e liscia. Non sono accettabili irregolarità in
eccesso o in difetto superiori ai 10 micron. Infatti se la superficie non è
omogenea il diametro e la fissazione dei probes o spots non può risultare
uniforme né si riesce ad ottener una regolarità delle distanze fra un probe e
quelli vicini. Irregolarità della superficie possono creare problemi anche in fase
di lettura perché alcuni lettori hanno una profondità focale che non supera i
20-30 micron
Planare
Tutta la superficie di
25-
Occorre rendersi conto
che lo stesso numero di molecole se disposte su un vetrino che non sia
perfettamente in piano o non sia liscio producono un segnale di intensità
variabile.
Uniforme
L'uniformità dipende
dalla regolarità sia atomica che molecolare del trattamento utilizzato per rendere
la superficie reattiva. Una superficie si può considerare uniforme se le
eventuali variazioni di densità dello strato reattivo non risultino superiori o
inferiori del 25%
Lo strato. reattivo è
costituito da un monostrato, di solito di organosilani, che sono molecole che
stabiliscono un legame covalente con il supporto che, in genere è vetro. Su
questo strato poi va creato un film di acrilamide, polilisina, o nitrocellulosa
che sono molecole capaci di legare i singoli elementi analitici.
Nel complesso, quindi,
l'uniformità della superficie è molto importante per poter avere microarray
affidabili perché capaci di generare segnali che non varino d'intensità per
ragioni che nulla hanno a che fare con la specificità della reazione.
Stabile
La produzione va
curata in modo da ottenere prodotti che, nel periodo di validità che, secondo i
tipi può essere variabile, decadano meno del 10%. Devono essere prodotti molto
stabili, considerando anche che le tecniche di utilizzazione possono essere
diversissime e che alcune utilizzano anche temperature elevate.
Inerte
Premesso che il tipo
di vetro che si sceglie deve essere perfettamente trasparente, anche i
trattamenti a cui lo si sottopone per poterci fissare poi sopra le molecole
dello spot, non devono compromettere tale trasparenza più di un certo livello
standard. Inoltre il tutto non deve presentare fluorescenza anomala né avere
effetto deviante sulla luce.
Efficiente
La capacità di legame,
che va misurata empiricamente da caso a caso, deve essere tale da rendere possibile
la più bassa concentrazione possibile dei reagenti sia perché sono, di solito,
molto cari sia perché cosi si ottiene la massima efficienza. Per esempio
vediamo che, quando si adoperano oligonucleotidi quali molecole spot, la
concentrazione ottimale è di 30 µM, e da tale concentrazione non è
consigliabile derogare, in eccesso o in difetto, più del 30%.
I primi tentativi di
fissare biomolecole su membrane di nylon o cellulosa, eseguiti nel trascorso
decennio, puntando all' adsorbimento elettrostatico, hanno portato a risultati
molto scadenti. Lo stesso è successo utilizzando superfici a base di
poliacrilamide.
I primi risultati
accettabili si sono avuti ricoprendo le superfici con del destrano
carbossilmodificato.
I trattamenti chimici
delle superfici attualmente più usati per gli acidi nucleici sono a base di:
Organosilani: sono
composti che contengono atomi di silicio che si sono dimostrati molto validi
per legare molecole organiche a superfici di vetro.
Esteri del silicio: sono
una sottofamiglia dei precedenti caratterizzati dalla presenza di un atomo di
ossigeno fra il silicio ed il carbonio. Uno dei più rappresentativi è il
trietilmetoxil silano.
Amine primarie: nel
gruppo amminico un atomo di azoto è legato direttamente ad un gruppo organico.
Amine alifatiche: il
gruppo amminico è legato ad una catena di idrocarboni. n legame che si crea con
le biomolecole, in questo caso, è di tipo elettrostatico e quindi si realizza
un semplice assorbimento.
Aldeidi: permettono di
realizzare un legame covalente, e quindi più stabile, ma disturbano la
fluorescenza con un discreto rumore di fondo ovviamente aspecifico.
Le molecole utilizzate
per fissare alle superfici gli acidi nucleici sono state utilizzate con
discreto successo anche per le proteine. Ma oltre a queste, per poter
realizzare un migliore e più regolare orientamento delle biomolecole da legare,
che per le proteine è molto importante, sono stati utilizzati anche altri
trattamenti di cui ricordiamo i seguenti:
Metalli come il nichel,
adoperato per studiare il proteoma dei lieviti, ma che si dissociano
facilmente, specialmente se si adoperano soluzioni che contengono EDTA.
Streptavidina:
permette di creare il legame biotina-avidina, che è uno dei legami più stabili
fra quelli non covalenti.
Ancora migliori si
sono dimostrati i trattamenti delle superfici che creano anche un effetto da
profondità che genera un legame migliore perché tridimensionale. Ricordiamo i
seguenti:
Nitrocellulosa che
praticamente è un polimero a base di glucosio nitrato.
Agarosio che funziona
abbastanza bene ed è di facile preparazione.
Polimeri di vario
genere.
La pubblicazione che
descrive le prime analisi eseguite con i microarray (Schena et al. 1995 ), usa
il termine " target" per descrivere il DNA ( prodotto con la PCR )
attaccato al substrato, e il termine " probe " per descrivere il
campione mRNA stratificato poi sopra ed in grado di interagire. Nella
letteratura che è seguita, non tutta la comunità scientifica ha utilizzato gli stessi
termini, anzi li ha invertiti, per cui ne è derivata una certa confusione.
Molti, per esempio preferiscono il termine spot per indicare la molecola di
cattura. Noi ci adegueremo alla tendenza attualmente più diffusa che è quella
di chiamare probe o spot la molecola di cattura fissata al substrato che
riveste la superficie del vetrino e target la molecola da catturare presente
nel campione.
Gli acidi nucleici
sono il tipo di probe più comune adoperato finora, ma, come riportiamo in
seguito, molte altre molecole o materiali anche complessi, possono essere
fissati sui vetrini per produrre microarray quali enzimi, anticorpi.
carboidrati, lipidi. virus, batteri, cellule vegetali, cellule animali,
estratti proteici, composti inorganici ecc. Spesso ci si legano materiali già
preparati ma, in alcuni casi si preferisce realizzare delle molecole con
sintesi attuate in loco. Praticamente ogni tipo di molecola, se già preparata,
può essere usata come probe o microspot mentre, talora, si preferisce eseguire
delle sintesi in loco solo per gli oligonucleotidi e per. taluni peptidi.
Prodotti da PCR (
Polymerase Chain Reaction ).
I primi esperimenti di
analisi eseguite con i microarray sono stati realizzati usando probe preparati
con la PCR noti come cDNAmicroarrays e long-oligoarrays quando si tratta di
oligo di una certa lunghezza.. Mediante tale processo di sintesi automatizzata
si possono produrre microgrammi di qualsiasi segmento di DNA che interessi e di
qualsiasi tipo di organismo, inclusi batteri, funghi, piante e animali.Tali
prodotti ottenuti con la PCR vanno poi purificati per allontanare i primers e
gli enzimi che influirebbero negativamente sulle ibridazioni causando
interferenza.
I prodotti da PCR sono
generati utilizzando sia primers comuni sia primers specifici per determinati
geni. Nella produzione dei microarray si utilizzano tutti e due i tipi.
Con una coppia di
primers comuni è possibile amplificare migliaia di elementi target utilizzabili
per la produzione di microarray. Infatti una coppia di primers comuni permette
di amplificare diversi tipi di sequenze con lo stesso grado di efficienza,
perché i primers sono ottimizzati per legarsi ad alta efficienza alle sequenze
del vettore che è costituito da un plasmide o qualsiasi molecola trasportatrice
di un inserto di DNA. All'uso di primers comuni consegue un piccolo
inconveniente perché porta alla realizzazione di probe che sono contaminati da
piccole quantità di sequenze del vettore. E' importante quindi la selezione dei
primers, scegliendo quelli che interferiscano meno.
I primers gene
specifici sono utilizzati per ottenere un unico elemento probe. Sono quindi
preferibili perché non inseriscono sequenze contaminanti, ma tutta l'operazione
costa molto di più. Per averne un' idea basti pensare che per amplificare i
6000 geni del Saccaromyces cerevisiae ne occorrono 12000.
I prodotti da PCR
hanno il vantaggio di essere di dimensioni relativamente grandi ( 500-5000 paia
di basi) e quindi forniscono un materiale ampiamente complementare per la
successiva ibridazione, generando un materiale in grado di emettere un
apprezzabile segnale fluorescente praticamente in ogni tipo di esperimento.
Quindi questa tecnologia è largamente utilizzata in ogni tipo di laboratorio
convenzionale anche perché il costo del materiale che se ne ottiene è di gran
lunga inferiore rispetto a quello che deriva da sintesi di oligonucleotidi.
Lo svantaggio dei
prodotti da PCR è dato dal fatto che sono a doppia elica e quindi per poter
essere utilizzati in reazioni di ibridazione sui microarray devono esser prima
denaturati mediante ebollizione per qualche minuto. Ne deriva il fatto che,
siccome le due catene tendono a fondersi di nuovo, si realizza sempre un
materiale contaminato da molecole che non possono ibridizzare e questo disturba
l'espletamento della reazione, riducendo il segnale.
Un secondo
inconveniente è dato dal fatto che danno luogo a spots di dimensioni notevoli e
quindi possono generare l'inconveniente di causare ibridazioni crociate quando
si studino geni che abbiano considerevoli identità di sequenze ( oltre il 70%
pari a migliaia di nucleotidi ).
Oligonucleotidi
Gli oligonucleotidi
sono corte catene singole di DNA o di RNA. e presentano dei vantaggi per la
produzione dei microarray rispetto a quelli realizzati con DNA in quanto non
richiedono né l’uso di batteri né l’amplificazione del clone.
Ne risulta che,
essendo ridotti i problemi di contaminazione, non risulta essere necessario il
controllo delle sequenze. Sono utilizzati largamente, come molecole di cattura,
anche nella produzione dei microarray sia prodotti a parte, e poi legati sul
supporto, sia sintetizzati direttamente in loco con la fosforamidite. La
sintesi in loco è da taluni preferita per produrre probe con non più di 25
nucleotidi, mentre, se prodotti a parte, si può arrivare anche a 120
nucleotidi.
Per quanto riguarda il
genoma umano oggi è possibile acquisire facilmente la serie completa delle
sequenze del DNA ( www,nebi.nlm.nih.gov/ ) e quindi ci si può produrre, in
maniera molto specifica, qualsiasi tipo di sequenza e questo ovviamente
determina un indubbio vantaggio per la produzione di probe rispetto a quelli
ottenibili utilizzando i prodotti da PCR. C'è lo svantaggio, con gli
oligonucleotidi, che, almeno con certi tipi di campioni, si ha un segnale
fluorescente più debole. E, comunque, quando, non sono note le sequenze, non
conviene utilizzarli.
Le proteine sono
considerate le più importanti strutture cellulari per il continuo ed intenso
lavoro che svolgono sia in stato di benessere che in corso di malattia. A
differenza del genoma che è costituito da un numero fisso di geni, il livello a
cui le proteine cellulari operano è molto dinamico perché le proteine,
direttamente sottoposte a tutti gli stimoli dell'ambiente vanno incontro a
continue variazioni di adattamento e risposta. Ecco perché è molto difficile
determinarne accuratamente l'esatto numero o le quantità presenti nelle cellule
viventi. Inoltre le varie famiglie di proteine sono estremamente diverse fra
loro sia per le dimensioni delle molecole, sia per la struttura, che per le
caratteristiche chimiche e le funzioni.
Negli ultimi anni, la
tecnologia dei microarray, messa a punto per studiare gli acidi nucleici, si è
andata espandendo per analizzare meglio il proteoma delle cellule e le
interreazioni che avvengono fra le diverse proteine e fra queste e l' ambiente
esterno, che sono molto importanti nel determinismo delle malattie e le cui
conoscenze certamente faciliteranno la messa a punto di nuovi farmaci.
Abbiamo già riferito
che il primo tentativo ben riuscito di allestimento di microarray con proteine
è stato realizzato utilizzando degli anticorpi. Ebbene riteniamo che l'uso dei
microarray con anticorpi permetterà, nei prossimi anni di mettere a punto
numerosi nuovi farmaci dato che, ormai, nel mondo sono allo studio alcune
decine di anticorpi monoclonali umanizzati che potrebbero superare sia la
sperimentazione di laboratorio che, almeno alcuni, le prove cliniche.
Poi il sequenziamento
di tutto il genoma umano ha aumentato enormemente il numero di molecole che
oggi sono considerate determinanti nella patogenesi di varie forme morbose.
Siamo pertanto convinti che certamente, alcune di queste, diventeranno
bersaglio di nuovi farmaci la cui individuazione e dosaggio sarà certamente
agevolata studiando tali interreazioni con i microarray.
Comunque i microarray
con proteine, oltre che in campo terapeutico, possono trovare sempre più ampia
applicazione in campo diagnostico specialmente per le malattie infettive di
origine virale. Infatti attualmente i metodi più largamente usati per
individuare agenti patogeni virali in campioni biologici, sono quelli che si
basano sull'immunoenzimatica eseguita in piastrine o su la PCR. Ma i primi hanno
una sensibilità che oscilla fra il 70 e 90% ed i secondi hanno un costo elevato
che ne limita la diffusione su larga scala specialmente in nazioni del terzo
mondo che poi sarebbero quelle che ne avrebbero più necessità.
Si ritiene pertanto
che, probabilmente, i microarray potranno assolvere meglio a tale funzione
perché, dato i ridottissimi volumi necessari dei reattivi, alla fine dovranno
costare meno. Le stesse considerazioni valgono per altri settori della
diagnostica quali l'allergia, le malattie autoimmuni, i markers tumorali ecc.
Per la preparazione di
microarray dedicati specificamente, le proteine da usare come probe, che
qualcuno preferisce chiamare " protein chip " o semplicemente "
chip ", possono essere derivate da estratti cellulari oppure sintetizzate
mettendo insieme dei peptidi sintetici. Le proteine possono anche essere
prodotte in colture di batteri, lieviti, cellule ingegnerizzate di insetti.
Tali proteine ricombinanti, sono poi purificate con tecniche diverse e possono
diventare un ottimo materiale da immobilizzare sui vetrini come molecole di
cattura.
I metodi per fissare
le proteine sui supporti sono fondamentalmente simili a quelli utilizzati per
gli acidi nucleici. Come vedremo, però, produrre microarray con le proteine
offre qualche difficoltà in più. Infatti, come primo inconveniente c'è il
problema che le proteine sono molto meno stabili degli acidi nucleici perché
vanno incontro spesso a processi di ossidazione e di denaturazione. Poi le
proteine, quando sono rimosse dal loro ambiente naturale, modificano la loro
struttura nativa e quindi anche la forma, talvolta esponendo all'esterno
aminoacidi diversi da quelli della forma nativa. Ne deriva che, quando le si va
a far reagire, questi aminoacidi esterni, che costituiscono gli epitopi più
esposti, possono pregiudicare il risultato della reazione.
Comunque sono stati
studiati diversi tipi di microarray per le proteine che Dev Kambhampati, nella
sua interessantissima monografia (2004), suddivide così:
Le cellule sono le
unità fondamentali dei tessuti di tutti gli organismi viventi sia da un punto
di vista strutturale che funzionale. La cellula è una entità microscopica ma
estremamente complessa che contiene una mescolanza eterogenea di sostanze
essenziali per la vita.
Nella cellula troviamo
una serie di strutture e di compartimenti, di cui il più importante, difatti è
il più protetto, è il nucleo. Una membrana infatti avvolge il nucleo in modo
che resti immerso ma separato dal citoplasma, che costituisce il resto e la
parte più esterna della cellula e che, a sua volta è avvolto dalla membrana
cellulare. Il nucleo contiene il lunghissimo filamento di DNA, su cui sono
dislocati i geni, che nella cellula agiscono come il programma di un computer.
Ora, con l'aiuto dei
microarray, è da poco iniziato lo studio riguardante le modalità di espressione
dei geni nei diversi tessuti a cominciare, per l'uomo, dalle strutture del
cervello, fegato, prostata, polmoni ecc. Si cerca di integrare quello che già
riusciamo a sapere grazie all'istologia e la biochimica con la comprensione di
come e quando i vari geni si attivino nei diversi organi e tessuti sia in
condizioni di normale attività che nel corso di vari processi patologici.
E' merito della
Cellomics Inc. di Pittsburgh di aver messo in commercio i primi microarray, The
Cell Chip, allestiti anche con cellule viventi.
Sono molto importanti
per la preparazione dei probes sia per gli acidi nucleici che per le proteine
perché devono rendere possibile un efficiente ancoraggio delle molecole di
cattura o microspot stabili ed uniformi, senza nessuna sbavatura ed esaltare la
visibilità dello spot. Inoltre, quando si tratta di proteine, ridurre le
conseguenze dell'essiccamento ed evitare la denaturazione.
I tamponi hanno,
quindi, una notevole importanza nel determinare l'efficienza di deposizione del
probe sul supporto solido. Si deve formare un microscopico menisco omogeneo
nella forma, a contorni netti e perfettamente aderente. Per aumentare
l'efficienza di contatto si cerca di utilizzare miscele saline piuttosto
viscose perché la viscosità aumenta le forze di contatto.
I tamponi hanno anche
una grande influenza nel determinare l'intensità del segnale, che deve essere
colorato, fluorescente o chemiluminescente, ma senza interferenze da parte dei
cristalli della soluzione salina..
Nelle soluzioni
acquose, il cui principale ingrediente è ovviamente l’acqua. le forze coesive
di legame sono dovute all'idrogeno. I tamponi con molti legami idrogeno
producono goccioline o spot più piccoli. Soluzioni contenenti basi, alcool o
solventi hanno legami idrogeno più deboli e quindi portano alla formazione di
goccioline o spot più larghi che possono più facilmente causare fusioni di spot
da sbavature.
La forma e la
grandezza dello spot sono anche determinate però dalle caratteristiche della
superficie del supporto solido. Infatti superfici idrofobiche, che si
realizzano in presenza per es. di aldeidi, producono spot più piccoli di quelli
che si formano su superfici idrofiliche per la presenza di amine.
Un buon tampone deve
anche accrescere la stabilità delle molecole del probe. Tale qualità è
particolarmente importante per i microarray di proteine perché i relativi
polipeptidi sono piuttosto instabili.
Pertanto i tamponi per
la preparazione dei microarray di proteine talvolta contengono il glicerolo o
altri additivi in grado di accrescere la stabilità del prodotto finale perché
evitano la disidratazione totale.
Per la stessa funzione
i tamponi per i microarray per gli acidi nucleici contengono DMSO
(dimetilsulfossido ).
I targets sono i
campioni da fare interagire. Anche questi devono essere in qualche modo
preparati. Per quanto riguarda gli acidi nucleici, spesso occorre fare in modo
che il segnale venga amplificato. In tutti i casi, sia per gli acidi nucleici
come per le proteine poi è necessario legarli ad una molecola rivelatrice che,
per lo più, finora è stato un colore fluorescente.
Il legame con la
molecola fluorescente può essere covalente e diretto oppure non covalente ed
indiretto, quando si usano anticorpi, dendrimeri o altre molecole interposte.
Campioni con acidi nucleici
La preparazione dei
campioni con acidi nucleici utilizza procedure diverse, che variano secondo i
casi. Sono tutte abbastanza complesse per cui preferiamo tabularle cosi come
sono riferite da Schena ( 2002 ).
Criteri |
Trascrizione Inversa |
RNA Polimerasi |
Procedura Eberwine |
TSA |
Dendrimeri |
Tipo indiretta |
diretta |
diret. o indiret |
diretta indiretta |
|
|
Template -DNA |
RNA |
DNA doppia elica e
promotore |
DNA doppia elica e
promot |
RNA o DNA con
piccola molecola di legame |
RNA o DNA in
dendrimeri |
Prodotto
oligonucleotide |
T3 o T7 nucleotide |
T7 RNA polim
nucleotide |
nucleotide |
nucleotide |
nucleotide |
Reattivo
oligonucleotide fluorescente modificato |
modificato |
modificato o
anticorpo coniugato TSA |
modificato |
modificato |
modificato o
dendrimero |
Interazione |
Ibridazione |
Ibridazione o
piccolo anticorpo |
Ibridazione |
piccolo anticorpo |
Ibridazione |
Amplificazione |
nessuna |
|
100-1.000.000 |
100 |
10-350 |
Tipo di amplific |
nulla |
nulla, enzim o
passiva |
passiva aumento
quantità RNA |
enzimatica |
passiva |
Colore fluorescente |
Cianina |
Cianina |
qualsiasi |
Cianina |
Cianina |
BIODIP |
Alexa |
|
|
|
Alexa |
Processo |
nulla |
fino a 3 ore |
nulla ma
l'amplificazione del RNA diversi giorni |
3 ore |
3 ore |
Riteniamo utile completare
quanto riferito nella su esposta tabella con qualche altro dato che può
risultare utile per interpretarla:
Trascrizione inversa
E' stato il metodo
utilizzato nei primi esperimenti con i microarray. Da questo metodo base sono
poi derivate numerose varianti. usando sia RNA cellulari, che sono molto più
facili da ottenere, che mRNA. Sono state anche utilizzati diversi tipi di
trascriptasi inverse e diversi metodi di purificazione dei campioni.
Il principale
vantaggio di questo metodo è dato dalla coniugazione diretta che elimina i
trattamenti da fare dopo l'ibridazione, che sono sempre ardui e richiedono
molto tempo per essere espletati.
Lo svantaggio maggiore
è data dal fatto che si ottiene un segnale molto meno evidente di quello che si
ha con l'approccio indiretto che si giova dell' effetto dell' amplificazione.
RNA polimerasi
Questo, oltre alle
trascriptasi inverse è un altro gruppo di enzimi largamente usati per preparare
campioni per microarray. Si tratta di una famiglia di enzimi estratti da virus
batterici ( T3 e T7 ), che catalizzano la sintesi del RNA partendo da un DNA a
doppia elica, grazie all'azione di promotori specifici. Si tratta di un
processo robusto e ad alta resa che da la possibilità di produrre quantità
notevoli di RNA, che poi può essere diviso facilmente in piccoli frammenti a
livello di oligonucleotidi con possibilità di amplificazione del segnale anche
di 100 volte.
Bisogna solo stare
molto attenti ad evitare l'azione delle ribonucleasi che attaccano facilmente
le molecole di RNA. Si consiglia quindi di operare in stanze molto ben pulite,
utilizzare guanti di gomma sintetica e, ovviamente, essere certi che reattivi e
tamponi siano assolutamente privi di ribonucleasi.
Procedura Eberwine
Si tratta di un metodo
molto ingegnoso che si basa sull'uso della RNA polimerasi da T7, che converte
mRNA in cDNA con amplificazione, che per ogni procedura è di circa 100 volte e
che, alla fine, può arrivare fino a 1.000.000 volte rispetto al materiale di
partenza. Pertanto questo è il metodo preferito quando si devono risolvere
particolari problemi biologici che non si possono risolvere con altri metodi.
Lo svantaggio di
questo metodo è che è piuttosto arduo e lungo. Infatti occorrono 2-3 giorni per
completarlo e poi si attua attraverso manipolazioni durante le quali non si
riesce a seguire cosa stia succedendo, per cui, se ci sono interferenze da
reagenti inattivi o da contaminazioni da ribonucleasi, lo si capisce solo alla
fine, di fronte a risultati inattesi.
Amplificazione del segnale da
tiramide ( TSA )
La tiramide, in questa
procedura, ha la funzione di potenziare il segnale di varie sostanze
fluorescenti, come la fluoresceina, la cianina 3 o la cianina 5, per cui si
possono realizzare reazioni che portano alla formazione di colori diversi.
La trascriptasi
inversa è usata per incorporare la biotina o il dinitrofenolo al cDNA, che poi
viene ibridizzato su un microarray ed incubato con un anticorpo coniugato alla
perossidasi. Il chip, così composto, è trattato con acqua ossigenata per cui la
perossidasi ossida il segnale fluorescente della tiramide. Ne deriva un segnale
fluorescente molto intenso, fino a 100 volte. E' un segnale, però, che ha
un'emivita molto breve.
Dendrimeri
Il termine dendrimero
deriva dalle parole greche “dendron” e “meros” che significano rispettivamente
“albero” e “parte”. Infatti sono costituiti da ordinati grovigli di monomeri di
oligonucleotidi che ricordano la chioma di alberi e che si formano, per
processi di sintesi progressivi, anellandosi gli uni agli altri attraverso
cicli progressivi che possono arrivare a formare anche molecole di DNA aventi
un PM di 12000 e contenenti 36000 basi. Le singole molecole fluorescenti
attaccate alle numerose estremità sporgenti o braccia del polimero determinano
la comparsa di un segnale fluorescente molto intenso. Un polimero con 300
molecole di colore produce un segnale 300 volte più intenso. Ne deriva che
polimeri aventi un diametro di 0,2 micron si vedono anche ad occhio nudo. Nel
complesso è una tecnica che, anche se non facile da eseguire, presenta molti
vantaggi.
Campioni con proteine
Le proteine, usate
come targets, hanno una storia più recente e, quindi, si può dire, che si
tratta di una tecnologia che è ancora agli albori, ma le prospettive sono
enormi perché nella maggior parte delle malattie si verifica un'alterazione
delle proteine e delle reazioni proteine-proteine. Inoltre la maggior parte dei
farmaci interagisce con le proteine cellulari. Quindi sono le proteine, non i
geni, i veri obiettivi della medicina.
Pertanto, da qualche
anno, si è cominciato a preparare targets con proteine fluorescenti per
approfondire fondamentali problemi di biochimica delle proteine.
Il reattivo
fluorescente finora più utilizzato è stato l'isotiocianato di fluoresceina, che
si lega molto facilmente agli aminoacidi lisina ed arginina, che sono presenti
sulla superficie della maggior parte delle proteine estratte da animali, piante
e microrganismi. La coniugazione di 50 microgrammi di isotiocianato ad 1 mg di
proteina da luogo ad un segnale fluorescente sufficientemente evidente.
I reattivi del gruppo
della cianina, anche, si legano facilmente alla lisina ed alla arginina e ,
quindi, per lo stesso scopo vengono utilizzati con successo.
Un altro reattivo
fluorescente usato per le proteine è la ficoeritrina. Il procedimento, in
questo caso, è più indaginoso perché tale prodotto va pretrattato con la
succinimide ed anche la proteina, prima della coniugazione va attivata con il
ditiotereitolo, per creare gruppi sulfidrilici.
Lavorare con i microarray
è un'attività fine e sofisticata che non si può svolgere dovunque. Pertanto,
specialmente per la produzione, occorrono ambienti ad aria pressurizzata e a
contaminazione controllata. Sono preferiti i filtri laminari verticali a
soffitto che sono più funzionali e non tolgono spazio laterale.
Tale tecnologia ha le
sue radici sia nell'uso che se ne è fatto in microbiologia sia nell'industria
dei semiconduttori, che ha le stesse esigenze per la lavorazione delle lamine
di silicio, utilizzate per la produzione dei computer.
Infatti ci sono cinque
forme di contaminazione ambientale: contaminazione da particelle, biologica,
chimica, termica ed elettrostatica.
Contaminazione da particelle
Si considera essere particella
ogni forma di detrito esistente nell'aria il cui rapporto fra lunghezza e
larghezza non sia superiore di 10: 1. Le particelle più comuni derivano da
polvere, forfora, garza, spore, pollini, funghi e batteri. Sono considerati
invece fibre i detriti più lunghi. La contaminazione può avere origine dalle
strutture dell' ambiente o dalle attrezzature che si adoperano ma spesso c'è
una notevole componente che ha origine umana e specialmente dalle persone che
ci lavorano dentro.
Per quanto riguarda
l'ambiente bisogna considerare almeno tre condizioni o fasi diverse: ambienti
in fase di avvio. ambienti operativi, ambienti in fase di riposo.
Ambienti in fase di avvio
Riguarda la fase
seguente la costruzione e dopo che sono stati introdotti tutti gli apparecchi,
possibilmente nuovi, perché contaminano meno, e solo le attrezzature necessarie
alla lavorazione. Non ci deve essere altro. Dato il grande movimento che c'è
stato, certamente sarà presente una contaminazione di livello molto elevato.
Prima di poter utilizzare un ambiente del genere bisogna, dopo le opportune
pulizie e disinfezioni, far trascorrere almeno una settimana di continuo
funzionamento dei sistemi di filtrazione dell'aria e di decontaminazione per
poter sperare che la concentrazione delle particelle abbia raggiunto un livello
accettabile.
In base agli standard
federali americani, gli ambienti a contaminazione controllata sono stati
suddivisi in classi, in base al numero di particelle presenti di diametro
maggiore di 0,5 micron. La classifica degli ambienti può essere fatta in base
alla seguente tabella:
Tipo |
Numero di particelle
per piede cubico |
Classe 1 |
1 |
Classe 10 |
l0 |
Classe 100 |
100 |
Classe 1.000 |
1.000 |
Classe 10.000 |
10.000 |
Classe 100.000 |
100.000 |
Laboratori di
ricerca 20.000 |
200.000 |
Aria di città
5.000.000 |
500.000.000 |
Quindi, dato che le
particelle di polvere possono creare una fluorescenza di fondo sui vetrini, o
comunque delle immagini alterate oltre che, come abbiamo accennato, alterare la
composizione dello spot, per la presenza di enzimi, è vivamente raccomandato
che gli ambiente in cui si trattano i vetrini con i substrati o si
distribuiscono gli spots siano di classe 1000 o, ancora meglio, di classe 100.
Ambienti in fase operativa
Sono quelli in cui è
stata avviata l'attività e si svolge il lavoro che implica ingresso e
spostamenti di persone e cose che vengono dall' ambiente esterno e, quindi,
portano nuova contaminazione nell'aria protetta e, in precedenza,
decontaminata.
Anche in questi
ambienti, ovviamente, la concentrazione delle particelle deve rientrare nei
limiti surriferiti per poter fare un buon lavoro. Sorge il problema di decidere
quando eseguire le misurazioni della concentrazione delle particelle.
Attualmente prevale la tesi di eseguire le misurazioni sia durante l'attività
che alla fine del lavoro, ossia quando gli ambienti sono in fase di riposo, e
di farne poi la media. Le due conte dovrebbero dare risultati abbastanza simili
ma, comunque, la contaminazione, in assenza di personale, dare una
concentrazione più bassa perché, certamente, la contaminazione umana è una
componente importante. Infatti si sa che ogni persona può generare 1.000.000 di
particelle ogni ora, e quindi far si che rapidamente si creino le condizioni
che portino a superare la concentrazione limite.
Per ovviare o ridurre
tale grave componente di contaminazione, il personale addetto ad operare con i
macroarray, specialmente se si tratta della produzione, è bene che faccia la
doccia prima di entrare nell'ambiente di lavoro e lasci fuori gli effetti
personali quali orologio, gioielli, cosmetici ecc. Deve poi, in una prestanza
attrezzata, indossare camici completi nel senso che comprendano in un unico
pezzo anche la copertura dei piedi, dopo aver lasciato le scarpe e indossato
pantofole, e del capo, e siano di polietilene o di materiale, comunque,
assolutamente, chimicamente inerte. Deve inoltre coprire la bocca ed il naso
con una mascherina ed infilare guanti elastici monouso e del tipo di gomma
sintetica e senza polvere.
Alcuni operatori, per
abbassare al minimo la concentrazione di particelle, utilizzano negli ambienti
in cui già entra, a pressione, solo aria opportunamente filtrata, anche altri
superfiltri portatili supplementari dotati di lamine filtranti di tipo ULPA (
ultra high efficiency particulate air ), che hanno un'efficienza del 99.999%,
invece dei soliti HEPA ( high efficiency particulate air ) che hanno un'
efficienza del 99.97%.
Poi è buona regola che
i pavimenti, almeno ogni 30 giorni, siano lavati molto accuratamente con adatti
detersivi.
Contaminazione biologica
La contaminazione
biologica deriva dall'unto delle mani, da impronte digitali, capelli, saliva,
lacrime, o dal rinnovo delle cellule cutanee. Tutti questi contaminanti
contengono macromolecole e contaminanti di vario genere che possono
compromettere la qualità della risposta dei microarray. Notiamo specialmente la
presenza di lipidi, DNA, ribonucleasi ecc.
Ribadiamo, quindi,
che, appena entrati e prima di iniziare a lavorare, tutte e due le mani devono
essere ricoperte con guanti che è bene siano di gomma sintetica perché quelli
prodotti con gomma naturale contengono alte concentrazioni di proteine vegetali
che possono inquinare sia il materiale dei substrati che gli spots. Se si fanno
lavori che possano danneggiare i guanti, è bene infilare due paia di guanti,
l'uno sopra l'altro.
Si deve evitare in
questi ambienti di fare starnuti o colpi di tosse che causano l'emissione di un
elevato numero di goccioline di muco o saliva. In caso di necessità è bene che
il personale abbandoni l'area a contaminazione controllata e, prima di
rientrare, per riprendere il lavoro, indossi un nuovo camice ed un nuovo paio
di guanti.
Contaminazione chimica
Le più comuni fonti di
contaminazione chimica derivano da pitture, colle, adesivi e materiali per
imballaggio. Sono anche fortemente contaminanti apparecchiature che emettano
gas o vapori. Infatti bisogna tener presente che molti composti organici sono
fortemente reattivi ed alcuni sono anche altamente fluorescenti.
Per le stesse ragioni
il personale che lavora in questi ambienti non deve fare uso di acqua di
colonia, profumi, colluttori, tutti prodotti che tendono ad evaporare
facilmente. Deve essere anche proibito di introdurre cibi o masticare gomme.
Contaminazione termica
La temperatura
consigliata è di
Quindi i locali
adibiti a tali attività non dovrebbero contenere apparecchi come i frigoriferi,
i congelatori, le centrifughe, gli agitatori che sono fonti di calore a meno
che, all'atto della costruzione degli ambienti destinati a tale attività, non
se ne sia tenuto conto, calcolando un adeguato rinnovo d'aria oppure non si
immettano dei condizionatori ausiliari al fine di mantenere costantemente la
temperatura desiderata.
Contaminazione elettrostatica
La contaminazione
elettrostatica è generata da squilibri fra cariche elettriche positive e
negative. Le plastiche, le gomme, il cellofan ed altri prodotti possono creare
tali squilibri che possono favorire l'intrappolamento di molecole contaminanti
sui microarray in fase di produzione riducendone la qualità.
Siccome nella
costruzione e l'allestimento di tali ambienti a contaminazione controllata è
praticamente impossibile fare a meno di tali materiali, bisogna fare in modo
che il grado di umidità relativa non superi mai il 35-45%, perché, fino a
questi livelli, l'umidità assorbe tali cariche prevenendone l'accumulo. Bisogna
anche raccomandare al personale di non strofinare l'un l'altro questi
materiali, perché, se lo si fa, si crea squilibrio di cariche.
Bisogna poi curare
che, sia i substrati che i microarray completi, siano subito impacchettati in
appositi sacchetti di carta argentata anti contaminazione elettrostatica. Poi
bisogna raccomandare che l'apertura di queste confezioni sia fatta lentamente,
aiutandosi con le forbici e mai strappando.
Abbiamo elencato le
varie forme di contaminazione ambientale, che vanno tenute sotto stretto
controllo, ma, per quanto riguarda questi ambienti, ci sono altri aspetti
strutturali ed organizzativi anche molto importanti quali la temperatura,
l'umidità relativa, l'illuminazione e l'uniformità.
Temperatura
La temperatura ideale,
come abbiamo già riferito, è
Infatti questa è la
temperatura più confortevole per il personale ed è il livello a cui lavorano
meglio alcune apparecchiature come i robot. Il mantenere sempre la stessa
temperatura è importante anche per impedire fluttuazioni nella cinetica delle
reazioni chimiche.
Umidità relativa
La si valuta facendo
il rapporto fra l'umidità dell'ambiente ad una data temperatura e l'umidità
massima raggiungibile in quell'ambiente a quella temperatura ed a un certo
livello di pressione. Per tali lavorazioni è consigliata un'umidità relativa
del 40% con oscillazioni non superiori al 5%. Infatti livelli più elevati di
umidità possono influire sulla cinetica di alcuni processi che richiedono una
graduale disidratazione. Una fase particolare della produzione dei microarray è
quella che riguarda la distribuzione per contatto delle goccioline degli spots
che è bene si svolga ad un livello di umidità relativa del 55%. Per tale
ragione l'area in cui si svolge tale processo, e solo quella, deve essere
chiusa e condizionata per realizzare in loco le condizioni ottimali desiderate.
Una condizione opposta
si deve creare quando si deve legare il DNA alle amine o alle aldeidi. Sono
queste reazioni che è bene che si attuino ad un'umidità relativa inferiore al
20% e, quindi, facendo uso di una stufa a secco.
Illuminazione
Negli ambienti a
contaminazione controllata bisogna anche controllare sia l'intensità che la
qualità dell'illuminazione. E' consigliabile una sorgente luminosa da lampade
fluorescenti sia perché producono meno calore dei bulbi incandescenti sia
perché fanno una luce più bianca e fra queste bisogna preferire quelle a spettro totale che hanno un tipo di luce
molto simile a quella della luce solare. Infatti se si considera uguale a
Le lampade, che devono
essere completamente chiuse, vanno poi disposte in modo da dare un’
illuminazione uniforme che, come intensità, deve essere circa 4 W per piede
quadrato.
La produzione dei
microarray, per tutte le ragioni suesposte, è un tipo di lavorazione molto fine
che fra l'altro utilizza materiali spesso costosi. Va, quindi, studiata molto
bene per essere di qua1ità ed a costi contenuti perché possa essere utilizzata
da un numero sempre maggiore di laboratori.
In linea di massima un
vetrino con un gran numero di spots, ovviamente, vale di più di uno che ne
contenga di meno. Oggi praticamente è possibile produrre anche singoli vetrini
che contengono tutti i circa 30.000 geni umani, ma hanno, ovviamente, un costo
notevole.
Si tenderà quindi a
produrre microarray dedicati, nel senso che contengano solo alcune decine di
spots, o anche centinaia, ma preparati per risolvere un ben preciso problema
diagnostico o scientifico. Quindi la gamma dei tipi di prodotto che si potranno
fare è praticamente illimitata.
Facciamo seguire le
caratteristiche più importanti che tali prodotti devono avere per poi capire ed
interpretare meglio i vari metodi di produzione.
Densità
E' il criterio che
esprime la densità per unità di area ed è calcolata in base al numero di probes
o spots per centimetro quadrato. Si misura in base alla distanza o spazio
esistente fra due centri degli spots (center-to center spacing ), utilizzando
la seguente formula:
D = 100x ( 1000/CTC )
2
Questo significa che
un microarray che abbia una distanza da centro a centro di 140 micron, ha una
densità di 100 x ( 1000/ 140 ) 2 che è uguale a 5102 spots per cm quadrato.
Così un microarray che ha 1000 targets o spots in un'area di
La densità è una
caratteristica molto importante, perché, a parità di altri fattori, determina
la quantità di dati che si riescono a conoscere per unità di area. Comunque ci
sono microarray a bassa densità, che ovviamente sono più facili da produrre,
costano meno e si leggono anche con scanner molto semplici. I microarray con
densità più elevate, comprese fra 1000 e 10.000 possono essere prodotti e letti
solo con macchine più sofisticate e, naturalmente, costose.
C'è poi un'altra
considerazione da fare. Su molti vetrini o chips gli stessi spots sono ripetuti
più volte, per poi fare la media dei risultati. Ora un 25k microarray con 1250
spots ripetuti in duplicato ha un valore maggiore di un 25k che ha 25 spots
ripetuti 1000 volte.
Dimensione
E' il criterio che
esprime la grandezza fisica del singolo elemento o spot il cui diametro sia
espresso in micron. E' un criterio molto importante perché determina la
densità.
La maggior parte delle
apparecchiature, sia che lavorino a contatto o che lavorino non a contatto
rilasciano elementi o spots il cui diametro medio è compreso fra 75 e 300
micron. Quelle invece, la cui tecnologia si basa sui semiconduttori, rilasciano
elementi o spots di 10-40 micron. La distanza da centro a centro, per i
microarray prodotti a stampo, è calcolata moltiplicando la dimensione media per
un fattore 1.2-1.4. Per esempio la distanza di elementi da 110 micron è di
132-154 micron. Per i microarray preparati con fotolitografia o microspecchi
gli elementi sono praticamente contigui per cui la dimensione e la distanza
sono equivalenti.
Dato che più piccoli
sono i singoli elementi e maggiore è la densità e quindi maggiore è il numero
delle informazioni che ne possono derivare, la tecnologia è andata evolvendo
verso la produzione dI microarray a più elevata densità che ha costretto a
produrre lettori con poteri di risoluzione sempre più sofisticati.
Purezza.
Tale criterio si
riferisce alla omogeneità delle molecole presenti in ogni spot o elemento;
all'atto pratico non dovrebbe essere inferiore al 99%. La purezza è molto
importante perché determina la specificità della rea:l;ione biochimica che ne
deriva.
Deviazioni dal 100%
possono essere causate sia da impurità sia da errori umani sia da difetti di
distribuzione dovuti alle macchine. I contaminanti possono essere eliminati
curando sia i metodi di purificazione sia adottando le migliori procedure di
filtrazione dei materiali da usare per i target Insomma bisogna fare in modo da
evitare che, al momento dell'utilizzo, le molecole del probe interagiscano con
superfici imperfette, dando luogo a segnali aberranti.
Reattività
Un microarray ideale
dovrebbe avere il 100% delle molecole dei probes in grado di reagire con le
molecole dei targets praticamente, non è cosi. Per la maggior parte dei
microarray è molto probabile che sia decisamente più bassa la percentuale delle
molecole che reagiscano. Infatti la reattività può essere compromessa sia nel
corso della produzione sia nelle fasi di successive manipolazioni.
Perdita di reattività
dei microarray per le proteine o gli RNA può essere causata specialmente nel
corso della fase di essiccamento. Le molecole di DNA risultano essere più
resistenti.
Regolarità
Riguarda la regolarità
delle linee e delle colonne degli elementi o spots. Si misura determinando la
distanza di centro da centro ed è accettato un coefficiente di errore non
superiore al 10%. Questo significa che, se per esempio la distanza di centro da
centro è fissata a 140 micron, all'atto pratico ci potranno essere spots ad una
distanza compresa fra 126 e 154 micron da quelli adiacenti. Queste
oscillazioni, praticamente, si riverificano solo con le macchine che
distribuiscono a stampo perché, quando si usano quelle che si basano sulla
tecnologia dei semiconduttori, le linee e le colonne risultano essere molto
regolari.
Deviazioni dalla
regolarità sono in genere dovute ad irregolarità del substrato, derivanti da
aree idrofobiche che determinano forze locali che causano migrazioni delle
goccioline degli spots. Fenomeni analoghi, comunque, possono essere causati
anche da vibrazioni delle macchine che distribuiscono gli spots o anche
correnti d'aria nell' ambiente in cui operano.
Microarray irregolari
rendono difficile la lettura da parte degli scanner e sono causa di grossolani
errori.
Facilità d'uso
E' molto importante
realizzare prodotti che siano facilmente utilizzabili sin dal primo momento
anche da personale di laboratorio che non abbia ancora un'esperienza specifica.
Si tratta di un aspetto pratico non trascurabile perché può avere un impatto
commerciale tale da determinare il successo o meno del prodotto.
Rendimento
E', naturalmente un
aspetto molto importante delle macchine addette alla produzione ed esprime la
velocità, in un determinato tempo, con la quale queste riescono ad espletare
tutti i passaggi che sono necessari per condurre a termine le varie fasi di
produzione dei microarray sia anonimi che dedicati.
Descrivere le macchine
che si utilizzano per produrre i microarray esce un po' fuori dai limiti e
dagli intendimenti di questa sintetica monografIa. Tuttavia riteniamo che possa
essere utile averne un'idea. Se ne distinguono tre tipi: Macchine da contatto;
macchine che non richiedono contatto e macchine fotolitografiche.
Macchine da contatto
E' questo il tipo di
tecnologia più tradizionale ed è quello ancora più largamente utilizzato
specialmente da parte dei ricercatori. Si tratta di un gruppo abbastanza
articolato perché sono presenti sul mercato vari modelli che si differenziano principalmente
per il tipo di gocciolatore o meglio di spillo o pin.
C'è il modello cosi
detto " pin and ring " ossia spillo e anello, caratterizzato appunto
da un pin che fuori esce da un microanello che lo circonda e dall'interspazio
per capillarità scende lo spot che si deposita per contatto sul vetrino.
Un altro modello di
pin, " il micro spotting "che è forse il più noto, è quello che
contiene un sottilissimo canale verticale centrale che rende possibile la deposizione,
per semplice tensione superficiale, di microgocce omogenee, il cui volume, in
base al diametro del canale può essere regolato fra 0,25 e 0,60 microlitri e
che hanno un coefficiente di variazione sempre inferiore al 10%.
Un altro modello
ancora è lo " split pin" o spillo spaccato, che ha le caratteristiche
di una pinzetta fra le cui branche il liquido si ferma per la formazione di un
menisco e poi viene espulso sul vetrino.
Altre macchine ancora
utilizzano dei semplici tubi capillari che rilasciano lo spot per semplice
contatto. Questo sistema permette di fare un ottimo lavoro ma la pulizia e la
manutenzione fra i cicli di lavoro risultano difficili da attuare.
Macchine che non richiedono
contatto
Hanno qualcosa di
simile alle stampanti a colori a getto d'inchiostro in quanto utilizzano un
sistema piezoelettrico che si basa sulla proprietà che hanno dei cristalli di
ceramica, inseriti in tubicini flessibili, di deformarsi per il passaggio della
corrente, permettendo cosi la deposizione di goccioline calibrate.
Questa tecnologia è
utilizzata anche quando si voglia realizzare direttamente sul vetrino la
sintesi di oligonucleotidi. Si usano in questo caso macchine dotate di quattro
dispensatori che lavorano in parallelo dispensando ognuno una delle quattro
basi in base alla sequenza desiderata. Altre macchine dispensatrici di questo
tipo usano lo stesso principio delle stampanti della giapponese Canon che,
semplicemente innalzando la temperatura del liquido, lo rendono meno viscoso
permettendone la discesa sul vetrino.
Fotolitografia
Utilizza un tipo di
microtecnologia simile a quella che viene utilizzata per la produzione dei chip
dei computer e permette di realizzare direttamente sul supporto solido la
sintesi fotochimica ordinata e precisa di qualsiasi tipo di oligonucleotide di
tipo corto, ossia non superiore a 30 nucleotidi. Particolari maschere
fotolitografiche al cromo rendono possibile per frazioni di secondo il
passaggio o meno di raggi ultravioletti che colpiscono le microaree dove si
realizzano le sintesi. Si usano vetrini trattati sia con silani, che rendono la
superficie attiva verso i gruppi amminici, che di un altro prodotto
fotorimovibile noto come MeNOPC ossia
Ovviamente questa
tecnologia può essere usata solo per monitorare l'espressione genica, l'analisi
dei polimorfismi, l'analisi delle mutazioni geniche ed il sequenziamento del
DNA.
La distribuzione degli
spots è indubbiamente una delle fasi più delicate della produzione dei
microarray per cui il controllo di qualità è una fase molto importante del
processo. Le varie compagnie commerciali hanno risolto i problemi in vario
modo, sfruttando l’esperienza accumulata negli ultimi anni. Ma, malgrado l’uso
di robot, sempre più sofisticati, si ha un coefficiente di variabilità degli
spots che oscilla fra lo 0 ed il 22% ed
un C.V. medio del 6,8%.
Quando si esgue la
produzione dei microarray, e più esattamente, quando si utilizzano le macchine
che fanno lo “ spots printing ”, ovvero si depositano sui vetrini le goccioline
o spots dei probes, possono sorgere diversi problemi. Occasionalmente la
morfologia degli spots può risultare decisamente alterata nel senso che si
verificano delle sbavature perché il gocciolatore o pin è difettoso e lo si può
constatare osservandolo al microscopio. Altri ricercatori hanno avuto problemi
analoghi di alterata morfologia degli spots per disturbi di tensione che si
possono verificare sulle superfici dei vetrini specialmente quando si adoperano
tamponi a base di fosfati. Se si fa uso di tamponi a base di SSC, tali inconvenienti non si
verificano.
Altro aspetto della
tecnologia che bisogna curare per avere degli spots omogenei, è un adeguato
volume di campione presente nei pozzetti in cui il pin va a pescare prima di
depositare sui vetrini le goccioline o spots.
Un altro inconveniente
che, talvolta si può verificare è che il
DNA non si fissi bene sul vetrino per cui durante la fase di ibridazione, venga
lavato via. Dopo aver esguito la distribuzione degli spots, un controllo molto
semplice lo si può fare alitando sul vetrino in modo da formare sulla superfice
un sottile strato di vapore. Gli spots dove il DNA si è legato appaiono più
chiari. Altri preferiscono controllare il vetrino sotto il microscopio.
Ma un metodo
tecnicamente più corretto per valutare il lavoro fatto, che è da molti
adottato, è quello di colorare qualche vetrino con un colore fluorescente. Il
più usato per tale genere di controllo è il SybrGold della Molecular Probes.
Dop il lavaggio si fa il controllo con uno scanner al laser che permette di
valutare sia la morfologia che la quantità di DNA degli spots. Il vantaggio di
usare il SybrGold è dato dal fatto che, essendo un colorante non molto
invasivo, i vetrini si possono riusare. Quando si deve valutare l’attività dei
geni, si possono, a tal fine, inserire più geni per ogni singolo spot e poi,
decodificando l’espressione con metodi matematici, capire se il processo di
distribuzione è stato realizzato con una variabilità accettabile ( Khan et al.
2003).
Il principio base
dell’automazione sui microarray è lo stesso del Southern e del Nothern
bllotting con la differenza che i probes sono immobilizzati sul vetrino mentre
lo RNA cellulare è in fase liquida per cui alcuni hanno denominato i microarray
“ reversed phase Southern or Northern blotting assays”.
Molti ricercatori
eseguono ancora manualmente l’ibridazione ma è una manualità che richiede un
buon livello tecnico e molta pazienza. Inoltre, dato che i volumi dei target
sono molto piccoli così facendo, spesso succede che non si realizzi l’incontro
con il probe o che, data la lentezza delle procedure si comincino ad asciugare
i bordi, il che ha poi come conseguenza che si determini un aumento del rumore
di fondo che poi disturba la lettura finale.
D’altro canto il
numero dei potenziali utilizzatori dei vetrini da spottare è in rapido aumento,
come sta crescendo, molto rapidamente, il numero delle possibili applicazioni.
Diverse aziende stanno
quindi tentando di mettere a punto delle apparecchiature automatiche per
l’ibridazione con la speranza di ottenere risultati migliori di quelli
ottenibili manualmente. Le difficoltà da superare non sono poche e questo
spiega perché non ci sembra che il problema sia stato convenientemente risolto.
In base a quanto viene riportato dalla letteratura, uno dei tentativi meglio
riusciti è la stazione d’ibridazione messa in commercio dalla Vantana
Medical Systems di Tucson ( Arizona).
Schena, giustamente,
sentenzia: Gli strumenti per la lettura dei microarray stanno rivoluzionando la
biologia.
Infatti queste
meravigliose macchine possono leggere, in pochi minuti, in automazione, una
quantità tale di dati che le tecnologie usate prima avrebbero richiesto mesi o
anni per fare lo stesso lavoro.
Quindi in questo
capitolo passeremo in preliminare rassegna i sistemi, le tecnologie, i tipi di
segnali, i criteri d'interpretazione e tutto quanto riguarda la lettura dei
microarray.
Infatti è questa una
fase altamente critica perché nel singolo microarray, attraverso l'immagine,
che è praticamente una fotografia. bisogna discernere un gran numero di
risultati. Vediamo quindi quali sono i criteri che ci permettono di valutare
tutti gli aspetti che concorrono alla lettura e alla interpretazione dei dati.
Sistemi di lettura
Sono praticamente due
i tipi di macchine più largamente utilizzate per la lettura dei microarray: gli
scanners e gli imagers.
Gli scanners,
attualmente più largamente usati, sono macchine che catturano l'intera immagine
muovendo l'ottica o il vetrino con piccoli scatti regolari di 10 micron in
orizzontale o in verticale. La maggior parte di queste macchine usa come fonte
luminosa di eccitazione quella di un laser con appropriati filtri, ed un
fotomoltiplicatore per catturare l'immagine.
Gli imagers leggono
progressivamente, e con movimenti regolari, aree dei vetrini di 1 cm2
e poi combinano tutta l' immagine per esprimere l'insieme dei dati leggibili. Utilizzano
luce bianca per l'eccitazione ed un CCD (charge-coupled device) per catturare
l'immagine.
Velocità
E' la velocità alla
quale il robot di lettura riesce a leggere l'area del vetrino ad un dato
livello di risoluzione e si esprime in cm2 / minuto. I primi
prototipi di scanner erano in grado di leggere un area di 50 mm2
/minuto ad una risoluzione di l0 micron. Gli scanner attuali riescono a leggere
ad una velocità di 300, ed alcuni anche 500 mm2 / minuto, sempre ad
una risoluzione di 10 micron.
Comunque, alla
velocità di 300 mm2 / minuto, un intero vetrino di 20x
Precisione
Un ideale mezzo di
lettura dovrebbe essere in grado di leggere una stessa immagine di un
microarray più volte con l'identico risultato. In genere, invece ci sono delle
variazioni derivanti sia da imprecisioni meccaniche sia da fluttuazioni della
forza di eccitazione della sorgente luminosa o del detector.
Il criterio della
precisione esprime, appunto, l'ampiezza della deviazione della capacità di
lettura che non dovrebbe superare il ± 10%
Ripetibilità
Esprime la capacità
dello scanner a ripetere più volte la lettura di una stessa immagine senza
deviare minimamente né in senso orizzontale né in senso verticale. E’ tollerata
una possibilità di errore non superiore al 2%. Comunque bisogna tener presente
che se la qualità del microarray lascia a desiderare, anche questo aspetto può
compromettere la ripetibilità della lettura da parte degli scanner.
I sistemi di lettura
con imagers, che utilizzano un posizionamento fisso del vetrino ed un'ottica
fissa. sono, sotto questo profilo, più affidabili.
Risoluzione
Il potere di
risoluzione si esprime in pixel, che è la misura bidimensionale di un’
immagine, conservata in formato digitale, riportata sullo schermo di un
computer. Si tratta quindi di un'area quadrata misurata in micron. Maggiore è
il numero dei pixel e maggiore è il potere di risoluzione ossia la capacità ad
ingrandire un'immagine senza alterarla ovvero farla apparire granulosa.
I primi sistemi di
lettura arrivavano al massimo ad un livello di risoluzione di 10-20 micron,
quelli attuali arrivano a dare immagini nette anche a livello di 3 micron.
Un potere di
risoluzione che arrivi a 10 micron corrisponde a 10.000 pixels ( 100x100 ) per
mm2.
Ampiezza di segnale
L'ampiezza della
capacità di segnale di un certo sistema di lettura è rappresentato dal
quoziente fra il valore ottenibile più alto ed il più basso, che, in questo
caso, in genere è di circa 1000 volte. Infatti a 16 bit l'ampiezza di segnale,
in numeri assoluti va da
Ma dato che, in alcuni
esperimenti l'ampiezza di espressione genica può arrivare anche a differenze di
100.000 volte, si cerca di potenziare l’ ampiezza di lettura dello strumento
modificando il potere del laser o l'intensità della luce in modo da fare più
letture a livelli diversi di sensibilità.
Sensibilità
Esprime la capacità di
un sistema di lettura di convertire i fotoni fluorescenti del microarray in
segnale elettronico. Può essere portata al massimo agendo sul
fotomoltiplicatore.
Capacità di discernimento
Dato che molti geni
umani hanno bassissimi livelli di espressione, è molto importante poter operare
con sistemi di lettura in grado di apprezzare anche segnali tanto deboli che
non sia facile apprezzante la differenza rispetto al rumore di fondo.
Dato che il più comune
sistema, che si adopera, si basa sulla fluorescenza, che si esprime in numero
di molecole fluorescenti ( fluors ) che si riesce ad apprezzare, anche la
capacità di discernimento viene espressa in fluor per micron quadrato.
I primi sistemi di
lettura avevano una capacità di discernimento di 1 fluor per micron quadrato ma
i più moderni arrivano a 0.01 fluor per micron quadrato.
Dato che il rumore di
fondo dipende in gran parte dal substrato, negli ultimi anni si è fatto molto
lavoro per ridurre al massimo la fluorescenza di fondo che è aspecifica. Così
si è riusciti ad apprezzare segnali specifici anche a concentrazioni 10 volte
più basse.
Uniformità
La valutazione
preliminare della uniformità di segnale in tutte le aree del vetrino ricoperto
dal substrato è un criterio molto importante perché ci garantisce poi la
specificità e la correttezza delle letture quando la partita verrà utilizzata
per le analisi. Dato che non esistono substrati perfetti. è accettata una non
uniformità che non ecceda il 10% per aree di 5x5 mm.
Per eseguire la
misurazione dell'uniformità si esegue la prova dei 180 gradi: Si passa sotto lo
scanner un'area di 10x22 mm e, se si nota l'esistenza di un gradiente, si
rimuove il vetrino con il substrato da sotto allo scanner, lo si ruota di 180
gradi e si legge di nuovo la stessa area. Se il gradiente delle due letture ha
la stessa forma, la non uniformità è dovuta allo scanner. Se invece il
gradiente, nelle due misurazioni, prende forme opposte, la non uniformità è
attribuibile al substrato.
Quando la non
uniformità di lettura è dovuta allo scanner, questo può dipendere sia da
variazione di eccitazione della sorgente luminosa che da problemi concernenti
la distanza focale della lente.
Sono due difetti che,
se sono presenti nel sistema, vanno corretti preventivamente.
Numero di canali
I primi scanner
artigianali usati per la lettura dei microarray avevano un solo canale e quindi
potevano leggere ad un'unica lunghezza d'onda. Poi sono stati costruiti
strumenti che potevano leggere contemporaneamente due microarray, in cui uno
funzionava da controllo. La maggior parte degli strumenti attuali hanno tre
canali, di cui due sono utilizzati per leggere in parallelo due campioni
diversi, mentre il terzo canale serve per leggere in simultanea il controllo.
Ci sono poi strumenti
dedicati a particolari applicazioni anche a cinque canali per la lettura, per
esempio del DNA . Di questi, quattro servono per leggere, ciascuno una delle
quattro basi, mentre il quinto canale serve per il controllo.
Ci sono poi strumenti
che hanno più canali per leggere a lunghezze d'onda diverse, nell'ambito dello
spettro visibile, compreso fra 400 e 700 nm, con frequenze di emissione che
devono essere di almeno 50 nm fra un livello di segnale e l'altro.
Sovrapposizioni
In alcuni strumenti,
per questo aspetto difettosi, ed in particolari condizioni sperimentali, può
succedere che il segnale fluorescente di un canale si mescoli con quello di un
altro canale, fenomeno indesiderato che gli anglo-americani chiamano "
Cross- Talk ".
E' un fenomeno che,
naturalmente, porta a letture errate, perché succede che le letture di due
canali si sommino, creando non pochi problemi di interpretazione. Per gli
scanner tale fenomeno lo si riesce a minimizzare scegliendo bene il tipo di
laser o intervenendo sui filtri di emissione. Per gli imagers, che utilizzano
la luce bianca, la correzione risulta più problematica.
Degrado del campione
I campioni
fluorescenti, nelle fasi di lettura, possono andare incontro a fenomeni di
degrado in cui le molecole fluorescenti sono danneggiate da un'eccessiva
esposizione alla luce, per cui letture. eseguite in tempi diversi, possono dare
risultati non sovrapponibili.
Questo inconveniente,
che era abbastanza frequente con i primi prototipi di scanner, in cui si
arrivava a sbalzi anche del 200-300%, con gli strumenti moderni, raramente si
arriva al 10%. Comunque. per minimizzare gli inconvenienti delle false letture,
è buona regola leggere sempre con un livello di illuminazione il più basso
possibile.
Ampiezza dell'area
Dato che ogni
produttore stampa i vetrini o i supporti di misure diverse e con una diversa
configurazione, è bene preferire sistemi di lettura che coprano simultaneamente
un'area quanto più ampia. Raccomandabili sono gli scanners che leggono, in un
unico insieme, un'area di 25x76 mm, che equivale all'intera superficie del
vetrino portaoggetti standard.
Dimensioni
Le dimensioni
complessive dei primi strumenti di lettura erano di circa 180x 90x30 cm e
pesavano anche più di
Ovviamente si tende
quindi a renderli sempre più maneggevoli
In tutti gli
esperimenti in cui si utilizzano microarray con acidi nucleici o proeine, in
cui si è costretti a fissare materiali biologici su supporti solidi e
cosguentemente ibridare o legare comunque altre molecole,bisogna essere in
grado di gestire correttamente una grande quantità di fasi tecniche che si
devono affrontare sia prima che dopo l’eperimento vero e proprio, Di
particolare importanza è la gestione e interpretazione del segnale che che può essere influenzato da moltissimi
fattori. Intanto dobbiamo chiarire cosa intendiamo per segnale e cosa. invece è
il rumore.
Il segnale è
l'espressione numerica di lettura che corrisponde al vero dato sperimentale.
Il rumore, invece, è
dato dalla somma delle interferenze aspecifiche, che disturbano la lettura del
segnale, e che, come in seguito riportiamo, possono avere origini diverse. Il
quoziente segnale/ rumore è molto importante. Infatti, in tutti gli esperimenti
bisogna fare in modo, per ovvie ragioni, che sia quanto più alto.
Componenti del segnale
Sono tre le componenti
determinanti del segnale che si evidenziano a conclusione di un' analisi: La
componente intrinseca, la estrinseca e la quantità.
La componente
intrinseca deriva direttamente dalle proprietà del tracciante fluorescente
scelto da legare al target, dalla concentrazione e dal suo coefficiente di
estinzione. L'accurata selezione del tracciante fluorescente ha quindi una
grandissima importanza.
La componente
estrinseca deriva da una serie di fattori legati allo strumento di lettura come
il tipo di sorgente luminosa, la lunghezza d'onda, il tempo di esposizione ecc.
Ma deriva anche da fattori ambientati come la polarità del solvente, il pH del
tampone ecc. Si può avere anche un decadimento del segnale quando gli spots non
sono perfettamente allineati per cui si può verificare un trasferimento di
energia da uno all'altro (self- quenching).
Ovviamente il terzo
determinante del segnale deriva dalla quantità ovvero dal numero delle molecole
sia del target che del tracciante ma fra questi due componenti non c'è mai un
rapporto 1:1. E' sempre compito del ricercatore trovare sperimentalmente il
rapporto preciso che esalti al massimo il segnale.
Per quanto riguarda le
proteine non si deve dimenticare che talvolta, trattandosi di molecole
instabili si può arrivare a risultati in tutto o in parte inutilizzabili.
Componenti del rumore
Sono numerose anche le
componenti del rumore che riguardano sia lo strumento di lettura che il vetrino
o fase solida.
Rumore derivante dallo
strumento
Lo strumento può
creare problemi se si verificano cali di tensione ( dark current ) che sono
causati prevalentemente da sorgenti di calore. Questa è la ragione per la quale
la camera di lettura del CCD di molti imagers è tenuta a-50° C. Altra fonte di
rumore può essere dovuta ad un disturbo elettronico del circuito, dell'
amplificatore o del convertitore analogico-digitale.
Rumore può anche
essere causato da inconvenienti del sistema ottico innescati da anomali
riflessi di luce del substrato o da raggi cosmici.
Rumore derivante dal microarray
La maggior parte dei
microarray hanno come fase solida il vetro e, quindi, questo stesso materiale,
se non ben scelto, può essere fonte di rumore. Lo stesso fenomeno può derivare
da non appropriati componenti del substrato stratificato sul vetro. Qualora la
fase solida sia in plastica o abbia dei componenti metallici, il pericolo che
si evidenzino interferenze da rumore è più probabile. Comunque trattamenti
delle superfici con gel o nitrocellulosa sono causa di un rumore molto più
accentuato di quello che si ha per trattamenti con organoamine o organoaldeidi
di alta qualità.
Così anche alcune molecole
del diluente del campione o lo stesso campione possono reagire in modo
aspecifico con il substrato provocando interazioni che oscurano parzialmente il
segnale. Questo tipo di rumore è ben noto come " rumore di fondo ".
Molto lavoro è stato fatto negli ultimi anni per ridurre al minimo queste
interferenze e, quindi, oggi i sistemi di lettura sono stati cosi perfezionati,
che è possibile leggere agevolmente anche segnali di poche dozzine di molecole
dei singoli spot.
Abbiamo anche già
richiamato l’attenzione sul fatto che i microarray possono essere contaminati
da particelle di polvere flottanti nell’aria per cui in fase di lettura si
notano dei falsi spots molto chiari che rendono difficile la finale
interpretazione dei risultati. E’ quidi di fondamentale importanza operare, sia
in fase di produzione che di
utilizzazione in ambieti in cui la concentrazione delle particelle sia molto
bassa e gli operatori indossino camici completi
La fluorescenza è il
tipo di segnale luminoso più comunemente usato nella lettura dei microarray.
Vale quindi la pena di
approfondire come si collochi lo spettro della luce visibile nell'ambito delle
radiazioni elettromagnetiche.
Le radiazioni
elettromagnetiche vanno da un minimo di lunghezza d'onda di 10-3 nm,
dei raggi gamma ad un massimo di 10 12 nm delle onde radio, come
riportato nello schema che segue: luce visibile.
raggi gamma |
raggi x |
ultravioletto |
infrarosso |
microonde |
televisione |
radio |
|||||||||||||||
10-3 |
10-2 |
10-1 |
10 |
10 1 |
10 2 |
10 3 |
10 4 |
10 5 |
10 6 |
10 7 |
10 8 |
10 9 |
10 10 |
10 11 |
10 12 |
||||||
lunghezze d'onda in
nanometri
In questo ampissimo
ambito, di ben 15 ordini di grandezza, in cui si inquadrano progressivamente,
in base alla lunghezza d'onda, a partire dai raggi gamma a cui seguono i raggi
x, i raggi ultravioletti, la luce visibile, i raggi infrarossi, le microonde,
le onde per la televisione fino alle onde radio che arrivano ad ampiezza di
metri, la luce visibile occupa uno spettro intermedio con lunghezze d'onda
comprese fra i 400 e i 700 nm.
Ora bisogna dire che
le radiazioni elettromagnetiche sono espresse in due modi diversi, ossia come
onde o come particelle, per cui è possibile pensare alla luce come un insieme
di particelle individuali detti fotoni.
C'è la seguente
formula che fa capire le interrelazioni esistenti fra frequenza di oscillazione
delle particelle, le lunghezze d'onda e l'energia:
C
V = __________________
Lamda
Questa ci dice che V,
ovvero la frequenza, che si esprime in Hz, è uguale a C, che rappresenta la
velocità della luce in nm (3.0x 10 17 nm/sec. ) diviso lamda, che è
la lunghezza d'onda.
Ne deriva, quindi, che
C, ovvero il numero delle oscillazioni per secondo di un raggio di luce,
aumenta man mano che la lunghezza d'onda diminuisce e viceversa.
Ora, la energia di una
certa fonte di fotoni (E) è uguale alla costante di Plank (h= 6,6 x 10-34)
moltiplicato la frequenza (V).
E=hxV
Pertanto i fotoni ad
alta frequenza hanno di conseguenza alta energia ed i fotoni a bassa frequenza
sono quelli a più elevata lunghezza d'onda.
Certe molecole, dette
fluorofori, per la loro speciale configurazione di elettroni, sono capaci di
adsorbire, ovvero catturare fotoni di luce, passando da uno stato di riposo ad
uno di eccitamento, che dura frazioni di secondo. In questa transizione si
verifica il fenomeno della fluorescenza dovuta al fatto che il fluoroforo
eccitato libera un fotone di lunghezza d'onda leggermente più lunga rispetto a
quella della luce di eccitazione e che quindi ha meno energia.
Tale differenza di
lunghezza d'onda, nota come differenza di Shift, si misura in nanometri ed è
una costante per ogni tipo di molecola fluorescente.
Il quantum di
adsorbimento è dato dal rapporto fra i fotoni emessi ed i fotoni adsorbiti.
La fluorescenza è
quindi direttamente proporzionale sia alla concentrazione del colore ma anche
al quantum di adsorbimento ed al coefficiente molare di estinzione che dipende
anche dall'ambiente.
La fluorescenza è il
tipo di segnale standard scelto per le analisi con i microarray perché presenta
numerosi vantaggi quali la facilità d'uso, può essere di diversi colori, è
compatibile con gli enzimi, la si manovra facilmente, da risposta rapida ecc.
Con gli strumenti moderni si arriva a leggere anche segnali emessi da poche
centinaia di molecole e si riescono a distinguere anche nel caso di segnali
deboli adiacenti a segnali molto più intensi. Questa caratteristica permette di
arrivare ad altissime densità di probes o spots. Poi, specialmente per alcuni
tipi di analisi del RNA si fa anche uso in parallelo di colori fluorescenti
diversi che hanno ovviamente spettri di emissione differenti.
Comunque bisogna tener
presente che è bene sempre operare con moderati livelli di luce di eccitazione
perché solo così si riesce a ripetere anche più volte la lettura della medesima
area senza inconvenienti.
Se invece si usa una
sorgente di luce molto intensa, si può danneggiare il processo per cui si ha,
per fotoinstabilità, un decadimento del fenomeno della fluorescenza (
photobleaching ).
I colori fluorescenti
formano una interessante famiglia di composti che sono usati come traccianti
per le analisi eseguibili con i microarray. Infatti ci sono centinaia di tali
reagenti con struttura chimica simile caratterizzata dalla presenza di 4-6
anelli bezenici con doppi legami che sono capaci di adsorbire ed emettere la
luce nello spettro del visibile e a diverse lunghezze d'onda.
Il tracciante più
largamente usato per questo scopo è l'isotiocianato di fluoresceina che adsorbe
ed emette luce rispettivamente a 494 e 518 nm che, quindi, all'occhio umano,
appare come luce giallo- verde, che è un tipo di luce facilmente leggibile da
parte di scanners al laser. E' stata poi creata una vasta famiglia di
traccianti simili che includono la serie Alexia, JOE, Lissamina e Rodamina che
hanno ognuno un diverso spettro di adsorbimento e di emissione per cui possono
essere adoperati in parallelo nello stesso esperimento. Questi derivati
rispetto all'isotiocianato di fluoresceina sono più solubili e più fotostabili.
Il continuo perfezionamento dei processi di sintesi lascia ben sperare che, in
futuro, si possano realizzare composti con caratteristiche ancora migliori.
Un altro gruppo
importante di traccianti sono i derivati della cianina, specialmente il C3 ed
il C5, con spettri di emissione compresi tra 570 e 670 nm, largamente
utilizzati per i nucleotidi e gli oligonucleotidi. Anche questi risultano
essere molto fotostabili.
Un terzo gruppo di
traccianti molto importante è quello dei BODIPY, che hanno la caratteristica di
coprire, con lo spettro di emissione tutta l'area del visibile.
Gli scanners sono gli
strumenti più comunemente usati per la lettura. Sono simili a dei microscopi in
grado di scandagliare, ossia di leggere muovendosi rapidamente avanti e
indietro in lungo ed in largo.
Sono strumenti
abbastanza sofisticati i cui componenti sono quasi sempre i seguenti: il laser
come sorgente luminosa, il filtro di emissione, il tubo fotomoltiplicatore, il
convertitore analogico digitale ed il personal computer.
La luce del laser
passa attraverso il filtro di eccitazione che permette il passaggio soltanto di
un raggio che è della lunghezza d'onda che permette il massimo di eccitazione
adatto a leggere nelle migliori condizioni il microarray presente.
L'eccitazione delle molecole del fluoroforo emettono una luce fluorescente che
è riflessa all'indietro verso l'obiettivo, che fa si che i vari fasci diventino
paralleli, ossia attua quel processo detto collimazione. Un altro specchio
riflette il fascio di luce fluorescente verso un altro filtro che fa passare
solo la lunghezza d'onda desiderata, respingendo le altre lunghezze d'onda del
rumore di fondo ed anche la stessa lunghezza d'onda della luce di eccitazione.
Il fascio di luce collimata e filtrata viene messa a fuoco e fatta passare
attraverso un piccolissimo foro per arrivare quindi ad un fotomoltiplicatore
che dirige poi il segnale verso il convertitore che lo trasforma da analogico a
digitale.
Gli scanners, per
quanto riguarda il movimento, sono di due tipi; infatti alcuni hanno l'ottica
mobile in modo da poter scorrere avanti e indietro o, lateralmente, in un senso
o nel senso opposto, in modo da poter leggere tutta la superficie del vetrino.
Altri, invece, e sono i più, hanno l'ottica fissa, ma sono fatti in modo che si
muova in tutte le direzioni desiderate il portavetrino.
Si chiamano poi
scanners sequenziali quelli che catturano in modo sequenziale le immagini di un
canale per volta. Si chiamano simultanei gli scanners multicanali che leggono
tutta insieme l'area da leggere ma, ovviamente, riportano separatamente i
segnali dei singoli canali, minimizzando i possibili rischi di interferenze
(cross- talk ). Questo aspetto è moto importante specialmente nella valutazione
dell'espressione dei singoli geni perché si possono avere diversità di
espressione di notevole ordine di grandezza di singoli geni adiacenti.
Per quanto riguarda il
laser dobbiamo intanto chiarire che questo è un acronimo per " light
amplification by stimulated emission of radiation " e si basa su una tecnologia
descritta per la prima volta da Albert Einstein nel 1917, per cui gli fu
conferito il premio Nobel, che è nota come " effetto fotoelettrico ".
Tale fenomeno si basa
sul fatto che gli elettroni dell'anello più esterno di un atomo sono in genere
in condizione di riposo ma, se stimolati dalla luce, possono passare ad uno
stato di eccitazione e quindi ad un più alto livello di energia. Una volta
eccitato l'elettrone può ritornare allo stato di riposo, emettendo un fotone,
processo conosciuto come fluorescenza.
Se invece un
elettrone, che è nella fase di eccitazione, viene esposto ad una fonte luminosa
emette due fotoni della stessa energia e direzione e si ha quella che si chiama
la " emissione stimolata ", che è il fenomeno fisico su cui si basano
i lasers.
La tecnologia dei
lasers è vastissima e ci sono lasers di varia potenza ma tutti si distinguono
per la caratteristica comune di essere sorgenti luminose di luce monocromatica,
coerente e collimata. Non c'è nulla di particolare da dire per quanto riguarda
le lenti, mentre vale la pena di soffermarsi sul fotomoltiplicatore e sul
convertitore analogico-digitale.
Il fotomoltiplicatore
è un particolare tipo di detector, che è uno strumento capace di convertire i
fotoni in corrente elettrica, ma ha qualcosa in più di un semplice detector,
perché i fotoni emessi dal microarray colpiscono la superficie di un fotocatodo
che li trasforma in elettroni che vengono incanalati in un tubo attraverso una
serie di diodi in cui ogni elemento, e sono almeno 10, moltiplica il numero
degli elettroni che lo colpiscono, per cui l'effetto della corrente viene
progressivamente esaltato con un effetto di amplificazione anche di milioni di
volte.
Il convertitore
analogico-digitale appunto converte poi il flusso degli elettroni, che è
fisicamente analogo alla sua intensità, nel segnale digitale, ossia in base al
codice binario 1 o 0, che è quello che il computer sa leggere ed interpretare.
Il flusso della corrente, che arriva dal fotomoltiplicatore, in base
all'intensità del segnale fluorescente, può variare da 0 volt, che corrisponde
a zero fluorescenza, fino ad un massimo di 100 volt in base al voltaggio in
arrivo avviene la conversione in bit.
La maggior parte degli
scanners utilizza un formato a 16 bit, che significa che può esprimere valori
fino al limite che è di 2 alla 16, pari quindi ad un valore di 65.536. Dato che
la conversione avviene in base al quoziente fra il voltaggio e questo numero,
ossia 100/65.536, i convertitori a 16 bit sono preferibili perché sono molto
più selettivi di quelli, per esempio ad 8 bit, che hanno un fattore di
conversione più grossolano e, quindi, meno analitico.
Gli immagers
costituiscono il secondo tipo di lettori di microarray . Pur avendo la stessa
impostazione, sono molto diversi rispetto agli scanners perché sono
praticamente delle macchine fotografiche che utilizzano normale luce bianca e
fotografano larghe aree del microarray, per esempio
La luce bianca di
eccitazione passa attraverso un filtro e colpisce la superficie fluorescente
del microarray, causando l'eccitazione. Il raggio viene poi riflesso e diretto,
attraverso una lente, verso una speciale camera che cattura l'immagine su uno
speciale detector al silicio e poi la invia, attraverso un convertitore
analogico-digitale,. al computer.
La sorgente luminosa,
a luce bianca, e quindi policromatica, è costituita da una lampada allo xenon,
che, in un bulbo di quarzo, contiene due elettrodi immersi in questo
particolare gas alla pressione di 10-20 atmosfere, i cui atomi, quando vengono
eccitati dalla corrente, perdono facilmente elettroni dell' orbita più esterna
e poi, quando ritornano nello stato di riposo, rilasciano fotoni generando una
luce molto intensa di tutte le lunghezze d'onda.
Per avere un'idea
dell'intensità luminosa, bisogna sapere che molte sostanze, specialmente i
metalli, emettono una luce la cui lunghezza d'onda, e quindi il colore cambia,
in base all'intensità del riscaldamento. Questa correlazione fra temperatura e
colore si esprime in gradi Kelvin che si ottengono aggiungendo 273 al grado
della temperatura. Una superficie metallica surriscaldata può diventare rossa a
3500, arancione a 4500, gialla a 5000 e bianca a 6000. La temperatura della
superficie del sole è 5000-6000 e, quindi, appare giallo-bianco. La lampada
allo xenon degli imagers emette, con lo stesso meccanismo, una luce bianca, che
corrisponde a 6000 gradi Kelvin.
Bisogna quindi essere
consapevoli che una sorgente luminosa del genere, come d'altra parte quella dei
lasers, è pericolosa perché può danneggiare la retina, sia per la sua intensità
sia perché, a differenza della luce del laser, quella della lampada allo xenon
contiene anche raggi ultravioletti.
Altro componente
importante dell'imager è il detector situato nella camera digitale. I tipi più
comuni sono dei CCD, acronimo che sta per " charge-coupled device " ,
detti anche a scorrimento di carica, che sono dei fotosensori in grado di
convertire i fotoni in arrivo dagli spot fluorescenti in corrente elettrica che
può essere misurata. Il CCD contiene una serie di transistor al silicio che
creano correnti proporzionali all'intensità della luce che li colpisce e che,
attraverso un convertitore analogico-digitale, formano i pixel dell'immagine
che si evidenzia, di conseguenza, sullo schermo del computer. Infatti il pixel
è l'unità di misura minima che si può visualizzare o catturare e può essere
generato da un solo transistor quando si tratta di immagini in bianco e nero ma
da molti per il colore. Quanti più sono i pixel in un'immagine tanto migliore è
la risoluzione. Quindi quanto più piccoli sono i pixel, migliore è l'immagine.
La maggior parte delle camere degli immagers contengono pixel la cui grandezza
fisica è compresa fra 7 e 12 micron.
Comunque il CCD è un
detector che, a differenza del fotomoltiplicatore degli scanners, non amplifica
il segnale luminoso e quindi si è costretti, per avere lo stesso risultato, a
prolungare il tempo di esposizione. Ne consegue un " read time " più
lungo. Infatti il tempo di lettura è dato dalla somma dei tempi che sono
necessari perché l'immagine sia catturata, trasformata in carica elettrica,
digitalizzata, immessa nella memoria del computer per poi diventare evidente
sullo schermo.
Anche con questo
strumento di lettura si può verificare che, con questa luce così intensa,
cariche elettriche debordino da un pixel ad uno adiacente, processo conosciuto
come " blooming ", che, ovviamente, porta alla comparsa di immagini
confuse in quanto i margini degli spots non appaiono netti. Si è quindi
intervenuti aumentando le spaziature sul pixel detector.
Un altro
inconveniente, di cui bisogna tener conto è che, dato che un CCD contiene un
gran numero, anche un milione di pixel, c'è sempre qualcuno difettoso, che è
causa di immagini imperfette. In questi casi bisogna ingrandire l'immagine, che
compare sullo schermo, per individuare quei segnali che presentino intensità
erronee.
Comunque, malgrado i
surriferiti inconvenienti, i CCD sono ancora i più comuni detector degli
imagers. Recentemente, tuttavia, presso il reparto di Scienza dei Computer
dell'università Amburgo, ne hanno messo a punto un nuovo tipo, il CMOS,
acronimo di " complementary metal oxide semiconductor” che sembra essere
un po' meno sensibile, ma è di dimensioni più ridotte e costa molto meno.
I microarray
permettono di identificare in parallelo anche decine di migliaia di sequenze di
acidi nucleici o di proteine dislocate nelle diverse posizioni e di
determinarne la quantità presente sul campione. Oggi, ancora, per lo più si
utilizza per tali misurazioni la fluorescenza. Ciò è dovuto alla grande
sensibilità e all’ampio spettro dinamico di tali misurazioni che si basano su
fenomeni ottici, da cui ne deriva un potere di risoluzione spaziale tale che ci
permette di arrivare a spots anche più piccoli di 10 micron. Ma questo metodo
ha anche i suoi punti deboli (Kricka 1999): Si tratta di un metodo abbastanza
indaginoso, la cui esecuzione richiede tempi lunghi e la non semplice
separazione delle molecole libere da quelle legate, è talvolta fonte di
errori.Altri sostengono che, fra l’altro, che i metodi tradizionali che
utilizzano fluorofori, che sono quasi sempre idrofobi, sono inevitabilmente
disturbati da rumori di fondo che non è facile eliminare del tutto.
Poi, in alcuni casi.
sarebbe opportuno disporre di apparecchiature portatili in grado di dare anche
risposte immediate.
Pertanto oltre a
questi metodi tradizionali, si profilano nuove modalità di produzione e di
lettura che rientrano nelle nanotecnologie e che possono essere inquadrate
tutte fra le così dette" Label-free " ossia senza molecola-segnale,
che per lo più, è il segnale fluorescente.
Si stanno quindi
cercando delle alternative che semplifichino le procedure e che puntino ad
utilizzare per la lettura qualcuno dei numerosi sistemi oramai esistenti di
biosensori, che danno una risposta diretta ed immediata.
I biosensori sono
apparecchiature che stanno avendo una larghissima applicazione in campo
biomedico perché permettono di misurare con precisione ed immediatezza tutta
una vasta serie di variabili come i gas del sangue, la glicemia, l'azotemia, la
pressione arteriosa, la pressione intraoculare, il ritmo cardiaco, l'ecografia
ecc.
I sistemi operativi su
cui si basano sono i più diversi: meccanici, calorimetrici, termoelettrici,
acustici, ottici. Altri ancora sfruttano l'effetto piezoelettrico che è un
fenomeno consistente nella comparsa di una polarizzazione elettrica in alcuni
cristalli sottoposti a sollecitazioni meccaniche (effetto piezoelettrico
diretto) e nell'insorgere di deformazioni meccaniche negli stessi cristalli
sottoposti ad una differenza di potenziale ( effetto piezoelettrico inverso ).
Nei moderni apparecchi ci sono particolari lamine metalliche che, a seconda se
sottoposte ad una pressione o ad una trazione danno luogo ad una carica di un
segno o di segno opposto.
I sistemi alternativi
che si stanno sperimentando sono numerosi e tutti ovviamente coperti da
brevetto. Non è negli scopi e nei limiti di questa sintetica monografia entrare
nei particolari delle varie soluzioni proposte. Riteniamo utile, però, fare un
breve cenno dei principi tecnici su cui si basano alcuni fra i più
rappresentativi:
Metodo SPR della Biacore
SPR sta per
"surface plasmon resonance" ed è uno dei primi metodi label free
proposto dalla Biacore, azienda di Uppsala ( Svezia) per titolare le proteine.
Il sensore ottico, schematicamente, contiene una lamina di vetro ricoperta da
un sottile film d'oro ed il tutto avvolto in un gel di carbossimetil destrano,
spessa 25-100 nm, che costituisce un'ottima superficie per far reagire le
biomolecole senza interferenze. La molecola di legame può essere fissata
direttamente su questa superficie o su una molecola di cattura fissata
antecedentemente. Il campione, iniettato in particolari cartucce, viene fatto
scorrere nella interfaccia verso differenti spots di valutazione e, secondo se
si lega o meno devia o meno un raggio di luce infrarossa incidente. Tale
differenza di rifrazione è amplificata proporzionalmente in base alla distanza
fra l'area di reazione e quella di misurazione. L'unità di risonanza è l'unità
di misura e la risposta è ovviamente proporzionale alla concentrazione della
biomolecola sotto esame. La rigenerazione del sensore fra una lettura ed un'
altra è molto rapida ed efficiente. L'apparecchio è in grado di leggere anche
molecole molto piccole, fino a 100 Daltons ed ha una sensibilità tale da
apprezzare differenze di quantità minime di proteine, fino alle subfemtomole.
Questo metodo risulta
particolarmente utile per studiare le interreazioni a livello molecolare fra
DNA, RNA, e le proteine e le
interreazioni proteine-proteine. A tal fine rimandiamo alla interessante
sintesi di Wegner (2003) in cui sono descritte le più interessanti
applicazioni.
Metodo delle microparticelle
della Nanosphere
Vengono utilizzate
particelle di latice, o anche di altri materiali, ma rivestite d'oro su cui
vengono fissate molecole di cattura per eseguire o reazioni di ibridazione o
reazioni immunologiche. Queste particelle, una volta messe a contatto con
l'analita, tendono ad aggregarsi cambiando colore e, scorrendo fra due
elettrodi, emettono un segnale che è proporzionale alla quantità della
biomolecola legata. Vari tipi di sensori sono in grado di valutare il fenomeno.
Alcuni, come quelli prodotti dalla MicroSensor Systems Inc., sono in grado di
localizzare e misurare anche le proprietà di singoli atomi.
Metodo AFM (cantilever)
AFM sta per "
atomic force microscope " che utilizza il principio di uno strumento
descritto già nel 1986 da Binnig come microscopio a scansione in grado di
apprezzare su tre dimensioni oggetti nell' ordine di grandezza dei nanometri.
E’ un metodo che si basa su sensori nanomeccanici in grado di monitorare
variazioni molecolari e che hanno un potere di risoluzione subnanometrici.
Le molecole di cattura
vengono fissate sulle estremità libere di microscopiche lamine (cantilever),
per lo più di silicio lunghe 750 micron,
larghe 100 e dello spessore di 0,9 micron che fuoriescono a pettine da un
supporto.
Queste lamine sono in
grado di apprezzare, flettendosi, cambiamenti di massa minimi, fino a 10 alla
meno
Metodo RLS
RLS è l'acronimo di
resonance light scattering ed è una tecnologia che si basa sull'uso di
microparticelle di oro e argento, del diametro di 40 -120 nm, che, se esposte
alla luce bianca, entrano in vibrazione con emissioni colorate di lunghezza
d'onda che dipendono dalla composizione e dal diametro della particella.
Fissandoci sopra delle biomolecole è possibile utilizzarle per tests
diagnostici che richiedono però lettori particolari simili a dei fluorimetri.
Schena e Davis ( 1999)
hanno tracciato una serie di 12 regole che devono sempre essere tenute
presenti, quando si opera con i microarray per ottenere risultati corretti ed
apprezzabili. Le riportiamo in sintesi:
Conclusione: Le
analisi con i microarray impiegano una miriade di tecnologie e metodi diversi
ma sempre bisogna capire bene di che cosa si tratti ( What ), del perché ( Why
) e come (How) l'obiettivo possa essere raggiunto nel modo migliore.
E’ importante capire
bene prima quale sia l’obiettivo che si persegue. Nel caso si tratti di dover
fare lo screening di un genoma per localizzare alcuni geni, dato che occorre
una quantità piuttosto consistente di DNA, in genere si preferisce partire da
sangue intero. Se invece si debba esguire dei tests molto specifici e limitati,
il campionr può essere prelevato dalla bocca ( Richards 1994 ).
Nel caso si debba
prelevare un campione di sangue, il coagulante consigliato è l’EDTA. Non usare
mai l’eparina perché interferisce con la Taq polimerasi.
Per quanto riguarda il
volume del sangue da prelevare, tener presente che, dato che il DNA si etrae
solo dalla serie bianca, in quanto i globuli rossi non hanno nucleo, regolarsi
calcolando che, in genere si estraggono
25-40 microgrammi di DNA per ml di sangue intero.
Per la conservazione
di piccoli quantitativi di sangue essiccato, da cui si può estrarre sia DNA che
RNA, si
possono anche usare particolari cartoncini noti come “Guthrie cards “ (
Guthrie 1963 )
I campioni di mucosa buccale, invece, si
prelevano con speciali spazzolini. Se ne adoperano due per ogni caso e vanno
strofinati ognuno sulla faccia interna di ogni guancia per 30 secondi.
Recentemente tale metodo è stato
sostituito da un particolare liquido di lavaggio che raggiunge lo stesso scopo
e che negli USA è noto come “Original
Mint Scope Mounthwash “.
Qualora si abbia a che
fare con campioni da cui si debba
estrarre lo RNA, nelle procedure d’uso
abbiamo riportato le regole base che vanno osservate quando si avvia una
valutazione con i microarray.Ora bisogna avere chiaramente presente che se il
campione biologico è costituito da una sospesione cellulare derivata da cellule
in coltura, questa è sufficientemente omogenea. Quando il campione biologico è
invece una biopsia che è stata prelevata ad un paziente, occorre rispettare
qualche regola in più. Infatti, dato che, come abbiamo ripetutamente segnalato
lo RNA non è stabile, per cui nei tessuti non trattati correttamente si degrada rapidamente, per i
campioni prelevati al tavolo operatorio, è bene procedere come segue:
Le biopsie vanno
processate il più rapidamente possibile perché, dato che le cellule non sono
più raggiunte dal flusso sanguigno, con l’inizio dell’apoptosi, si attivano le
RNA asi e lo RNA decade.
La permanenza del
tessuto da esaminare a temperatura ambiente va quindi ridotta al minimo,
possibilmente non oltre 30 minuti.
Tener presente che i
frammenti di tessuti, anche se fissati in formalina, ai fini di questa
tecnologia, si degradano ugualmente.
E’ necessario quindi
congelare il frammento di tessuto in azoto liquido oppure immergerlo in un
inibitore delle RNAasi per poi conservarlo a 4-5° C ., se lo si deve preservare
solo per qualche settimana, altrimenti è necessario portarlo a –80°C. Un buon
inibitore delle RNA asi lo si può preparare mescolando il 10,24% di alcolo
polivinilico ed il 4,26% di glicole polietilenico con 85,50% di ingredienti
inerti.
Qualora il prelievo
del campione venga effettuato con ago sottile, si ha certamente il prelievo di
un campione che risulta più omogeneo ma siccome una certa percentuale delle
cellule va incontro a lisi, con conseguente perdita del RNA, è consigliabile
centrifugarlo e risospendere il solo sedimento nell’inibitore.
Qualora il frammento
sia stato prelevato da un tumore, spesso ritratta di un insieme di tessuti e
cellule di vario genere per cui è
opportuno far precedere la valutazione con i microarray da un esame
istologico.
In questi ultimi anni
la ricerca genetica ha cambiato la biologia con la decifrazione dell'intera
sequenza del genoma di molti animali e, più di recente anche dell'uomo. La
ricerca sul genoma ha trasformato la biologia molecolare in una scienza
dell'informazione: La vita parte da un codice digitale che, in 4 miliardi di
anni, ha creato la complessa realtà delle interazioni fra i vari geni e fra le
diverse proteine che sono le strutture più importanti su cui si basa ed evolve
in tutta la biosfera. L'integrazione progressiva dell'informatica a questa
ricerca ci da la possibilità di andare oltre lo studio dei singoli geni e ci
porterà non solo a diagnosticare in modo più corretto e tempestivo alcune
malattie non ancora chiaramente definite come l' Alzheimer o la distrofia
muscolare, ma anche a trovare il modo per poterle curare. Chiariremo la
sequenza degli eventi metabolici che determinano il processo d'invecchiamento e
potremo intervenire in modo sempre più appropriato sull'usura del nostro
organismo con stili di vita e farmaci che ci facciano vivere più a lungo e in
buona salute.
Dato che in tutto
questo progredire la tecnica dei microarray, strettamente correlata all'uso
sempre più articolato dell'informatica, avrà certamente un ruolo molto
importante, vediamo come i ricercatori, già oggi, e sempre più lo potranno in
futuro, diventare i protagonisti di questo grande rinnovamento sia della
biologia che della medicina utilizzando macchine intelligenti. e sofisticate
per studiare e cercare di prevenire sia le malattie che il decadimento fisico e
mentale.
Sono tanti i tasselli.
Vedremo di scorrerli nella maniera più concisa per dare la giusta
interpretazione e valutare meglio tutto quello che sta avvenendo,
Internet.
La rete internazionale
che permette di collegare tutti i computer in ogni angolo del mondo attraverso
il Web e le e-mail prende il nome di Internet. L'invenzione del telegrafo prima
e poi del telefono ci ha permesso già nel 1800 di comunicare a distanza.
Internet, come d'altra parte già lo era stato per il telegrafo, ha adottato un
linguaggio con parole in codice criptato ed ha utilizzato, almeno in una prima
fase, le linee telefoniche. I pionieri di internet hanno stabilito i primi
collegamenti fra computer nel 1970. All'inizio degli anni 90 c'erano già circa
30 milioni di siti collegati. Oggi ce ne sono più di 100 milioni e sono oltre
un miliardo le persone che ne fanno uso.
Le opportunità aperte
da Internet al settore biomedico sono enormi. A cominciare dalla telemedicina
nata negli anni settanta per gli astronauti. Operazione Lindberg è il nome del
primo intervento di telechirurgia condotto con l'utilizzo della fibra ottica,
quando un paziente a Strasburgo è stato curato da un robot telecomandato da New
York.
Gli utilizzatori di
microarray per fini diagnostici, ed ancor più coloro che studiano il codice
genetico. sono notevolmente avvantaggiati della possibilità di accedere con
facilità, ed anche in forma confidenziale, ai dati immessi nei computer di
tutto il mondo. Ogni istituzione accademica ed ogni azienda ha un proprio sito
Web in cui sono raccolte ed illustrate tutte le informazioni più importanti che
la riguardano, come la storia, i personaggi, le attività, l' indirizzo, i
numeri di telefono e di fax ecc. In altre parole è una vera e propria finestra
aperta su quella istituzione o quella azienda. Oggi, grazie alle e-library è
possibile prendere visione di qualsiasi libro o leggere i lavori scientifici
pubblicati su qualsiasi rivista utilizzando il proprio computer. Con la stessa
facilità si può accedere ai brevetti registrati in qualsiasi angolo del mondo.
Nel caso particolare, grazie alla cortesia della TeleChem. è disponibile una
biblioteca elettronica dedicata al settore: La Microarray Resource Library
(arrayit.com/ e-library), che è una potente risorsa elettronica, .perché
raccoglie e mette a disposizione gratuitamente tutto quello che è pubblicato
sui microarray. In questo ambito si possono consultare anche tutti i
manoscritti riguardanti in modo particolare la " Genome Research ",
che di per se è già vastissima.
PubMed
Un'altra eccellente
risorsa elettronica è la PubMed resa disponibile dalla National Library of
Medicine, che fa parte del National Institute of Health di Bethesda e che
fornisce l'accesso a decine di milioni di titoli di pubblicazioni scientifiche
riportate da oltre 5000 giornali in 70 Paesi.
Il laboratorio di
bioinformatica del Consiglio Nazionale delle Ricerche (http:/ /
bioinformatica.isa.cnr.it) mette a disposizione dei naviganti informazioni
sulle attività di ricerca in cui i computer sono soprattutto usati per svelare
la relazione tra struttura e funzione delle proteine.
Il portale
dell'università di Torino (www. bioinformatica. unito.it) offre la possibilità
di accedere al BioOn -Grid Forum che, coordinato dall'università del Piemonte
orientale, è un luogo di discussione e di tutoring circa le tecniche di analisi
con i microarray.
Segnaliamo anche
l'Istituto Europeo di Bioinformatica (EBI), che mette a disposizione degli
utenti un portale (www. ebi.ac.uk) ricco di informazioni, anche perché
rappresenta uno dei più importanti centri di ricerca del mondo nel campo della
genomica e della bioinformatica.
Un'altra autorevole
fonte di informazioni, per tutto quello che riguarda la biologia molecolare, è
il National Center for Biotecnology Information ( www. ncbi. nib. gov).
Ma tutti i ricercatori
che studiano il genoma hanno bisogno di informazioni molto dettagliate sulle
sequenze dei singoli geni e sul polimorfismo dei singoli nucleotidi per fare
analisi comparative e correlare le strutture alle relative proteine che sono di
fondamentale importanza anche per la produzione dei microarray. A ciò
provvedono le banche dei geni.
Le banche dei geni
La disponibilità di
data base è essenziale per allestire, eseguire ed interpretare le analisi con i
microarray dei geni e del genoma. Infatti le sequenze dei database danno la
possibilità ai ricercatori di disporre degli oligonucleotidi per la produzione
dei microarray e per ottenere i primers che servono per le reazioni di
amplificazione ( PCR ) , che, solo per il genoma umano, riguardano circa 30.000
geni che codificano oltre 100.000 proteine.
L'accesso elettronico
alle sequenze permette anche di costruire e produrre quei microarray denominati
giustamente " zoo chips " che servono a studiare l'evoluzione dei
genomi di tutti gli esseri viventi e dei loro rapporti nella scala biologica.
Tutti i ricercatori
che si occupano di geni dispongono, nel proprio laboratorio, di elenchi di
sequenze strettamente correlati al tipo di lavoro svolto e quindi limitati.
Inoltre ci sono alcune
compagnie private negli USA, quali la Celera Genomics ( Rockville, MD ) e la
Incyte Genomics ( Palo Alto, CA ), che possiedono vastissimi database privati a
cui si può accedere ma solo a pagamento.
Poi c'è un terzo
livello di database biologici ed è quello reso disponibile da una serie di enti
pubblici di cui riferiamo i più noti:
GenBank:
Comprende tutte le
sequenze, otre 14.000.000.000, fornite dai laboratori USA, giapponesi ed
europei che sono riportate e catalogate in base ai siti di interesse biologico
e che comprendono oltre quelle umane anche quelle di altri gruppi di organismi
quali topi, pesci, vermi, parassiti, batteri, virus ecc.
E' prodotto e
distribuito dal National Center for Biotechnology Information ( NCBI, Bethesda
).
Tutti possono inviare
nuove sequenze alla Gen Bank via Web utilizzando un formulario conosciuto come
BankIt. Ogni nuova sequenza accettata riceve un numero che poi rimane come
"numero di accesso". Tale numero di accesso può essere utilizzato poi
sia per le pubblicazioni che per la produzione dei microarray dove serve ad
identificare ogni elemento in mappe che ne possono contenere anche migliaia.
La NCBI è poi
collegato al Protein Information Resource ( PIR ) di Washington ed è quindi in
grado di fornire utili informazioni anche per l'allestimento ed utilizzo di
microarray per le proteine che vanno rapidamente proliferando.
TIGR:
Prodotto dal Institute
for Genomic Research di Rockville. E' una raccolta di sequenze di DNA, espressioni
geniche, ruoli cellulari e dati tassonomici per microrganismi, piante e uomini.
EMBL. Nucleotide Sequenze Database: E' il principale database europeo di
sequenze nucleotidiche prodotto in collaborazione con NBCI degli USA ed il DDJB
giapponese; è distribuito dall' European Bioinformatics Institute di Cambridge
( UK ).
SWISS-PROT
Contiene solo sequenze
di proteine ed è distribuito, anche questo, dall’European Bioinformatics
Institute di Cambridge (UK).
PROTEIN INFORMATION RESOURCE
E' un sistema di identificazione
ed analisi “on line” delle sequenze proteiche prodotto dal National Biomedical
Research Foundation di Washington.
REBASE
E' una raccolta
completa di informazioni sulle endonucleasi di restrizione e sulle metilasi a
loro associate, inclusi i siti di riconoscimento e di taglio, la disponibilità
commerciale e le notizie bibliografiche.
Poi, ovviamente, c'è
la posta elettronica, nota come e-mail, che permette di spedire ovunque con
grande semplicità e rapidità, non solo messaggi ma anche grafici ed immagini
colorate di ogni genere e misura e che quindi agevola gli scambi di
informazione fra tutti gli interessati ad uno specifico argomento.
L'analisi dei dati
sperimentali ha, quasi all'improvviso, assunto un ruolo prominente su tutto ciò
che riguarda la biosfera. Prima avevamo a che fare con un tipo di ricerca
scientifica che metteva insieme un numero relativamente limitato di dati ma,
negli ultimi anni, la biologia è esplosa ed è diventata una scienza che genera
un' enorme quantità di dati.
Questa metamorfosi è
stata attribuita in larga parte al raggiungimento di due obiettivi
complementari:
Il primo è dato dal
completamento del Progetto Genoma Umano, che ha generato una enorme quantità di
informazioni riguardanti le sequenze del DNA e che, sommate a quelle di tante
altre specie animali e vegetali, ha portato i biologi a doversi già confrontare
con una massa dati enorme che tende ulteriormente ad ingigantirsi ancora ora che
è diventato possibile valutare come e quando i vari geni funzionano.
Il secondo progresso
operativo riguarda appunto il grande sviluppo che ha avuto, negli ultimi anni,
la tecnologia dei microarray che da la possibilità agli scienziati di
monitorare contemporaneamente il comportamento di molte migliaia di geni in un
enorme numero di condizioni sperimentali. Inoltre c'è da calcolare anche le
conseguenze che derivano dal fatto che la tecnologia dei microarray si sta
dimostrando applicabile anche alle proteine, rendendo possibile monitorare
contemporaneamente un numero infinito di condizioni sperimentali riguardanti le
correlazioni più diverse fra le cellule di tutti gli esseri viventi, piccoli e
grandi. Tutto ciò ha impresso una svolta radicale a tutta la biologia
molecolare in quanto si è passati dall'era in cui i geni venivano studiati
praticamente uno per volta o in piccoli gruppi con risultati piuttosto
limitati, al periodo, l'attuale, in cui si può avere un quadro completo di
tutte le funzioni geniche e delle interrelazioni di queste con tutti gli altri
aspetti e manifestazioni della vita.
Nei precedenti
capitoli abbiamo riferito come si preparano i microarray, come si legano i
probes, come si eseguono le reazioni di ibridazione, o le reazioni immunitarie,se
si tratta di proteine. La fase seguente. È quantificare l’immagine che si
ottiene, che porta, se pure con un software dedicato, ad un risultato molto
complesso che va ovviamente analizzato per arrivare ad un risultato
accettabile. Il caso più caratteristico di utilizzazione di questa tecnica di
analisi con i microarray riguarda la presenza ed i profili di attività di uno o
più geni che porta a dover valutare in parallelo migliaia, in taluni casi
decine di miglia di dati che vanno correttamente interpretati per capire se ci
sono delle differenze di espressione fra i vari geni esaminati.
Infatti gli
esperimenti con i microarray sono condotti in tale maniera che si possano
prendere in esame simultaneamente i profili di comportamento di migliaia di
sequenze di acidi nucleici e delle relative proteine.
Ma l'enorme massa di
dati sperimentali che fuoriescono dagli scanner, e dagli altri tipi di
strumenti per la lettura, sono dati bruti perché non sono altro che numeri
corrispondenti all'intensità delle immagini, ovvero dei segnali emessi dai
singoli spot. Bisogna quindi metterli insieme e cercare di interpretarli per
arrivare a dare una risposta esatta e completa ai quesiti che ci interessano.
Ed è qui che
interviene l'analisi dei dati biologici e la loro interpretazione statistica
che ne consegue, e che risultano essere due fasi importantissime che
inevitabilmente devono seguire ed integrare la sperimentazione vera e propria.
Prima di cominciare ad
analizzare i dati di un microarray riguardate un DNA, siccome non esiste un
metodo statistico in grado di analizzare dati bruti, specialmente se molto
complessi, bisogna capire se la distribuzione di tali dati è sufficientemente
pulita e per capirlo bisogna cominciare con il porsi due domande:
1-Le variazioni che si
apprezzano rappresentano variazioni effettive o sono contaminate da differenze
che sono collegabili alla variabilità sperimentale?
2-Ai fini del metodo
statistico che si deve utilizzare hanno i dati un andamento approssimativamente accettabile?
Se le risposte a
queste due premesse non sono positive, tutta l’analisi statistica ne può venire
distorta e ne possono derivare risultati non validi. Fortunatamente sono
disponibili una varietà di tecniche statistiche che vengono in aiuto che si
basano sulla “ normalizzazione” e la “ trasformazione” dei dati: (Kalocsal e
Shams 2001)
La normalizzazione è
una speciale forma di standardizzazione che ci aiuta a separare le variazioni
vere dalle differenze dovute alla variabilità sperimentale. Infatti è molto
probabile che in un processo operativo così complesso, variazioni derivanti
dall’evoluzione tecnica di qualcuna delle fasi contamini il risultato finale.
Il tipo di vetrino, il metodo di spottaggio, la quantità di DNA, le
caratteristiche del colore, il tipo di scanner le caratteristiche del software
sono solo alcuni degli aspetti che vanno normalizzati al fine di rimuovere o
almeno ridurre quelle differenze che potrebbero contaminare il risultato
finale. Uno degli accorgimenti più utilizzati a tal fine è quello di spottare
in parallelo per ogni campione il rispettivo controllo, utilizzando anche
colori diversi.
Per quanto riguarda la
trasformazione dei dati la procedura più
comunemente utilizzata è è quella di
utilizzare i logaritmi delle espressioni per equalizzare le oscillazioni sia
verso l’alto che verso il basso.
Comunque rimandiamo
per i dettagli ai testi specializzati
Sono operazioni molto
complesse che ovviamente oggi si possono affrontare con l' ausilio di macchine
automatiche dei computer e di particolari software. Esistono due tipi di
programmi specializzati, che corrispondono alle due fasi dell'analisi. I
programmi del tipo EDA ( Esploratory data analysis ) e quelli del tipo CDA
(Confirmatory data analysis). Ne ricordiamo alcuni di quelli più usati:
Comunque questi
programmi sono appena sufficienti per essere di ausilio ed integrarsi per la
elaborazione dei dati di esperimenti piuttosto comuni. Per casi molto
particolari bisogna disporre di programmi opportunamente dedicati che vanno
specificamente elaborati, se si vogliono raggiungere risultati ottimali.
Per potersi orientare
consigliamo di prendere visione dei suggerimenti riferiti nella esauriente
monografia di Amaratunga e Cabrera ( 2004 ).
I biochip sono delle
piccole piattaforme su cui sono allineate in modo ordinato delle macromolecole
o porzioni di macromolecole per permettere di fare analisi in grado di fornire
un gran numero di informazioni. Il principio su cui si basa la tecnologia è la
possibilità di far interagire le macromolecole allineate sulla fase solida e le
molecole presenti nel campione che interessa.
Esempi classici di
tale tipo di reazione sono, per esempio, le interreazioni che si realizzano fra
due porzioni complementari di catene singole di DNA, o quella fra la catena di
DNA ed il rispettivo RNA da essa trascritto, o fra un antigene ed il rispettivo
anticorpo.
Quindi il principio su
cui si basa la tecnologia dei microarray è molto semplice ma, nello stesso
tempo, di grande portata. perché. come vedremo, le possibilità di applicazione
nello studio dei più importanti fenomeni della biosfera sono praticamente
illimitati.
Per ogni caso
particolare occorre mettere a punto il relativo protocollo che ne permetta la
corretta applicazione. Una serie di esempi sono riportati nella interessante
monografia di Rampal ( 2001 ).
Anche noi, a semplice
titolo esemplificativo e dimostrativo, riportiamo i dati riportati sui
foglietti che accompagnano alcuni prodotti.
( Pomezia -Italia ).
Vetrini e-Surf
Prima di iniziare
qualsiasi esperimento con gli e-Surf si consiglia di leggere attentamente
quanto segue:
Considerazioni generali
I vetrini e-Surf della
Life Line Lab possono essere usati per immobilizzare in maniera covalente sia
DNA amino modificati che proteine. Infatti sono ottenuti mediante adsorbimento
su vetro di un polimero idrofilico contenente N.N acrilo-iloxi-succinimide (
NAS ), il gruppo reattivo che è capace di legare DNA amino modificato e, delle
proteine, le amine primarie della lisina e dell' arginina. Essi hanno una
elevata capacità di legame insieme ad un buon controllo dell'orientamento dei
gruppi legati ed un rumore di fondo della fluorescenza molto basso.
Ambedue le superfici
del vetrino sono attivate. Il legame alla superficie attivata si realizza a pH
8-
Stabilità
I vetrini e-Surf sono
stabili per 10 mesi se conservati nella confezione originale contenente un
sacchetto essiccante. Quando si apre la confezione, i vetrini che non vengono
utilizzati, vanno riposti nella confezione originale che deve essere conservata
perfettamente chiusa. E' consigliabile che il posizionamento dei probes sia
attuato in ambiente la cui umidità non superi il 50%, meglio se sia anche al
30- 40 %. L'operazione va attuata immediatamente dopo il prelievo dalla
confezione e, comunque, entro le 6 ore.
Posiziona mento e legame
Il tampone di
posizionamento ( 150mM fosfato di sodio pH 8,5) è specificamente adatto per
tali vetrini perché consente il massimo della capacità di legame delle amine
alla superficie. Le concentrazioni di fosfato di sodio sono 50-
Gli additivi quali
DMSO, PEG, o glicerina, normalmente usati per prevenire il possibile rapido
essiccamento degli spots, riducono la capacità di legame ed alterano la
morfologia degli stessi spots. I vetrini e-Surf sono fatti in modo che non
richiedono che lo spots debba restare solubile per realizzare una efficace
immobilizzazione.
Non devono mai essere
usati primers o tamponi che contengano amine.
Il legame del DNA
amino modificato o delle proteine sulla superficie dei vetrini si realizza con
una reazione termochimica. La soluzione satura di NaCl crea una umidità
relativa del 75% che è sufficiente per far si che questa reazione proceda
regolarmente. Qualora siano esposti ad una umidità relativa del 100%, gli spots
tendono ad allargarsi e a distorcersi.
Amino modificazione
Gli oligonucleotidi
devono essere sintetizzati con la modifica di un amina attaccata o in posizione
3' o in posizione 5'. I prodotti da PCR sono preparati già includendo un 5'
amino primer nella reazione di amplificazione. I primers modificati in
posizione 5' possono anche funzionare nella PCR ma la sintesi costa di più e
quindi sono utilizzati meno.
Acidi nucleici
Materiali
richiesti.
l. Per posizionare e
legare probes di DNA
2. Per la saturazione
e l'ibridazione.
4x SSC
2x SSC 10,1% SDS.
0,2x SSC
0,lx SSC.
Protocolli
per l'immobilizzazione.
1) Preparazione di
probes di amino DNA
a)
Gli oligo 3' o 5'
aminomodificati sintetizzati da clienti devono prima essere purificati con HPLC
o FPLC. Usare le colonne di desalazione per eliminare gli aminocontaminanti
tipo Tris o prodotti azotati che potrebbero interferire nel processo di
immobilizzazione.
b)
Gli aminoprodotti
ottenuti da PCR, usando primers aminomodificati, e che devono essere
complementari al target da catturare, devono essere purificati: eseguire una
doppia precipitazione con etanolo o trattarli con il kit di purificazione per
PCR. Usare il tampone fosfato
c)
I DNA probes,
dopo essere stati purificati, vanno conservati a
2) Preparazione della
soluzione per il legame del DNA:
a) Preparare gli amino oligo desalinizzati alla
concentrazione finale di 10-15 pmole/µl in tampone di legame 1x fosfato di
sodio
b) Per i c DNA aminati (0,1- 1 kb) è raccomandata una
concentrazione di 100-500 ng/µl di DNA in tampone di legame 1x.
3) Legare il DNA.
a) Estrarre i vetrini che necessitano dalla confezione.
Se ci sono altri vetrini da conservare lasciarli nell'involucro originale di
alluminio insieme con l’essiccante.
b) Depositare gli spots di DNA sui vetrini attivati per
realizzare i microarray.
c) Al termine della seduta di deposizione trasferire i
vetrini in una scatola portavetrini senza coperchio e posta nella camera umida
contenente la soluzione satura di NaCl; sigillare la camera umida con il
coperchio ed incubare a temperatura ambiente fino al giorno seguente. La durata
di tale incubazione può oscillare fra un minimo di 4 ed un massimo 72 ore.
d) Conservare gli array a temperatura ambiente fino al
momento dell'uso. Se devono essere conservati a lungo vanno riposti in una
scatola che contenga un essiccante.
Protocollo
di ibridazione
1) Manovre preliminari
dopo aver attuato il legame degli spots:
a) Inserire i vetrini nel portavetrini e bloccare i
residui gruppi reattivi immergendoli nella soluzione di saturazione,
preriscaldata a
b) Scartare la soluzione di saturazione.
c) Lavare i vetrini due volte con acqua bidistillata.
d) Lavarli ancora con 4x SSC con SDS 0,1%, preriscaldata
a
e) Scartare la precedente soluzione e sciacquare
brevemente con acqua bidistillata.
f) Qualora si tratti di DNA arrays, mettere i vetrini a
bollire per 2 minuti.
g) Sia che si tratti di oligo che di DNA, lavarli due
volte con acqua bidistillata.
h) Mettere i vetrini nell'apposito supporto e
centrifugarli a 800 r.p.m. per 3 minuti.
2) Ibridazione
a) Preparare il c DNA o l'oligo target, purificato e
coniugato, nel tampone d'ibridazione.
b) Riscaldare il miscuglio target DNA a doppia elica da
ibridare in bagno d'acqua bollente per due minuti. Se invece si tratta di oligo
si può procedere come specificato al punto "d”
c) Centrifugare per un minuto tale miscuglio al fine di
raffreddarlo.
d) Trasferire rapidamente il miscuglio target sul
microarray già preparato. Aggiungere 2,5 µl per ogni cm2 del vetrino
coprioggetto.
e) Trasferire i vetrini nella camera d'ibridazione.
f) Trasferire la camera d'ibridazione nell'incubatore
saturo d'umidità o nel bagnomaria regolato a temperatura appropriata per 14-16
ore.
3) Lavaggio e lettura
Fare attenzione che i
vetrini non si asciughino mai fino al momento della centrifugazione finale,
procedere come segue:
a) Rimuovere i vetrini dalla camera d'ibridazione e
sciacquarli usando una bottiglia con schizzetto contenente una soluzione 4x SSC
a temperatura ambiente dopo aver rimosso il vetrino coprioggetto.
b) Procedere con gli ulteriori lavaggi che sono da
eseguire tutti a temperatura ambiente:
a) Due lavaggi con 2x SSC con 0,1% di SDS ognuno per 5
minuti e scartare la soluzione.
b) Un lavaggio con 0,2 x SSC per 1 minuto e scartare la
soluzione.
c) Un lavaggio con 0,1x SSC per 1 minuto e scartare la
soluzione.
d) Centrifugare i vetrini al fine di asciugarli.
e) Leggerli allo scanner solo quando sono perfettamente
asciutti.
Proteine
Materiali
richiesti
1. Per posizionare e
legare le proteine
2- Per la saturazione
e lo sviluppo delle reazioni successive.
Protocolli di
immobilizzazione
1) Preparazione della
soluzione di proteine da legare
2) Legare le proteine
Protocolli
per le reazioni.
1) Raccolta e
preparazione dei campioni
2) Procedura di
esecuzione.
Appendice
Controllo di qualità
Ogni lotto di vetrini
e-Surf attivati è controllato per valutare la riproducibilità a legare una quantità
standard di oligonucleotide amino modificato ed ibridizzare una quantità
standard di target coniugato con Cy 3.
La procedura della
tecnica di ibridazione è la seguente:
Un 23 mer oligo amino
modificato è posizionato sulla superficie del vetrino: La concentrazione deve
essere 10 µM ed il tampone che si deve usare è il tampone fosfato
(Darmstadt -Germania)
Kit per le citochine
Il prodotto registrato
con la denominazione Proteo Plex serve per titolare, fino a 15 campioni contemporaneamente di siero o di
liquido di coltura, 12 fra le più importanti citochine note con le seguenti
sigle:
IL 1 alfa, IL 1 beta,
IL 2, IL4, IL 6, IL 7, IL l0, IL 12 P 70, GMCSF, IFN gamma, TNF alfa.
E' indicato per
valutare il sistema immunitario e, più precisamente, la concentrazione delle
varie citochine nel corso di manifestazioni infiammatorie come quelle che si
hanno particolarmente per asma e artriti.
Il vetrino che si
utilizza presenta 16 aree di reazione contenenti ciascuna 64 spots allestiti
con anticorpi monoclonali da cattura verso le 12 citochine con 4 spots ripetuti
in linea per ogni citochina. La confezione del Proteo Plex è completata dai
vari diluenti, gli standard di controllo, gli anticorpi di valutazione ed il
reattivo fluorescente.
Il tempo di reazione
per la esecuzione delle determinazioni è di 4 ore.
Componenti del Kit
I componenti del kit per
ogni singolo array sono i seguenti:
1 Array Proteo Plex
per citochine umane completo di vetrino e supporto.
1 ml di diluente 10 x
per i campioni.
0,3 ml Diluente 10 x
dello standard, contenente siero.
12 ng dello Standard
misto di citochine umane liofilizzato ( contiene 1 ng di ciascuna citochina ).
1 provetta con il
cocktail di anticorpi di rèazione liofilizzati.
1,6 ml di diluente
degli anticorpi di reazione.
1 provetta con il
fluoroforo SensiLight PBXL -3 liofilizzato.
1 compressa per il
tampone PBST.
1,5 ml 200 x per il
lavaggio finale.
1 portavetrino per il
lavaggio.
1 portavetrino per
asciugarlo.
La compressa PBST e i
portavetrini possono essere conservati a temperatura ambiente mentre tutti gli
altri componenti devono essere portati a
Attrezzature e reagenti
addizionali
Campioni sperimentali
sia di sieri che supernatanti di colture. Acqua distillata e deionizzata di
recente preparazione Provette in polipropilene per microcentrifuga
Provette da 50 ml in
polipropilene per centrifuga.
Bottiglie per i
lavaggi.
Piattaforma ruotante
in senso orbitale.
Foglio di alluminio.
Centrifuga con rotore
per provette da 50 ml.
Lo scanner con
software in grado da elaborare i dati di lettura.
Impostazione sperimentale
Il kit è utilizzabile
per titolare le 12 citochine in campioni di siero o di supernatanti di colture
cellulari. Altri campioni biologici quali plasma, estratti cellulari, liquidi
cerebrospinali e liquidi sinoviali non sono stati mai titolati.
Lo standard di
controllo fornito nel kit è una mescolanza delle 12 citochine, ciascuna alla
concentrazione di 800 pg/ml che, come vedremo, è utilizzato per tracciare una
curva basata su 5 diluizioni. Si potranno cosi tracciare, in base ai segnali, i
tracciati delle singole citochine e, su queste, valutare le concentrazioni nei
campioni in esame in base all' intensità della fluorescenza relativa.
Quindi delle 16
posizioni disponibili sul vetrino, 1 è utilizzata per il bianco, che permette
di valutare il rumore di fondo, 5 per le diluizioni dello standard e le
rimanenti 10 per i campioni da analizzare.
Raccomandazioni preliminari
Fare attenzione,
durante l'esecuzione delle reazioni, che il vetrino non si asciughi mai
completamente.
Il vetrino va toccato
solo lungo i bordi e mai né con le dita né con le pipette o altro sia sulla
superficie superiore che inferiore.
Usare sempre acqua
distillata e deionizzata preparata di recente.
Alla fine delle
reazioni i vetrini si possono conservare asciutti e al buio fino al momento
della lettura.
Se per caso la lettura
allo scanner non può essere eseguita entro alcune ore o pochi giorni, il
vetrino va conservato in un contenitore asciutto riposto a
Fare attenzione,
durante le varie operazioni ed i lavaggi che il liquido di un settore non
debordi in un altro settore.
Qualora in un campione
la concentrazione di una citochina ecceda i 2500 pg/ml, occorre ripetere la
titolazione con il campione diluito 5-10 volte.
I reattivi
liofilizzati, una volta messi in soluzione, è buona regola centrifugarli
brevemente per evitare che togliendo il tappo, si perdano anche tracce del
contenuto. Prima di usare sia i campioni che lo standard, invertire fra le dita
più volte le provette per essere sicuri che siano ben mescolati.
Protocollo
L'esecuzione delle
reazioni su vetrino con 16 aree di reazione la si può condurre operando come
segue:
Preparazione delle soluzioni
Sciogliere le
pastiglie del tampone PBST in un litro d'acqua deionizzata e riempire, con
parte di questa soluzione, una bottiglia da lavaggio.
Immettere 1,6 ml di
diluente per gli anticorpi nel flaconcino con tappo blu, che contiene il
cocktail di anticorpi liofilizzati. Invertire più volte questo flaconcino per
oltre 30 secondi. Conservarlo poi a
Aggiungere 1,7 ml del
diluente del reattivo fluorescente PBXL-3 al flaconcino con tappo rosso che
contiene il fluoroforo liofilizzato. Invertire più volte tale flaconcino per
oltre 30 secondi. Conservarlo poi a
Sciogliere 1 ml della
soluzione di lavaggio, che è 200x in 199 ml di acqua deionizzata.
Preparazione dello standard per
la titolazione di supernatanti di colture cellulari.
Mescolare bene il
diluente per il campione ( capsula verde ), che è 10x, invertendo più volte il
flaconcino.
Preparare la soluzione
pronta per l'uso 1x trasferendo 250 µl di tale diluente concentrato in 2,25 ml
di acqua deionizzata.
Trasferire quindi 1,25
ml di tale diluente, alla diluizione d'uso 1x, con tappo bianco, contenente lo
standard di citochine umane liofilizzate. Invertire il flaconcino più volte per
oltre 30 secondi. Si ottiene cosi una soluzione in cui ognuna delle 12
citochine risulta essere alla concentrazione di 800 pg/ml.
Preparare una
provettina con 250 µl di diluente del campione e aggiungere 250 µl della
soluzione dello standard contenente 800 pg/ml, al fine di ottenere una
diluizione 1 :2, che quindi contiene 400 pg/ml.
Preparare poi altre 3
provettine con 200 µl di diluente del campione e trasferire 100 µl del
surriferito standard, contenente 400 pg/ml, mescolare bene e trasferire 100 µl
nella provettina seguente, e poi ancora di seguito 100 fino all'ultima in modo
da realizzare, ad ogni passaggio, una diluizione 1:3. Si avranno cosi 5
provettine contenenti le seguenti diluizioni dello standard: 800- 400- 133- 44-
15 pg/ml
Preparazione dello standard per
la titolazione di campioni di siero.
Invertire più volte,
al fine di mescolarlo bene, sia il diluente 10x per i campioni ( capsula verde)
che il diluente 10x per lo standard del siero ( capsula nera ).
Preparare il diluente
1x del diluente a base di siero, mescolando 250µl del diluente 10x dei
campioni, 250µl del diluente 10x per lo standard e 2 ml di acqua deionizzata.
Trasferire 1,25 ml di
tale diluizione nel flacone dello standard citochine ( capsula bianca ) ed
invertire più volte per almeno 30 secondi. Si ottiene così una diluizione dello
standard contenente ciascuna delle 12 citochine alla concentrazione di 800
pg/ml. Procedere alla diluizione dello standard come già riferito per i
supernatanti delle colture cellulari.
Preparazione dei campioni.
I campioni devono
essere diluiti entro un'ora prima dell'uso.
Colture cellulari
I terreni di coltura
raccolti devono essere prima centrifugati per eliminare cellule e detriti. Mettere
da parte l'aliquota del supernatante che serve per la titolazione e congelare
il resto a –20°C. Evitare di congelare e scongelare più volte.
Preparare 2 ml di una
concentrazione 2x del diluente trasferendo 400 µl del diluente del campione 10x
(capsula verde) in 1,6 ml di acqua deionizzata.
In provette separate,
una per ogni campione, mescolare 50 µl del campione con 50 µl di diluente 2x.
Sieri
I campioni di sangue
vanno raccolti in provette separatrici, fatti coagulare almeno 30 minuti e poi
centrifugati 10 minuti a 1000 x g. I sieri supernatanti possono essere titolati
subito o vanno conservati in congelatore a –20°C. Evitare congelamenti e
scongelamenti ripetuti.
Preparare 2 ml di una
diluizione 1,25 x del diluente del siero trasferendo 250 µl, del diluente 10 x
(capsula verde) in 1,75 ml di acqua distillata e deionizzata.
In provette separate,
una per ogni campione, mescolare 75 µl. di diluente 1,25 x con 25 µl di ciascun
campione.
Esecuzione della reazione
Lavare 2 volte con PBS
le aree di reazione del vetrino e far scolare bene ogni volta il liquido
invertendo il vetrino e scuotendolo su una superficie assorbente.
Riempire la scheda
operativa con i nomi e i numeri dei campioni nell'ordine che si desidera. Viene
suggerito di usare la posizione da
Distribuire 100 µl di
ogni campione o delle diluizioni dello standard in ogni area di reazione
secondo l'ordine surriferito.
Incubare un'ora a
temperatura ambiente su un agitatore orbitante a bassa velocità.
Rimuovere i campioni e
lo standard invertendo di colpo il vetrino su una superficie assorbente.
Lavare poi 4 volte con
PBS ciascuna area di reazione ed ogni volta invertire di scatto il vetrino
sulla superficie assorbente. Alla fine scuotere leggermente per eliminare le
ultime tracce di liquido.
Invertire più volte il
flacone con gli anticorpi di reazione per mescolare bene il contenuto e poi
trasferire 80 µl di tale soluzione su ognuna delle 16 aree di reazione.
Incubare di nuovo a temperatura ambiente su agitatore orbitante a bassa
velocità. Rimuovere poi tale cocktail di anticorpi invertendo di scatto il
vetrino su una superficie assorbente.
Lavare 4 volte ogni
area con PBS procedendo come descritto sopra. Dopo l'ultimo lavaggio, però, non
scuotere il vetrino per eliminare le ultime tracce di liquido, perché è bene
che non si asciughi del tutto.
Invertire più volte il
flacone contenente i fluoroforo PBXL.3. Poi trasferire 100 µl del contenuto su
ognuna delle 16 aree di reazione.
Coprire immediatamente
con un foglio di alluminio.
Incubare 1,5 h a
temperatura ambiente sempre sull'agitatore orbitante a bassa velocità.
Eliminare il fluoroforo invertendo il vetrino sulla superficie assorbente.
Lavare 4 volte con PBS
e, di nuovo, dopo l'ultimo lavaggio, non eliminare le ultime tracce di tampone.
Estrarre il vetrino
dal supporto in cui è bloccato per facilitarne l'uso, facendo attenzione a non
toccare mai né la superficie superiore né quella inferiore.
Riempire il flacone di
lavaggio ( capsula blu) con la soluzione di lavaggio ed immergerci il vetrino
curando che sia tutto coperto dal liquido. Chiudere il flacone con la capsula
ed invertirlo più volte per almeno 10 secondi.
Rimuovere la capsula,
fare defluire fuori la soluzione di lavaggio e poi estrarre il vetrino sempre
afferrandolo per i bordi.
Procedere
immediatamente ad asciugare il vetrino per evitare che compaiano artefatti.
Quindi piazzare subito il vetrino nel flacone che ne favorisce il corretto
essiccamento (capsula rossa) e, senza rimettere la capsula, centrifugarlo cosi
aperto per 1 minuto onde favorire il ricambio d'aria.
Lettura delle analisi
Procedere poi alla
lettura con lo scanner appositamente regolato ( eccitazione 663 nm, emissione
600 nm, risoluzione 10 micron), usando l'Array Vision 8 e, come programma per
l'analisi dei dati il Proteo Plex Analyzer Excel, che possono essere forniti
dalla Novagen.
Dato che ognuno dei 16
campioni o lo standard sono riportati in 4 spots, lo scanner, utilizzando
questi programmi, se c'è uno spot anomalo, nel senso che devia più di 4 volte
dalla media, automaticamente lo esclude.
Il programma permette
di fare automaticamente la media dell' intensità di segnale dei 4 spots ( o tre
se uno è escluso) e la sottrazione del valore del rumore di fondo.
In condizioni di
corretto funzionamento. il limite inferiore del segnale deve essere superiore
di almeno 2,5 volte quello del rumore di fondo.
Lo scanner elaborerà
le concentrazioni delle singole citochine nei 10 campioni in esame sulla base
delle 12 curve degli standard tracciate in parallelo.
( Vienna -Austria )
. Immuno Solid phase
Allergen Chip ( ISAC ).
Si tratta di un
biochip per lo studio delle allergie.
Principi operativi
Gli allergeni sono immobilizzati
sul substrato solido del microarray per essere incubati in presenza di sieri
umani contenenti anticorpi del tipo IgE collegati al tipo di malattia.
L'avvenuto legame con gli allergeni è poi evidenziato addizionando un secondo
anticorpo anti IgE umane coniugato con una sostanza fluorescente.
Vantaggi
I vantaggi di tale
metodo sono i seguenti:
Componenti del kit ISA C
Reattivi che sono forniti a
parte:
Attrezzature necessarie
Possono essere fornite
su richiesta:
Altri materiali richiesti
Precauzioni d'uso.
Tutte le procedure
devono essere eseguite solo da personale tecnico che abbia già accumulato
esperienza di lavoro in laboratorio e che abbia qualche conoscenza teorica
della diagnostica allergologica e dell'uso dei microarray. Inoltre rispettare
le seguenti regole:
Istruzioni per la conservazione
Preparazione della soluzione A
Preparazione del campione e di
sieri calibratori:
Preparazione della soluzione di
bloccaggio.
Preparazione della soluzione
degli anticorpi di reazione.
Preparazione della camera umida
Preparazione di ISAC
Incubazione con il siero umano
Incubazione con la soluzione
degli anticorpi di reazione.
Lettura allo scanner
Raccomandano, per la
lettura di ISAC, uno scanner laser confocale tipo lo Scan Array ( Perkin Elmer
Life Science, Boston MA ) o tipo Affymetrix serie 428 ( Affymetryx" Santa
Clara CA ) o tipo LS serie 400 ( Tecan Instruments, Salisburgo Austria)
Le caratteristiche più
importanti che tale strumento dovrebbe avere sono:
Viene fatto notare che
la lettura con la CCD camera è sconsigliato.
Considerazioni generali
riguardanti la lettura:
Aggiustare il fuoco
dello scanner seguendo le istruzioni del software in modo da ottenere immagini
identiche in ogni area di lettura.
Selezionare
opportunamente ciascuna area all'interno della maschera di teflon in modo da
ridurre i tempi di lettura ed ottenere una buona immagine.
Scegliere la
regolamentazione dello scanner che sia la più adatta alla lettura dell'ISAC.
Ciascun ISAC va letto
due volte con due diverse regolamentazioni: L'immagine 11a si deve ottenere con
lo scanner regolato a basso potenziale, ossia 5-10 volte più basso di quello
dell'immagine 2, seguendo accuratamente le istruzioni.
Acquisizione dei dati
I risultati della
lettura di ISAC sono elaborati dal computer che deve interpretare i valori
della fluorescenza dei singoli spots dei diversi allergeni nelle rispettive
posizioni. Le caratteristiche più importanti che deve avere il software di
regolamentazione sono le seguenti.
Essere in grado di individuare
il posizionamento di ogni singolo allergene.
Poter valutare la
differenza fra fluorescenza specifica e rumore di fondo.
Essere in grado di
identificare e valutare i vari parametri concernenti gli spots : Posizione,
diametro, nominativo, valori di fluorescenza, rumore di fondo, ed eventuali
artefatti.
Permettere di salvare
e conservare tutti i dati.
Procedura di valutazione
Calcolare il fattore
d'interpolazione fra due immagini come segue:
Considerato che per
ogni allergene o standard ci sono tre spots sono necessari ulteriori calcoli
per avere i migliori dati possibili.
Procedura generale per
calcolare la media dei valori delle letture in triplicato.
Equiparazione dei dati ottenuti
con ISAC e calcoli finali.
Con l'aiuto del siero
calibratore, che può essere fornito separatamente, si può arrivare alla
correlazione con i dati convenzionali del RAST. In base a questo calcolo
matematico si riesce a calcolare il titolo delle IgE specifiche del singolo
paziente.
Per normalizzare i
valori ottenuti con la fluorescenza procedere come segue:
La normalizzazione dei
titoli delle IgE specifiche per tutti gli allergeni contenuti negli spots di
ISAC, usando i surriferiti parametri può essere calcolato usando la seguente
formula:
IgE titolo ( K UA/l )= inv log ( log FI x a + b )
In base a tale calcolo
i valori individuali di lettura di ISAC possono essere suddivisi nelle seguenti
classi:
Premesso che la
determinazione delle sequenze del DNA di un organismo vivente ci permette di
classificarlo, di capire come si sia sviluppato, la sua fisiologia, la
predisposizione alle malattie ecc., e dato che la determinazione delle sequenze
si fa con la tecnica dell’ ibridazione, metodo che è stato brevettato nel 1987
da Drmanac e Crkveniakov, vale la pena di chiarire i principi operativi di tale
tecnica e riferire qualche dato storico che ne è alla base.
Sappiamo che le
molecole di DNA sono costituite da una doppia catena ravvolta a spirale e che
ciascun componente è formato da una lunga serie di nucleotidi complementari.
dato che l’accoppiamento delle due catene si realizza sempre con collegamenti
esclusivi. Infatti l’adenina (A) si lega alla timina (T), e la guanina (G) si
lega alla citosina (C).
Furono Doty e coll.
(1960) ,che per primi descrissero che, pur essendo tali molecole piuttosto
stabili, se si riesce a separare, per esempio con il calore, le due catene,
queste poi raffreddandosi tendono a ricombinarsi riformando gli stessi collegamenti esclusivi
di partenza, ossia si accoppiano di nuovo, ibridandosi perfettamente. Da questa
interessante dimostrazione sono poi derivate, negli anni seguenti tutte le
varie tecniche di ibridazione che hanno permesso l’enorme sviluppo della
biologia molecolare. Ricordiamo la separazione dei frammenti di DNA, con la gel
elettroforesi al fine di individuare sequenze specifiche secondo la tecnica di
Southern (1975),ed anche l’utilizzo di oligo sintetici per le ibridazioni,
introdotti da Wallace e coll. (1979), a cui sono seguite tutte le varie
tecniche di analisi genetica come quelle descritte da Bains e coll.(1988) e da
Saiki e coll.(1989).
La tecnica di
sequenziamento mediante ibridazione ,che si basa sulla specificità degli
accoppiamenti fra le coppie di sequenze costituenti la struttura delle catene
del DNA è diventato poi uno dei processi fondamentali, per lo studio delle basi
chimiche della vita. I probes costituiti da migliaia di nucleotidi sintetici,
la cui sequenza è nota, hanno permesso di riconoscere la successione delle
sequenze complementari delle catene dei DNA target. Le procedure, realizzabili
con i microarray, aggiungono l’ulteriore doppio vantaggio della
miniaturizzazione e della possibilità di eseguire un elevato numero di
sequenziamenti in parallelo.
Il completamento delle
sequenze del genoma umano costituisce la base di partenza di una nuova fase
della Medicina mediante le applicazioni
della medicina molecolare. Ora sappiamo come i geni sono strutturati. Dobbiamo
ora capire come funzionano, come interagiscono e come possono mutare nella trasmissione
dai genitori ai figli e quando e perché tali mutazioni, che compaiono anche per
effetto dell' ambiente, possano essere causa di malattie.
Molte analogie sono
state evocate in questi ultimi anni per spiegare il funzionamento del genoma ma
quella di Schena (2003) ci sembra molto appropriata:
Schena sostiene che
l'insieme delle funzioni biologiche del corpo umano funzionino come un'
orchestra sinfonica. Ogni gene è un' unica entità biochimica e, come ogni
membro di un orchestra, produce un distinto suono musicale.
I circa 30.000 geni, che
compongono il genoma umano, e che sono presenti in ogni nostra cellula,
coordinano una serie complessa di istruzioni e di eventi. Per ogni attività,
alcuni hanno la funzione di dirigere e coordinare il funzionamento di altri che
operano in base alle istruzioni ricevute. Quindi esiste una certa gerarchia, ma
tutti partecipano in maniera ordinata e coordinata, come in una sinfonia
musicale.
Malgrado tutti gli
esseri umani abbiano oltre il 99,9% di sequenze identiche del DNA, piccole e
limitatissime differenze nel polimorfismo dei nucleotidi, possono avere una
grande influenza nel determinare l'apparenza fisica del singolo individuo,
grasso o magro, bruno o biondo, la suscettibilità alle malattie, la longevità,
il modo di comportarsi ecc.,ossia il genotipo.
Schena, ritornando
alla similitudine con la musica, dice che, pur essendo uguale lo spartito della
quinta sinfonia di Beethoven, se la si ascolta alla " San Francisco
Symphony " non sarà identica a quella eseguita alla" New York
Philarmonic ". Questo spiega il fatto che l'influenza, giorno per giorno,
dell'ambiente, dell'alimentazione, e di tutto il nostro modo di vivere,
condizioni, per un buon 50%, quello che poi effettivamente siamo, ossia il
fenotipo.
Quindi il preciso
coordinamento di tutti i membri dell' orchestra e di tutti gli strumenti fa sì
che si realizzi un' ottima esecuzione musicale. Mentre, invece, basta un
piccolo errore di un esecutore che si produca una cacofonia. Allo stesso modo
basta un piccolo errore durante la fase di divisione di una cellula che si
creino le premesse per l'evidenziarsi di una malattia congenita oppure si
determini la formazione di un tumore.
Allo stato dei fatti,
tutte le cellule del corpo umano contengono l'identico genoma che è costituito
da circa 3 miliardi di basi di DNA e 30.000 geni, ma non tutti i geni sono
sempre attivi e funzionanti. Per esempio nelle cellule nervose e nelle cellule
epiteliali ce ne sono operativi circa 5000 ma, ovviamente, non sono gli stessi
perché l'espressione delle funzioni fra i due gruppi di cellule è completamente
diversa, ed avviene in tempi diversi, secondo le esigenze che cambiano momento
per momento.
La nostra salute
dipende da come si combinano gli effetti derivanti dall' attività dei nostri
geni con l'influenza dei fattori ambientali. Infatti due gemelli uniovulari
hanno l'identico genoma ma, poi, in base al diverso stile di vita (fumo, dieta,
condotta sessuale ecc.), l'uno può andare incontro a determinati episodi
morbosi, come malattie infettive, disturbi coronarici, tumori e l'altro a
sindromi completamente diverse.
Giorno per giorno
l'influenza dell'ambiente, il nostro modo di vivere, di mangiare, di bere, di
fare sport o meno, pur non alterando il nostro genoma, tranne casi particolari
come le radiazioni ionizzanti, hanno un impatto positivo o negativo sul nostro
organismo.
Le persone sane sono
quelle in cui tutti i geni e tutti gli organi sono perfettamente funzionanti,
mentre sono malate quelle in cui geni batterici o virali, o prodotti di questi
geni o delle nostre stesse cellule, come i radicali liberi distruggono o
danneggiano qualcuna delle nostre normali funzioni, in quanto determinano
difetti del trasporto o dell'utilizzazione di alcuni metaboliti o comunque
difetti nei segnali cellula-cellula o vere e proprie lesioni cellulari.
I difetti nei geni che
sovraintendono al trasporto dei gas, degli ioni, e di qualsiasi altro materiale
cellulare sono responsabili di un vasto gruppo di malattie dette appunto
genetiche la cui sintomatologia, talvolta, è già evidente alla nascita, mentre,
in altri casi, diviene sempre più evidente nel corso degli anni.
I microarray
permettono di valutare in automazione la funzionalità parallela di un gran
numero di sequenze del DNA e di svelare quindi le alterazioni legate a
mutazioni e traslocazioni di cromosomi che, che sono la causa sia delle
malattie congenite che dei tumori, o di individuare nelle cellule la presenza
di acidi nucleici estranei come quelli di virus e parassiti infettanti.
La classificazione molecolare
dei disordini genetici è schematizzabile come segue:
1-Malattie di cui sono noti sia il gene che la mutazione.
2- Malattie di cui è conosciuto il gene, ma non la mutazione
3- Malattie di cui non si conosce né il gene né la mutazione
4- Malattie causate da più di un gene ( poligeniche )
Nel corso degli ultimi
anni sono state descritte circa 4000 malattie ereditarie la cui origine è
dovuta alla presenza di alterazioni ( mutazioni) nella struttura primaria o
sequenza di geni specifici che sono stati identificati solo in circa il 25% dei
casi e, quindi, moltissimo c'è ancora da fare. Ne consegue che
l'identificazione di tali mutazioni nei soggetti affetti costituisce un
elemento decisivo per arrivare a formulare un' esatta diagnosi.
Ci sono malattie
monogeniche che sono caratterizzate da alterazioni molto specifiche di un solo
gene, e malattie multifattoriali in cui la situazione è molto più complessa per
la presenza di diversi tipi di mutazioni.
Ci sono malattie
ereditarie come la fibrosi cistica, le talassiemie, l' emofilia, la distrofia
muscolare, la retinite pigmentosa, la ipercolesterolemia familiare, che sono
già state collegate a ben precise alterazioni del genoma.
Per altre malattie
molto comuni ad eziopatogenesi multifattoriale, come per esempio l'Alzheimer,
l'arterosclerosi, il diabete, le coronaropatie, l'alcolismo si sta cercando di
capire quanto incida la componente genetica.
Riportiamo qui di
seguito una serie di esempi di malattie tipicamente genetiche ( Marin 1999 )
che possono ricevere un impulso all'approfondimento dalla tecnica dei
microarray basata sui vari metodi di ibridazione:
Malattie
genetiche del tipo dominante |
Malattie
genetiche del tipo recessivo |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Un caso tipico di malattia
monogenica è dato dall'anemia falciforme, malattia genetica causata da una
sostituzione nucleotidica del gene della beta globina, noto come gene S
localizzato nel cromosoma Il. La denominazione anemia falciforme definisce lo
stato omozigote per il gene S. L 'HbS è caratterizzata dalla sostituzione
dell'acido glutammico con una valina come sesto aminoacido della catena beta
della globina, conseguente alla sostituzione dell'adenina con la timina a
livello del DNA. Si tratta di una mutazione che non può rimanere silente perché
in questo caso si ha nella molecola dell' emoglobina, la sostituzione di un
aminoacido idrofilo con uno idrofobo, che quindi le fa cambiare la struttura
terziaria.
La solubilità della
emoglobina patologica, in forma ridotta, diminuisce fortemente, per cui si
formano, all'interno del globulo rosso, dei precipitati fibrogelatinosi,
denominati tattoidi e delle fibre rigide che determinano deformazione delle
emazia. Queste assumono una forma a falce con conseguente aumento della loro rigidità,
difficoltà di flusso, specialmente nei capillari, e conseguente formazione di
microinfarti tessutali. Fra le localizzazioni microinfartuali più frequenti
ricordiamo gli infarti polmonari che, se ripetuti, possono condurre ad
ipertensione e morte. Si possono avere anche ripetuti infarti splenici che
determinano inizialmente un ingrossamento della milza ma che possono condurre
ad ipofunzione dell' organo fino ad una vera autosplenectomia.
Le cellule cosi
deformate possono ritornare normali in condizioni di ottimale ossigenazione, ma
episodi ripetuti di falcizzazione conducono ad una condizione irreversibile. In
queste circostanze si ha frequentemente una distruzione prematura delle emazie
e quindi l'iperemolisi contribuisce all'anemizzazione e alla comparsa di ittero
che non è mai intenso.
Oggi si conoscono
diverse centinaia di mutazioni che danno luogo ad alterazioni della emoglobina,
Ne elenchiamo alcune:
Da tutte queste forme
di mutazioni derivano, naturalmente una vasta serie di malattie ereditarie
abbastanza simili e sempre dovute ad un' alterazione del gene della globina:
Questa grande
variabilità e complessità dei quadri clinici potrà essere più agevolmente
interpretata man mano che si diffonderà l'uso sistematico dei microarray a fini
diagnostici.
Un altro caso tipico
di malattia genetica è la fibrosi cistica del pancreas, che colpisce anche i
polmoni e le ghiandole sudoripare è una delle più gravi malattie ereditarie (
autosomica recessiva) della nostra popolazione. Il gene della fibrosi cistica è
stato identificato sul braccio lungo del cromosoma 7, è costituito da 27 esoni
e codifica la proteina CFTR ( Cystic Fibrosis Trasmembrane Regulator). Questa
proteina è costituita da 1480 aminoacidi. A tutt’oggi sono state identificate
oltre 600 mutazioni di questo gene associate e questa malattia. La più
frequente è situata nell' esone 10 ed è caratterizzata da una delezione di tre
paia di basi che porta alla scomparsa di un aminoacido, la fenilchetonuria in
posizione 508. Questa mutazione, denominata DF 508, è presente nel 80% dei casi
dei pazienti affetti da fibrosi cistica di origine nord europea, ma solo nel 50
% circa dei pazienti italiani con ampia variabilità a seconda della loro
regione di provenienza.. Altre mutazioni ( NI 303 K, G 542 X, 1717 IGA, R
1162X, W 1282X, T 338I), sono state identificate nel 20% circa dei pazienti,
anche qui con una significativa variabilità in rapporto alla regione di
origine.
L'alterazione della
proteina e le manifestazioni cliniche che ne conseguono sono diverse secondo
del tipo di mutazione e del sito in cui è avvenuta a livello dei diversi esoni
ed introni del gene CFTR. Gli studi di correlazione genotipo- fenotipo hanno
documentato che si possono distinguere casi con mutazioni presenti su ambedue
gli alleli che sono associate ad insufficienza pancreatica ed ad un quadro
clinico completo, mentre in altri casi, meno gravi, gli studi di correlazione
fra genotipo e manifestazioni cliniche, non hanno portato ancora a risultati
univoci.
Il meccanismo
patogenetico che porta progressivamente al danno polmonare irreversibile può
essere così sintetizzato: La mutazione genica determina alterazione del
trasporto degli ioni cloro e sodio attraverso le membrane cellulari. Ne deriva
iperviscosità delle secrezioni, alterata clearance mucociliare con ristagno del
muco che determina lisi delle cellule ed aumentata suscettibilità alle
infezioni, infiammazioni croniche, bronchiettasie e danno polmonare
irreversibile con grave insufficienza respiratoria che può portare alla morte
del paziente.
Meccanismi analoghi
danno luogo alla compromissione di vari organi ed apparati. Quindi si tratta di
una malattia multi organo con sintomatologia complessa ed esordio prevalente
nell'età pediatrica.
Per quanto riguarda la
diagnosi prenatale, che si effettua sul liquido amniotico o sui villi coriali
prelevati intorno alla decima settimana di gestazione, e la determinazione
dello stato di portatore, vengono ormai effettuati con l'analisi diretta della
presenza della mutazione genetica nel DNA, mediante metodi basati sulla PCR.
Recentemente hanno
ricevuto particolare attenzione quelle che sono state denominate mutazioni
dinamiche da DNA instabile. Infatti è stato evidenziato che, in alcuni
individui, alcuni loci del genoma hanno un numero variabile di dinucleotidi o
trinucleotidi, che talvolta non sono ritrovabili nell’ambito di geni espressi,
per cui sono stati denominati “markers” e che sono altamente polimorfi.
Alcuni di questi loci
con trinucleotidi si ritrovano presso normali geni funzionanti e ne disturbano
l’espressione causando malattie. Finora ne sono stati individuati 11, di cui 7
su autonomi e 4 sul cromosoma X.
Alcuni fenotipi
affetti da distrofia miotonica o da
malattia di Huntington, se presentano tali mutazioni sul cromosoma X,
trasmettono alle successive generazioni la malattia di cui sono affetti che, ad
ogni generazione seguente, compare non solo più precocemente ma risulta
progressivamente più grave.
E’ stato recentemente
notato che anelli di basi azotate possono generare mutazioni spontanee. Infatti
alcuni ricercatori guidati da Olga Amosova, mentre stavano analizzando un gene
coinvolto nell’anemia falciforme, hanno notato che tende a rompersi sempre
negli stessi punti, perdendo una base di guanina. Cercando di risolvere il
problema, hanno scoperto che tale gene contiene una sequenza di 18 basi che
quando i filamenti sono separati, li fa ripiegare su se stessi proprio in quel
punto formando una struttura chiamata “ stem-loop “. Le prime e le ultime sette
basi della sequenza si appaiono fra di loro a fomare lo stelo (stem) in cima al
quale sporge un anello (loop), costituito dalle quattro basi centrali, una di
timina e tre di guanina. E’ una di queste a staccarsi facilmente, causando a
volte la rottura del filamento. Ciò rende il DNA più flessibile ma può anche causare
mutazioni.
Tali ricercatori
ritengono che sia una proprietà comune del DNA, perché nel genoma umano
sequenze simili ricorrono oltre 50.000 volte. Queste sequenze potrebbero quindi
causare malattie ma la loro diffusione fa pensare che la selezione naturale le
abbia favorite perché vantaggiose.
Alcuni geni alterati
non possono essere considerati come direttamente causa di malattia, ma si è
sempre più convinti che possano essere determinanti in alcuni individui che
nella vita vanno incontro più o meno precocemente a malattie complesse. Ne
riferiamo alcuni esmpi:
L’antigene B27
determina un aumento di rischio di 80-100 volte a sviluppare la spondilite
anchilosante. L’antigene DR2 conferisce un aumento del rischio di 30-100 volte
a sviluppare la narcolessia, di 3 volte a sviluppare il lupus eritematoso e di
4 volte la sclerosi multipla,
Inoltre si ritiene che
nelle malattie cardiovascolari, che costituiscono la più comune causa di morte,
possano essere dovute alla interazione di numerosi fattori tra cui giocano
sempre un ruolo importante i componenti genetici. Purtroppo, però, il
meccanismo biologico che ne è alla base, non è ancora del tutto chiarito. (
Haynes 2006 ).
Un altro
importantissimo risvolto è quello
riguardante le malattie autoimmuni, che sono ancora uno dei capitoli più
oscuri della medicina. E’ noto, infatti che alleli specifici sono associati ad
una aumentata suscettibilità a malattie ereditarie come il diabete mellito
insulino dipendente, l’atrite reumatoide, la malattia celiaca, la sclerosi
multipla, il lupus ecc. che sono disordini, su base familiare, caratterizzati
dal fatto che il sistema immunitario attacca se stesso e causa un alterato
funzionamento dei singoli organi attaccati. E’ stato dimostrato, ad esempio,
che il rischio di sviluppare diabete è maggiore nei soggetti con fenotipo
HLA-DR3 oppure DR4.
Come abbiamo accennato
ci sono poi alcune malattie gravi del sistema nervoso, che sono certamente su
base familiare e che son conosciute come come malattie neuro degenerative.
Ricordiamo la malattia di Parkinson, l’Alzheimer, l’epilessia, la malattia di
Huntigton e la sclerosi amiotrofica laterale che son tutti quadri morbosi
caratterizzati da perturbazioni di trasmissione del segnale elettrico che
determinano disturbi della memoria, dei movimenti, della parola, della
comprensione ecc.
Per quanto riguarda la
malatti di Pakinson e l’Alzheimer, l’incidenza aumenta rapidamente con la
vecchiaia ed ambedue le malattie sono caratterizzate da depositi di materiali
estranei ed inclusioni in aree del cervello. In tutte queste malattie
neurodegenerative sono già stati individuati uno o più geni certamente
implicati e si cominciano a delineare i meccanismi biochimici, di conseguenza
alterati.
In alcuni casi è sufficiente
un'analisi di taglio del DNA amplificato con un enzima di restrizione che
riconosce la mutazione. Ma sempre più utilizzati sono i metodi, come quelli
realizzabili con i microarray, che consentono di analizzare contemporaneamente
diverse mutazioni. Infatti, per riuscire a svelare il 90% dei portatori, è
necessario prendere in esame decine di tipi di mutazioni di questo gene, anche
perché, in alcuni casi, è possibile identificare anche più di 30 mutazioni
contemporanee. Entrano quindi in gioco grandi numeri: basti pensare che per
identificare un assetto a due componenti fra 600 variabili, richiede l'esame di
180.000 possibilità e a tre componenti il numero di possibilità arriva a
35.000.000. Ne derivano calcoli statistici abbastanza complessi per interpretare
tutto quello che ne consegue, che rendono sempre più necessaria la
collaborazione con esperti bioinformatici.
La complessità delle
correlazioni fra genotipo e manifestazioni cliniche in molte malattie di
origine genetica, come abbiamo cercato di sintetizzare con gli esempi dell'
anemia a cellule falciformi e la fibrosi cistica ci fa capire l'importanza
della tecnologia dei microarray. Infatti soltanto dall'accoppiamento di questa
tecnologia con l'automazione sarà possibile realizzare i più completi screening
di popolazioni e diagnosticare malattie non solo degli uomini ma anche degli
animali e delle piante che hanno una sicura base genetica.
Un'altra applicazione
importante nell'ambito della genetica umana della PCR associabile con i
microarray è rappresentato dallo studio del sistema HLA ( sistema maggiore di
istocompatibilità che ha reso possibili i trapianti d'organo) costituito da un
insieme di geni localizzati sul braccio corto del cromosoma 6, unico per
ciascun individuo. Grazie a queste tecnologie è possibile conoscere sempre in
maniera più approfondita lo stato dei livelli di polimorfismo dell’ HLA che ha
portato a scoprire numerosi nuovi alleli non identificabili con tecniche
sierologiche e che sono certamente collegabili all' andare incontro, nel corso
della vita, ad alcune malattie, per cui si parla di predisposizioni.
La combinazione delle
due tecnologie, la PCR e l'indagine basata sui microarray, oltre a risultare
utile per lo studio delle malattie autoimmuni e neurodegenerative, può facilitare
la tipizzazione dei tessuti, su cui si basa la clinica dei trapianti. Infatti
la tipizzazione degli alleli, presenti nei loci HLA- DR, DQ, e DP, si è
dimostrata particolarmente importante per determinare le coppie compatibili
donatore-ricevente sia per la scelta dei donatori di midollo osseo che di altri
organi e tessuti.
Questi metodi offrono
vantaggi rispetto alla tipizzazione sierologia e cellulare fornendo una
risoluzione maggiore.
Premesso, quindi, che
con i microarray si ampia moltissimo la possibilità di capire la
predisposizione alle più gravi malattie, riteniamo giusto segnalare un altro
evento degno di nota: già nel 2001, nella sala parto del Reproductive Genetics
Institute di Chicago, è nato un bambino il cui embrione era stato selezionato
geneticamente per non recare i segni di una sgradita eredità paterna, la
sindrome di Li- Fraumeni. Infatti tale malattia è caratterizzata da una
mutazione della proteina p53 che dà origine a tumori multipli nel 50% dei
malati già prima dei 30 anni e si arriva al 90% dopo i 60.
Tale vicenda fu
salutata negli USA come l'inizio ufficiale dell'epoca dei" designer babies
"ed ha sancito anche il raggiungimento di un altro traguardo scientifico
più volte annunciato: l'ingresso a pieno titolo della genetica nella lotta ai
tumori a cominciare da prima della nascita.
La diagnosi della
eziologia specifica di una malattia dovuta ad agenti patogeni penetrati dall'
esterno quali virus, batteri, funghi e protozoi si è finora basata sui seguenti
metodi diagnostici:
1) Identificazione morfologica dell' agente patogeno
isolato.
2) Identificazione dei prodotti del patogeno.
3) Identificazione degli anticorpi verso l'agente
patogeno in causa.
Questi metodi hanno
certamente offerto preziose possibilità diagnostiche ma hanno tutti una serie
di limiti inerenti al loro impiego.
L'esame microscopico
diretto, non è sempre applicabile e, poi, ha scarsa sensibilità e specificità.
La coltivazione dell'agente patogeno in causa, mediante isolamento dal
campione, in taluni casi non è neppure tentato, perché alcuni agenti patogeni,
come i micobatteri della tubercolosi, crescono molto lentamente ed altri
presentano notevoli difficoltà. Finora, infatti, non si è ancora riusciti a
coltivare in vitro alcuni virus molto importanti come i rotavirus, il virus
della epatite C, il virus di Epstein-Barr.
In altri casi la
contemporanea presenza nel campione di antibiotici, assunti dal paziente, crea
un ostacolo all'isolamento o rende difficile il poter discriminare fra ceppi
virulenti e non virulenti.
D'altro canto,
l'identificazione con metodi sierologici, basati sulla valutazione del titolo
anticorpale specifico ha anche alcune limitazioni:
1) Alcuni agenti patogeni non sono sufficientemente
immunogeni
2) Non è sempre facile distinguere fra infezioni pregresse
ed attuali.
3) Non sempre c'è corrispondenza fra la fase d'infezione
attiva e la risposta anticorpale (fase finestra).
4) In taluni casi il metodo non è in grado di
identificare le diverse varianti.
Per fare diagnosi più
precise si è cercato quindi di approfondire la struttura e la composizione
degli acidi nucleici dei diversi organismi patogeni. Infatti nel genoma di ogni
organismo esistono sequenze nucleotidiche specifiche che permettono di
realizzare sempre la identificazione in modo univoco con la tecnica di
ibridazione.
In alcuni casi, ma non
sempre, utilizzando gli anticorpi monoclonali, è possibile anche con metodi
immunologici a cattura, individuare nei campioni agenti patogeni e distinguere
fra diverse varianti.
Ma certamente la
tecnica di ibridazione degli acidi nucleici si è dimostrata non solo
complementare all'approccio immunologico o colturale, ma sempre più spesso
l'unica in grado di dare risposte sicure e complete. Essa permette, infatti, di
identificare direttamente la presenza del genoma ( DNA o RNA ) in un campione
biologico in modo assolutamente specifico, discriminando anche differenze non
riconoscibili con gli anticorpi. Inoltre grazie alla PCR è stato possibile
raggiungere livelli di sensibilità estremamente elevati. Poi la possibilità di
amplificare un acido nucleico presente in un campione biologico grezzo, ha
permesso di risolvere agevolmente molti problemi diagnostici. Infatti, nel giro
di pochi anni, sono stati resi disponibili un numero notevole di sonde e kit
pronti per l'uso per evidenziare gli agenti patogeni che sono causa di varie
malattie infettive. Quindi in un numero sempre maggiore di casi la PCR ha
trovato la sua applicazione elettiva, rispetto ai metodi diagnostici
tradizionali.
Comunque in alcuni casi
si va facendo strada la utilizzazione dei microarray per la valutazione del
campione amplificato o meno:
Quando sia necessario
o utile discriminare ceppi o varianti.
Quando sia necessario
intervenire tempestivamente con una terapia adeguata.
Nella sorveglianza di
infezioni endemiche e a seguito dell'improvviso scoppio di epidemie.
L'isolamento in
coltura è ancora oggi considerato essere il metodo diagnostico più utilizzato
per il maggior numero di infezioni batteriche. Comunque, per una serie di
ragioni, si vanno facendo strada anche metodi diagnostici basati su tecniche di
ibridazione o che utilizzano anticorpi monoclonali, quando si ha a che fare con
agenti patogeni a lento sviluppo o pericolosi da coltivare.
Elenchiamo alcuni esempi
di tali batteri correlati a diversi tipi di infezione:
Apparato genitale Chlamydia trachomatis
Neisseria gonorrhoeae
Treponema pallidum
Apparato respiratorio Mycobacterium tubercolosis
Mycobacterium avium
Bordetella pertussis
Legionella pneumophila
Mycoplasma pneumoniae
Apparato nervoso Neisseria meningitidis
Haemophilus influenzae
Apparato intestinale Salmonella typhi
Shigella dysenteriae
Helicobacter pilori
Clostridium difficile
Multisistemiche Borrelia burgdoferi
Mycobacterium leprae
Enterotoxic E. coli
Molti microbiologi
sono impegnati per capire come i batteri riescano a sviluppare abbastanza
rapidamente la resistenza agli antibiotici. Resistenza significa che
microrganismi, che in origine venivano uccisi da un certo farmaco, improvvisamente
riescono a svilupparsi in sua presenza. Si è visto che la resistenza compare
quando avvengono delle mutazioni nel cromosoma batterico o nei plasmidi che
sono dei supplementi genetici al genoma, perché contengono anche loro molecole
addizionali di DNA. In genere le mutazioni genetiche sono, in risposta ad uno
stress esterno, il risultato di errori avvenuti quando la cellula batterica si
riproduce. Spesso le mutazioni danneggiano le cellule che perciò si sono
evolute in modo da commeterne il meno possibile. Inoltre le cellule sono dotate
di propri sistemi di riparazione per assicurare che il DNA venga copiato con un
numero minimo di errori.
Si è visto anche che
la resistenza tende a diffondersi rapidamente nella popolazione batterica
perché i batteri possono scambiarsi i geni tramite un processo noto come
trasferimento genico orizzontale. Inoltre questi geni con mutazioni possono
accumularsi nelle singole cellule, dando come risultato batteri multiresistenti
ossia resistenti a diversi tipi di antibiotici.
L'approccio genotipico
allo studio della resistenza batterica agli antibiotici permette di esplorare
il genoma batterico direttamente nei campioni clinici e di offrire il risultato
in tempi brevi. Si tende ad identificare il microrganismo paziente specifico
allo scopo di selezionare la terapia in modo particolare per quegli agenti
patogeni per i quali è noto che i diversi sottotipi sono associati a quadri
clinici differenti. Tale metodo è stato già applicato per i sottotipi di
Clostridium difficile, Listeria monocytogenes e Campylobacter jejuni e tende ad
estendersi. Questo approccio metodo logico si è dimostrato importante anche per
le ricerche epidemiologiche permettendo lo studio approfondito di campioni
provenienti da differenti aree geografiche.
Anche per i
micobatteri le tecniche tradizionali per la diagnosi di infezione hanno sempre
sofferto di notevoli limitazioni. Infatti l'esame microscopico diretto è un
metodo rapido ma è aspecifico e poco sensibile mentre l'isolamento colturale
richiede alcune settimane.
Invece con la
diagnostica molecolare sono state individuate alcune sequenze che permettono di
differenziare il M. tuberculosis, patogeno per l'uomo, dai M. avium, M.
intracellulare e da tutti gli altri micobatteri atipici.
Ci sono alcune
infezioni virali, come quelle da HIV 1 oppure le infezioni da
In tali situazioni
cliniche si presenta la necessità di disporre di test per la rilevazione
diretta del virus o dei componenti virati dato che la tecnica per l'isolamento
virale, oltre ad essere lunga e difficile, presenta diversi ostacoli per la
messa a punto con modalità standardizzate.
Per quanto riguarda le
infezioni da HIV
Per i
Un caso particolare
che si presenta abbastanza spesso è quello dell'influenza. Infatti in alcune
aree dell' Asia, dove uomini ed animali vivono molto a contatto, in maniera
promiscua, si verifica il salto di specie dai polli e i maiali con la
improvvisa comparsa di nuovi ibridi, che risultano più virulenti dei ceppi
normalmente circolanti nella popolazione umana e che devono essere rapidamente
individuati e geneticamente studiati per permettere la tempestiva produzione di
centinaia di milioni di dosi di vaccino nel più breve tempo possibile.
Sappiamo che i geni,
che costituiscono i centri attivi dei nostri cromosomi, sono circa 30.000 e
controllano tutte le proprietà strutturali delle cellule. Sono formati,
ciascuno, da circa 10.000 molecole di DNA Sappiamo anche che il DNA è
costituito dall'unione di molecole più piccole chiamate nucleotidi che sono, a
loro volta formati da una delle quattro basi, A, G, C, T, ovvero adenina,
guanina, citosina e timina, da una molecola di zucchero e da un gruppo fosfato.
Ogni cellula del nostro corpo contiene circa 6,5 miliardi di nucleotidi.
E' proprio la sequenza
dei nucleotidi che determina le potenzialità codificanti del DNA. Pertanto
questa precisa sequenza, perché tutto proceda regolarmente, non solo deve
essere perfettamente conservata, ma anche deve essere esattamente copiata e
trasmessa alle cellule figlie tutte le volte che la cellula si divida.
Purtroppo, però, la
vita è espressione di un continuo movimento e di un continuo scambio di
rapporti e di cambiamenti che possono influire sulla struttura del DNA. Infatti
il DNA subisce l'azione sia di una serie di agenti fisico-chimici, presenti
nell'ambiente, che di prodotti del normale metabolismo cellulare, primi fra
tutti i radicali liberi, che possono indurre una varietà di lesioni o
mutazioni. Quindi il DNA può essere danneggiato e le conseguenze sarebbero
molto gravi perché, se non esistessero meccanismi di riequilibrio naturale
automatico, ne deriverebbero sempre, come immediata conseguenza, gravi malattie
degenerative o i tumori. Fortunatamente la cellula possiede vari sistemi di
sorveglianza, denominati appunto check-point, in grado di controbilanciare il
potenziale mutageno e citotossico di tali lesioni, attivando la funzione di
molecole in grado di riparare tempestivamente questi danni. Sono quindi
meccanismi molecolari, geneticamente controllati, che sorvegliano la
progressione del ciclo cellulare in condizioni sia fisiologiche che
patologiche.
La scelta di
utilizzare uno o l'altro dei diversi sistemi di riparazione è influenzata non
solo dal tipo di danno, ma anche dalla fase del ciclo cellulare.
Ne deriva, perciò, che
il cattivo funzionamento di tali meccanismi di sorveglianza provoca un aumento
del numero delle mutazioni e, quindi, alterazioni dei cromosomi che sono alla
base della cancerogenesi. Infatti ci sono geni che regolano i meccanismi di
controllo della proliferazione cellulare ed il loro mal funzionamento, dovuto a
mutazioni, può far si che la cellula, una volta sprogrammata, si divida in modo
incontrollato. La successiva selezione di cellule capaci di una rapida
proliferazione, e, magari, anche di un'aumentata capacità di invadere i tessuti
circostanti, può portare alla formazione di cellule tumorali dotate anche di
proprietà metastatizzanti .
Il sistema di
riparazione più caratterizzato prende il nome di NER ( Nucleotide Excision
Repair ). Tale sistema è efficace in un ampia varietà di lesioni che provocano
una distorsione della doppia elica del DNA e che sono causate da agenti chimici
e fisici. Mutazioni dei geni umani codificanti le proteine del NER sono
associati ad almeno tre malattie genetiche note come lo xeroderma pigmentoso,
la sindrome di Cockayne e la tricodistrofia. Tutte e tre queste malattie hanno
in comune una estrema sensibilità dei pazienti alla luce solare. Gli individui
affetti da xeroderma pigmentoso sviluppano tumori della pelle con un incidenza
oltre 1000 volte superiore a quella dei soggetti normali, mentre gli individui
affetti sia dalla sindrome di Cockayne sia da tricodistrofia, presentano gravi
segni di invecchiamento precoce.
Altri sistemi di
riparazione noti, il cui funzionamento è abbastanza complesso, e che richiedono
sempre il coinvolgimento sia di proteine specifiche sia di altre proteine
normalmente coinvolte nei meccanismi di replicazione del DNA, sono
identificabili con le sigle MMR ( Mis Match Repair ), HR ( Homologous
Recombination ) ed NHEJ ( Non Homologous End Joining ).
L'attivazione del
ceckpoint da danno del DNA, provoca una serie di risposte complesse che non
riguardano solo la progressione del ciclo cellulare, ma anche una rete di
interconnessioni tra diversi aspetti del metabolismo del DNA e l'eventuale
attivazione di un meccanismo di sorveglianza estremo noto come morte cellulare
programmata o apoptosi. La perfezione dei meccanismi naturali fa si che,
qualora la quantità dei danni al DNA sia tale da essere considerata non più riparabile,
la cellula preferisce " suicidarsi ", piuttosto che correre il
rischio di trasmettere alle generazioni successive informazioni genetiche
aberranti.
Quindi un aumento
dell’instabilità genomica attiva sempre una serie di meccanismi di controllo e
di selezione che possono arrivare ad arginare il fenomeno. Qualora l'insieme
delle barriere selettive risulti insufficiente compare la proliferazione
incontrollata e quindi il tumore. Quando però tale aumento sia non solo
incontrollabile ma, addirittura, eccessivo nelle cellule si avvia il processo
di morte programmata.
Le attuali conoscenze
fanno ritenere che le alterazioni genetiche, che modificano la struttura e la
funzione di alcune proteine cellulari, siano implicate nella patogenesi e nella
progressione di numerosi tumori umani. Le mutazioni possono essere germinali, e
quindi presenti in tutte le cellule del paziente, oppure somatiche e quindi
riscontrabili solo nel DNA delle cellule trasformate.
La trasformazione si realizza
tutte le volte che si concretizzi un cambiamento nella morfologia, nella
biochimica o nei parametri di crescita delle cellule. La cellula trasformata è
una cellula fenotipicamente alterata, ma non è detto che sia sempre l'inizio
della formazione di un tumore. L'oncogenesi è un processo multifasico,
complesso di cui la trasformazione può essere solo la prima fase.
L'introduzione di
tecniche di biologia molecolare in oncologia ha permesso di identificare e
caratterizzare alcuni elementi genetici come gli oncogeni, i geni
oncosoppressori, i fattori di crescita ecc. a cui è riconosciuto un ruolo
importante nella genesi e nella evoluzione delle malattie neoplastiche.
L'individuazione e lo
studio, mediante tali tecniche di biologia molecolare, degli elementi genetici
coinvolti in diversi tipi di tumori ha permesso di perfezionare alcuni
parametri diagnostici e classificativi e migliorare l'interpretazione
prognostica, che, ovviamente, è molto diversa a secondo del paziente.
Le principali
applicazioni nella diagnostica oncologica sono:
Lo studio della
suscettibilità ai vari tipi di tumori.
La possibilità di
eseguire il "ritratto genico" che significa poter identificare anche
limitatissimi cambiamenti strutturali nei geni al fine di predire
l'aggressività del tumore.
Il poter individuare
una terapia mirata.
La capacità di
individuare anche minimi residui di malattia dopo un trattamento.
Gli oncogeni sono dei
geni regolatori, individuati in tutte le cellule, che, per mezzo delle proteine
che codificano, regolano, con meccanismi diversi, la crescita delle cellule.
Alcuni di essi hanno una struttura nucleotidica parzialmente simile a quella di
alcuni virus oncogeni. Pertanto da soli o in compartecipazione con altri o, in
maniera complementare rispetto ad altri fattori causali, possono indurre
fenomeni di trasformazione cellulare.
L'accoppiamento della
PCR e dei microarray permette di individuare agevolmente l'insieme e la
frequenza di mutazioni dei geni in vari tipi di tumori. Ne riferiamo alcuni
esempi fra i primi individuati ( Marin 1999 ):
Oncogene |
Tipo
di mutazione |
Tumore |
Famiglia ras |
Mutazioni puntiforn1i (codoni 12,13,61 ) |
Adenocarcinoma ( pancreas, colon, polmone) |
BCR/ abl |
Traslocazione ( 9, 22 ) |
Leucemia mieloide cronica |
bcl-2 |
Traslocazione ( 14, 16 ) |
Linfoma follicolare |
Famiglia myc |
Traslocazioni |
Linfoma di Burkitt |
p53 |
Mutazioni puntiformi Riarrangiamenti |
Carcinomi di colon, polmone, mammella, fegato,
esofago. |
Tale elenco, negli ultimi
anni, ovviamente, si è notevolmente ampliato. Le alterazioni molecolari a
carico di questi oncogeni possono avere un importante valore sia diagnostico
che prognostico, quando individuate in fase precoce della malattia ed anche
essere utilizzate, in alcune situazioni, come marcatore espressione di malattia
residua.
I geni oncosoppressori
rappresentano un' altra importante categoria di geni associati ai tumori.
Infatti le proteine codificate da questi geni sembrano avere un ruolo nel
controllo della proliferazione cellulare. Le mutazioni di questi geni,
generalmente di tipo recessivo, determinano la perdita o comunque l'inibizione
dell'attività genica corrispondente e possono quindi portare alla comparsa di
un tumore fenotipico.
E' molto vasta la
letteratura che attribuisce alla proteina p53 un ruolo molto importante nella
regolazione della replicazione cellulare perché la mutazione anche di un solo
allele del suo gene è sufficiente per determinare una grave perturbazione della
sua normale funzione. In decine di tumori umani del colon, polmone, esofago e
mammella sono state identificate mutazioni di questo gene.
La mutazione del gene
p53, o di altri geni oncosoppressori, possono essere utilizzate come marcatori
precoci di malattia neoplastica e per adottare interventi terapeutici più
selettivi, mirati alle condizioni del singolo paziente.
La definizione dei
dettagli molecolari di tali processi sarà un'area di ricerca di primaria
importanza nei prossimi anni.
La leucemia mieloide
cronica è stata la prima emopatia maligna per la quale è stata identificata
un'anomalia citogenetica di questo tipo. E' noto ormai ( Marin 1999) che nel
95% dei casi si verifica una traslocazione dal cromosoma 9 al 22 che da luogo
alla formazione di un marcatore genetico noto come cromosoma Philadelphia. Il
punto di rottura del cromosoma 9 avviene in corrispondenza del protoncogene
abl, mentre il punto di rottura del cromosoma 22 è localizzato in una zona
ristretta denominata BCR ( Breakpoint Cluster Region ). La fusione del gene BCR
con una parte del gene abl porta alla formazione di un gene ibrido ( chimerico)
BCR/abl, con tutte le conseguenze che ne derivano a livello del trascritto
mRNA, successivamente tradotto in una proteina dotata di attività tirosinasica.
Inoltre è stato dimostrato che si possono realizzare vari tipi di giunzione tra
BCR ed abl., ognuno con un diverso significato prognostico. Infatti il preciso
riconoscimento del tipo di ibrido che si è formato ci permette di capire se la
malattia ha tendenza ad aggravarsi evolvendo verso la fase acuta oppure
continuare ad evolvere lentamente.
Un'altra traslocazione
di notevole interesse diagnostico riguarda i cromosomi 14 e 18 ed è
riscontrabile in un alta percentuale di linfomi di tipo B. Più esattamente un
gene della regione m del cromosoma 14, che codifica la catena pesante delle
immunoglobuline trasloca al posto del gene bcl-2 del cromosoma 18, che codifica
la morte programmata della cellula nota come apoptosi. Ne consegue un'attiva
proliferazione cellulare.
Le tecniche di
biologia molecolare, agevolate dall'uso sempre più apprezzato dei microarray
non solo permettono di identificare rapidamente la presenza della
traslocazione, ma anche di caratterizzare quantitativamente la stessa, fornendo
così un marcatore individuale per ogni singolo paziente.
Alcune neoplasie sono,
per un certo verso, riconducibili a particolari condizioni ereditarie per la
presenza di mutazioni che sono presenti in tutti e due gli alleli di una stessa
regione cromosomica. Si tratta di mutazioni con carattere recessivo che portano
alla comparsa della neoplasia quando tutti e due gli alleli risultino non
funzionanti o vengano inattivati da parte di un gene oncosoppressore.
Il primo caso del
genere individuato è stato quello del retinoblastoma, una rara forma di tumore
oculare pediatrico che compare come conseguenza di mutazioni che si verificano
nel gene RB-1, localizzato nel cromosoma 13. Questo gene codifica una fosfoproteina
che forma complessi multimerici con altre proteine che regolano i cicli
cellu1ari.
La forma familiare di
retinoblastoma è causata da una mutazione ereditaria presente in una sola delle
due coppie del gene, per cui tutte le cellule di questi pazienti hanno un
allele normale ed uno mutato, e da una mutazione somatica che avviene quindi
successivamente solo nelle cellule della retina.
E' nota anche una
forma sporadica di retinoblastoma che compare a seguito di due mutazioni
somatiche avvenute in rapida sequenza nelle cellule della retina.
Anche per altri tumori
si verificano condizioni analoghe, in cui l'ereditarietà gioca un ruolo non
trascurabile come il carcinoma mammario, il carcinoma ovaio, la poliposi
familiare, alcune neoplasie endocrine ecc.
In tutti questi casi
certamente l'accoppiamento delle tecniche di diagnostica molecolare ai
microarray potrà valutare in maniera più precisa la predisposizione dei singoli
soggetti per alcuni tipi di tumori.
I marcatori tumorali
rappresentano una categoria di sostanze, presenti in circolo, che sono
eterogenee sia per l'origine sia dal punto di vista biochimico, ma che possono
costituire un segnale della presenza, della estensione, dello sviluppo di un
tumore o che caratterizzano una neoplasia.
Il marcatore ideale
dovrebbe avere le seguenti caratteristiche: Produzione esclusiva e precoce
nella cellula tumorale. Concentrazione ematica correlata allo stadio della
malattia. Variazioni di concentrazione in relazione all' efficacia della terapia.
Purtroppo nessuno dei marcatori finora identificati riassume tutte queste
caratteristiche ed in particolare l'ipotesi della produzione esclusiva di
antigeni tumore associati non ha trovato finora conferma. Infatti si è visto
che alcune molecole, ritenute esclusive della cellula neoplastica, come il CEA
(antigene carcinoembrionale) o l'AFP (l'alfafetoproteina) sono presenti anche
nei tessuti normali e, quindi divengono espressione della crescita tumorale
solo quando siano riscontrate in circolo a concentrazioni più elevate.
Analogamente per i
marcatori appartenenti alla classe della mucine (CA 125, CA 19-9, CA15-3 ).
Queste glicoproteine,
ricche di carboidrati, rappresentano una normale componente delle secrezioni
ghiandolari, per cui circolano nel sangue in quantità minime. In caso di
patologia neoplastica le alterazioni di alcuni processi che regolano la loro
produzione portano ad un aumento dei loro livelli plasmatici, per cui queste
proteine diventano cosi marcatori della presenza e della gravità del tumore.
Queste acquisizioni
sulla biologia dei marcatori tumorali hanno portato ad una revisione dei
criteri interpretativi ed in particolare del concetto di soglia discriminante (
valore di cut-off ) perché esistono situazioni fisiopatologiche e malattie non
neoplastiche che possono determinare aumenti abbastanza elevati della
concentrazione dei marcatori in circolo.
In base a tali
premesse, oltre al valore di riferimento per il normale, sono stati individuati
almeno altri due livelli decisionali: Un primo livello decisionale inquadra un
ambito di concentrazioni dei marcatori che possono essere riferite sia ad una
iniziale patologia neoplastica o a patologie benigne, sia ad alterazioni
fisiopatologiche di altro genere.
Infatti aumenti del
CEA sono riscontrabili anche in pazienti con epatopatie croniche; aumenti delle
AFP sono riscontrabili anche nel corso di epatopatie benigne; aumenti del CA125
sono rilevabili anche durante il ciclo mestruale ed in gravidanza.
Quindi un secondo
livello decisionale può far sospettare, e in termini probabilistici, la
presenza di valori, del marcatore compatibili con la patologia neoplastica.
Inoltre può non avere molta importanza il solo dato basale di partenza perché
la presenza di un tumore di piccole dimensioni può non determinare aumenti
significativi del livello del marcatore ma si possono poi avere incrementi
significativi solo in un secondo tempo. Ciò è particolarmente importante perché
è provato che lo studio della cinetica di alcuni marcatori ci da la possibilità
di ottenere informazioni cliniche importanti. Per esempio un innalzamento della
concentrazione del CEA nel periodo post operatorio per un carcinoma del colon
retto è un indicatore molto sensibile della comparsa di recidive. Quindi oggi
si da importanza non tanto al dato singolo ed ai livelli decisionali a cui
abbiamo fatto cenno, ma si preferisce l'approccio dinamico, ossia seguire
l'andamento nel tempo. In effetti il marcatore riflette un particolare fenotipo
tumorale, ossia l'attitudine della cellula a secernere e mandare in circolo una
data sostanza, per cui il marcatore si può prestare ad interpretazioni
prognostiche ed a fornire notizie altrimenti non ottenibili.
In conclusione il
dosaggio dei marcatori può risultare utile, a seconda delle circostanze in cui
ci si trova e che possiamo così riassumere:
Screening: Per
identificare talvolta neoplasie in una fase in cui la sintomatologia sia
assente e la massa tumorale cosi piccola e localizzata da consentire un'
elevata aspettativa di sopravvivenza a lungo termine. Comunque, per le ragioni
suesposte, trattandosi di test ancora poco sensibili e non assolutamente
specifici, questo tipo d'indagine può essere attuata ma con molta prudenza.
Diagnosi: L'uso dei
marcatori, per le ragioni suesposte, non ha trovato finora molte realizzazioni
per diagnosticare neoplasie negli stadi iniziali. Un caso particolare è dato
dal PSA nel cancro della prostata i cui alti livelli ematici, se pure non
assolutamente specifici, appaiono abbastanza ben correlati con alcuni sintomi
della malattia.
Prognosi: La
valutazione prognostica di un tumore già diagnosticato è estremamente
importante e molti marcatori sono, a tal fine, di indubbio valore., essendo una
buona spia alla capacità invasiva e metastatizzante del tumore.
Monitoraggio della terapia:
Per questo fine vi sono prove inconfutabili dell'utilità clinica di molti
marcatori. n CEA nel carcinoma del colon retto, il CA 125 nel carcinoma ovario,
il PSA nel carcinoma prostatico sono esempi di marcatori capaci di dare utili
indicazioni sul successo dell'intervento terapeutico sia medico che chirurgico.
Le malattie umane
attualmente note sono circa 35.000 e soltanto circa un terzo è curabile. Questa grossolana
schematizzazione ci dà un’idea di quanto ci sia ancora da fare. Le nuove
conoscenze sono fonte di nuove opportunità: Mai, come oggi, la crescita del
sapere innovativo è stata così impetuosa e la compenetrazione di diverse
discipline così evidente,. I progressi realizzati in termini di possibilità
diagnostiche e la vastissima gamma di nuovi approcci negli sviluppi clinici
sono impressionanti.
L'emergenza dell'
acqua avvelenata come atto terroristico, che tempo fa ci ha angosciato, è forse
terminata ma, mai come in quei giorni, ognuno di noi avrebbe desiderato avere a
disposizione un minianalizzatorie in grado di fornire un responso immediato
sulla qualità del liquido più indispensabile alla conservazione della vita, che
si accingeva a bere.
Ora tutto quello che,
giorno per giorno, si va facendo strada nei laboratori di ricerca ci induce a
pensare che i microarray, in fin dei conti, sono dei veri e propri laboratori
d'analisi contenuti in un singolo chip, in grado di dare risposte anche com
plesse in tempi che saranno sempre più brevi.
Ben presto tali
analizzatori potrebbero essere costituiti da piccole " smart card "
su cui si deporrà una goccia o un campione della sostanza che si vuole
analizzare. Una volta depositata la sostanza, queste schede, andranno
semplicemente inserite, negli slot dei computer, ossia nei normali
alloggiamenti in cui trovano spazio le schede di rete e, a quel punto
compariranno, nel video del computer tutti i componenti chimici del campione in
esame.
Sappiamo che l'agenzia
per la ricerca scientifica del Dipartimento della Difesa degli USA, in
previsione di un attacco terroristico basato su armi chimiche o
batteriologiche, ha finanziato una serie di progetti tendenti a mettere a punto
dei sistemi in grado di svelare la presenza dell'antrace, del vaiolo o del
virus di Ebola con analisi a risposta immediata ed a basso costo.
Non sappiamo quando
questi chip saranno disponibili e come saranno realizzati, ma è certo che molti
passi sono stati fatti verso questo obiettivo. Cerchiamo quindi di analizzare,
più in dettaglio gli sviluppi del futuro a cominciare da quello che, ci sembra,
sia più a portata di mano, trattandosi di tests che stanno rivoluzionando la
diagnostica in importanti settori .
Gli orizzonti deella
genetica diventano sempre più ampi tanto che oggi possiamo affermare che la
genetica contribuisce alla eziologia di quasi tutte le malattie umane. Persino
le malattie infettive, che sono certamente collegabili ad agenti patogeni e
all’ambiente, come la tubercolosi e l’AIDS, recentemente alcuni genetisti hanno
dimostrato come la genetica sia implicata nel determinare la suscettibilità
alle malattie e la severità del decorso. (Bellamy 1998 ; Shields 2001 ).
Ora la possibilità di
mettere in luce il ruolo della genetica nell’eziologia delle malattie,
permetterà di sviluppare terapie più razionali per migliorare la qualità della
vita.
Per le malattie di
tipo Mendeliano, come l’anemia a cellule falciformi, la fibrosi cistica o la
distrofia muscolare di Duchenne, il ruolo della genetica è ben definito perché
l’eziologia è chiaramente collegabile a variazioni di un singolo gene e quindi
l’analisi genetica risulta abbastanza semplice. Per la stragrande maggioranza delle
altre malattie i problemi da affrontare sono molto più complessi.
Per esempio le
malattie cardiovascolari, i tumori e le malatie psichiatriche, non sono
certamente malattie ereditarie, ma certamente sono favorite da una complessa
componente genetica che si sta cercando di chiarire ( Haines 2006).In questi
casi non c’è l’alterazione di un singolo locus, ma si sospetta che più loci
siano coinvolti nel determinare il grado di suscettibilità alla malattia.
Un esempio di
variazione di suscettibilità ad una malattia collegabile ad un’alterazione di
geni si ha nella malattia di Alzheimer. Infatti che in base allo stato di 4
alleli del locus APOE si può prevedere una maggiore o minore suscettibilità
alla malattia ( Corder 1993 ) Ma non sempre lo stato del gene APOE. della
apolipoproteina E, è determinante, perché ci sono anche casi di malattia in
individui che non presentano tale alterazione.
Lo stesso si può dire
per i tumori del seno, che, per i casi riscontrabili in alcune famiglie, sono
stati collegati a mutazioni riscontrabili nel gene BRCA 1 ( Futreal 1994 ),
mentre in altri casi sporadici tale mutazione non c’è.
La maggiore o minore
suscettibilità ad una malattia dipende anche dalla bilinearità dei genitori.
Quando questa manca le possibilità d’interpretazione si fanno più complesse e
la comparsa della malattia in alcuni individui e non in altri è più facilmente
collegabile ai rapporti con l’ambientee.
Certamente i
microarray, che permettono di valutare in parallelo il comportameto di numerosi
geni, o delle proteine derivate, certamente agevoleranno lo studio della
componente genetica di tutte le malattie anche di quelle più complesse.
Al primo posto tra le
patologie oggetto di maggiori ricerche vi sono sicuramente i tumori, anche
perché, per una serie di ragioni, si prevede che i pazienti affetti da questa
patologia, dovrebbero, entro il 2050, raddoppiare. Non a caso, in nessun altro
ambito terapeutico il numero dei brevetti
richiesti è così alto come per la diagnostica e la terapia dei tumori.
Ora, siamo convinti
che l’oncologia sia certamente la branca della medicina che più si avvantaggerà
dalla diffusione dei tests eseguibili con i microarray, perché si potranno
chiarire, in breve tempo, su campioni singoli gran parte delle principali
alterazioni e disfunzioni, sia degli acidi nucleici che delle proteine,
presenti nella cellula sprogrammata.
Attualmente già
conosciamo il difetto genetico di diversi tumori ereditari e conosciamo il
profilo genetico di molti tipi di cellule tumorali.
Infatti, come abbiamo
già riferito, i tumori sono il risultato di un danno al DNA cellulare. Alcune
sostanze tossiche, come l'amianto o i derivati del tabacco, alcuni virus e le
radiazioni ionizzanti sono capaci di alterarlo e di causare mutazioni che
rendono la cellula incapace di percepire i messaggi di autoregolamentazione che
le giungono sia dall'interno che dalle altre cellule, dagli altri tessuti e
dagli altri organi. I tumori sono quindi malattie geniche, causate dall'
accumulo di alterazioni in diversi geni nella stessa cellula.
Certamente ci sono
individui più sensibili di altri perché hanno un genoma predisposto a reagire
con meno efficacia a tali stimoli dannosi, ma è indubbio che lo studio
dell'eziologia dei tumori deve concentrarsi specialmente nel cercare di capire
l' interazione fra i fattori cancerogeni ambientali ed il nostro DNA e capire
la serie di conseguenze biochimiche e funzionali che ne conseguono.
Quindi per attuare una
efficace prevenzione oncologica bisogna sia agire sull'ambiente, come si sta facendo,
per esempio, limitando gli spazi ai fumatori, ma anche puntare ad una
prevenzione più personalizzata.
Potendo oggi conoscere
in maniera sempre più approfondita l'impronta genetica del singolo soggetto
potremo, in maniera sempre più corretta e completa valutare il rischio
individuale per ciascun tipo di tumore.
La possibilità di fare
quello che è stato chiamato il ritratto genico del singolo soggetto, ci da la
conoscenza della struttura del DNA sano o alterato e ci permette di attuare
piani di controllo più specifici e programmi diagnostici e terapeutici più
mirati per ogni singolo soggetto. Qualcuno ha giustamente fatto rilevare che
non esisterà più la malattia ma il malato.
Il laboratorio
giocherà, quindi, un ruolo sempre più importante nell'assistenza ai soggetti a
rischio e ai pazienti neoplastici. Infatti si è passati da un intervento
tardivo e limitato ad interventi sempre più precoci. Si tenderà a diagnosticare
e curare il paziente neoplastico nelle fasi iniziali della malattia, o, meglio
ancora, si cercherà di identificare quanto prima possibile le lesioni
precancerose.
Il ruolo di
battistrada di queste tecnologie è interpretato dal tumore della mammella; da
tempo è noto che alcune mutazioni hanno un rapporto sicuro con la malattia. Già
da anni, almeno nei centri più avanzati, le donne che appartengono a famiglie a
rischio vengono controllate, mentre quelle già colpite vengono trattate
diversamente a seconda del tipo di alterazioni molecolari riscontrate.
Prima i tests duravano
settimane e richiedevano personale altamente specializzato. Ora con i
microarray si riescono ad analizzare nello stesso momento centinaia o anche migliaia di geni e, confrontando le
risposte con le banche dati, i si può non solo avere un responso di massima
molto accurato ma anche in caso di risposta affermativa riguardante il rischio
una classificazione fine che un tempo si otteneva solo quando il tumore era già
comparso ed aveva raggiunto un certo livello di sviluppo.
La lista degli
oncogeni, dei geni oncosoppressori e dei marcatori noti è già lunghissima e si
incrementa ogni giorno di più ed ogni giorno si riesce a capire qualcosa di più
dei complessi meccanismi che regolano il loro potere trasformante e la serie di
conseguenze patologiche che ne derivano. Ormai è evidente che la diagnostica
dei tumori sarà portata sempre più a livello molecolare per valutare
precocemente la comparsa dei marcatori caratteristici che sono espressione di
traslocazioni e riarrangiamenti da cui possono derivare gravi conseguenze.
Sarà possibile:
- Identificare la
presenza di oncogeni e geni oncosoppressori che hanno importanza sia per
interpretare la predisposizione sia per valutare l'aggressività e la tendenza a
metastatizzare.
- Seguire le
concentrazioni di eventuali marcatori circolanti al fine di valutare
l'efficacia degli interventi terapeutici.
Questo lavoro
diventerà sempre più selettivo per cui, già nel prossimo futuro, potranno
essere individuate lesioni pre-neoplastiche molto precoci, attualmente
sconosciute. Esistono già banche dati internazionali che raccolgono le
informazioni riguardanti tutti gli oncogeni noti per cui si sta tracciando il
profilo oncogenico delle diverse neoplasie e si stanno realizzando delle vere e
proprie carte d'identità molecolari dei vari tipi di tumori. Si va realizzando
quindi una diagnostica oncologica in grado di fornire un quadro molecolare
specifico per ogni singolo paziente per seguire i vari approcci terapeutici,
anche perché, ai tradizionali interventi chirurgici, radiologici e
farmacologici si vanno affiancando i primi tentativi di terapia genica, che in
alcuni casi potrebbe diventare risolutiva.
La capacità
diagnostica elevatissima, che con i microarray si potrà realizzare, ci farà
scoprire tempestivamente non solo le lesioni destinate a diventere maligne, ma
anche i tumori del tutto benigni, che potranno essere trascurati o trattati in
modo diverso
Uno degli obiettivi
più importanti che si potrà raggiungere è la possibilità di capire meglio se,
come e quando intervenire.
Infatti oggi si cerca
di attuare su larga scala la medicina percentuale e, in base agli attuali
canoni, molti tumori del seno, della prostata, o della pelle vengono trattati
tutti, senza fare differenza, in modo aggressivo, per evitare il peggio. Un
giorno, forse non lontano, potremo decidere con più cognizione di causa,e, in
base all’identikit molecolare, sottoporre alle terapie più aggressive solo i
pazienti che ne avranno veramente bisogno, con vantaggi per la maggioranza dei
pazienti e per le casse dello Stato.
Al recente congresso su
“ Diagnostic Surgical Pathology “ che ha
riunito a Firenze esperti di 33 Paesi del mondo, è stato ribadito che la sfida
della diagnosi molecolare, che consente di risalire all’anomalia genetica, che
è all’origine della neoplasia, ha l’obiettivo di riuscire prevedere se si
svilupperà e in quanto tempo. Ed è proprio nel corso di tale congreso si è
cominciato a riconoscere che se un uomo su due, dopo i 50 anni presenta un
ipertrofia prostatica, solo il 13% di questi casi si traforma in un vero e
proprio “ cancro”.
Lo stesso si può dire
per i tumori del seno, che sono spesso mastopatie cistiche, perché solo il 20% diventa una neoplasia
maligna che può condurre a morte la paziente.
Oggi non potendo prevedere
l’evoluzione del tumore, tutti questi casi vengono operati o comunque trattati
con terapia radiologica, completata da
prolungati trattamenti chemioterapici ed ormonali costosissimi.
E’ auspicabile che tra
qualche anno, grazie alla diagnostica molecolare, si potranno evitare gran
parte di tali inutili e costosissime torture.
Le più importanti e le
più diffuse malattie allergiche sono l'asma bronchiale e l' oculorinite
allergica, ma ci sono numerose altre sindromi che colpiscono almeno il 15%
della popolazione italiana e ben il 35% delle popolazioni dei paesi scandinavi.
La classificazione più pratica delle malattie allergiche si basa sull'
eziologia. Si distinguono quindi allergopatie da allergeni inalanti, da
allergeni alimentari, da farmaci, da contatto, da veleno di imenotteri ecc.
E, quindi, per
allergeni intendiamo quelle sostanze, o antigeni, in grado di indurre la
produzione di IgE quando vengano introdotte nell'organismo per via inalatoria,
per ingestione, per iniezione o anche a seguito semplice contatto.
Allergia significa
alterata reattività dovuta ad un meccanismo mediato, quasi sempre dalle IgE.
Infatti il soggetto allergico presenta una sintesi elevata, continuativa e
persistente di IgE specifiche per determinati antigeni anche a distanza
dall'esposizione all'antigene stesso. Il principale fenomeno mediato dalle IgE
è la degranulazione dei mastociti o leucociti basofili con conseguente
liberazione di istamina che a sua volta determina vasodilatazione, eritema,
edema, broncospasmo, prurito e tanti altri sintomi che dipendono, ovviamente,
anche dalla localizzazione e dall'intensità dei fenomeni.
Le allergopatie
respiratorie, che sono le più comuni, possono manifestarsi come rinite,
congiuntivite o asma bronchiale, ma il meccanismo che le sostiene è sempre lo
stesso. Sono tutte forme causate dai cosiddetti allergeni inalatori, sostanze
proteiche o glicoproteiche di varia derivazione che rimangono in sospensione
nell'aria e possono, quindi, facilmente venire a contatto con le mucose congiuntivale,
nasale e bronchiale. Gli allergeni respiratori vengono suddivisi in stagionali
e perenni, in base al variare della loro concentrazione ambientale durante il
corso dell'anno.
Gli allergeni dell'
acaro della polvere, i miceti e gli epiteli animali sono perenni mentre i
pollini delle piante sono stagionali.
Gli acari abbondano
nei tappeti, moquette, tendaggi, materassi, cuscini, specialmente in ambienti
caldo umidi.
I miceti più diffusi e
più allergizzanti sono del genere alternaria, aspergillo e cladosporium. Sono
raramente causa unica di manifestazioni allergiche respiratorie.
Gli epiteli animali
derivano dalla desquamazione cutanea o dalla saliva dei cani, gatti e dei
conigli ecc. e tendono a depositarsi e persistere a lungo nell'ambiente anche
dopo l'allontanamento degli animali in questione.
I pollini che più
frequentemente sono causa di allergie nell'area mediterranea sono quelli delle
graminacee, delle urticacee, delle composite che fioriscono in primavera ed
alcune anche in autunno a cui si deve aggiungere anche l'ulivo, la betulla ed
il nocciolo.
Lo stretto nesso tra
presenza dell'allergene e manifestazioni cliniche giustifica l'importanza
pratica del monitoraggio della concentrazione dei pollini nell'aria
atmosferica.
Bisogna, comunque, tener
presente che molti allergeni sono estremamente simili tra loro e quindi possono
interagire con le stesse IgE ( reattività crociata ).
Come gli allergeni
inalanti, così alcuni alimenti, quali latte, uova, cereali, pesci, frutta,
spezie sono in grado di indurre allergie in soggetti geneticamente predisposti.
L'ingestione di questi alimenti può determinare la comparsa di reazioni
orticarioidi accompagnate, o meno, da disturbi gastrointestinali quali dolori
addominali crampiformi e diarrea.
Gli allergeni per
iniezione sono costituiti da farmaci, da prodotti biologici, come il siero
antitetanico, o da enzimi come la streptochinasi. Le reazioni a tali allergeni
possono essere a volta imponenti, fino ad arrivare alle crisi anafilattiche,
ovvero reazioni non protettive ma avverse, che si verificano a breve distanza
di tempo dalla somministrazione e che possono anche essere mortali.
La diagnostica di uso
corrente in allergologia si basa su particolari test volti a dimostrare il
meccanismo IgE mediato. Il dosaggio delle IgE totali, che, per le basse
concentrazioni plasmatiche, si esegue con il test denominato PRIST (Paper Radio
Immuno Sorbent Test ), che è un test radioimmunologico o con tecniche
immunoenzimatiche, è un dosaggio aspecifico che ci dice poco.
Infatti le
concentrazioni delle IgE nel plasma tendono ad aumentare con l'età per passare
dalle 20 UI/ml ad 1 anno ( ogni UI corrisponde a 2,4 ng di IgE ) alle 200 UI
che si raggiungono tra i 5 e 20 anni. Inoltre il 20% dei pazienti affetti da
asma e il 40% dei pazienti con rinite ha livelli di IgE del tutto normali.
Quindi il dosaggio
delle IgE totali, come la ricerca dei leucociti eosinofili nel sangue o nelle
secrezioni sono da considerarsi esami che hanno solo un' utilità complementare.
Pertanto ormai si
tende sempre più ad ampliare le indagini che permettano di rilevare la presenza
di IgE specifiche per i singoli allergeni. Costituiscono pertanto una prova
cardine della diagnostica delle malattie allergiche le prove allergologiche
cutanee. il test consiste nell'iniettare nella cute piccole quantità di uno
specifico allergene, L'eventuale presenza di IgE specifiche per quel
determinato allergene, è rivelata dalla comparsa di eritema, edema e prurito
nell'area dell'inoculazione.
Si tratta comunque di
test molto fastidiosi per il paziente, dato che comunemente se ne eseguono
contemporaneamente alcune decine. Inoltre spesso si hanno risposte crociate per
cui poi devono essere ripetuti a diluizioni, per avere almeno un dato
semiquantitativo.
Le reazioni cutanee
hanno poi un altro inconveniente in quanto espongono il paziente al rischio di
reazioni anafilattiche, che possono essere anche gravi.
Il dosaggio delle IgE
specifiche per i vari allergeni può essere eseguito sia con test
radioimmunologici che con test immunoenzimatici, che sono oltre che specifici
anche molto sensibili.
Il test
radioimmunologico, denominato RAST ( Radio Allergo Sorbent Test ), si basa sul
fatto che l'allergene è fissato su un supporto solido che viene incubato con il
siero del paziente. Se sono presenti IgE specifiche, queste si legano al
rispettivo antigene. Dopo lavaggio, una seconda incubazione con anticorpi anti
IgE radiomarcati, permette di identificare l'allergene o gli allergeni in
causa.
Ma, come abbiamo
accennato, è possibile determinare la concentrazione delle IgE specifiche anche
con metodiche immunoenzimatiche. L'unica differenza rispetto ai test RIA è che
gli anticorpi anti IgE sono marcati con un enzima e si esegue una lettura
colorimetrica o in fluorescenza. Questa semplificazione tecnologica ha reso
possibile una grande diffusione di questi test ed ha permesso di ampliare
notevolmente l'elenco degli allergeni a disposizione dei laboratori che sono
ormai centinaia.
Comunque, dato che il
numero degli allergeni è praticamente illimitato e dato il fatto che, come
abbiamo già accennato, i soggetti predisposti, spesso non sono sensibili ad un
solo allergene ma a gruppi di allergeni, tutto questo potrà portare a favorire
anche in questo settore diagnostico l'uso dei microarray.
Infatti solo con tale
metodica sarà possibile affrontare questa complessa attività diagnostica in
modo globale ma analitico. Dovremmo finalmente riuscire a tracciare, per ogni
paziente allergico, non solo il profilo completo degli anticorpi specifici del
tipo IgE verso i più diversi allergeni ma anche arrivare, per ognuno ad un
dosaggio preciso.
E' molto probabile
anche che questo nuovo modo di affrontare il problema ci porterà sia a fare
diagnosi più complete e non più approssimative, ma anche ad arrivare alla
individuazione della terapia più adatta per i singoli pazienti. Infatti potremo
valutare rapidamente, grazie all'uso dei microarray, associato ai computer, non
solo l'impronta del genoma del singolo paziente, ma anche il comportamento dei
singoli organi e distretti sottoposti agli stimoli allergizzanti dell'
ambiente.
La Joint European
Society of Cardiology, e l' American College of Cardiology Committee for
Redefinition of Myocardial Infarction, in una recente riunione, hanno emesso un
comunicato congiunto per auspicare che:
- Venga accresciuto lo
stato d'allarme per l’infarto del miocardio per l’impatto positivo che può
avere sulla società.
- Si cerchi di
aumentare la sensibilità dei test diagnostici per identificare il maggior
numero di casi di soggetti predisposti ed attuare cosi, in modo sempre più
appropriato, la prevenzione anche al fine di ridurre, è sperabile, il costo
della sanità.
- Si riesca ad
incrementare la specificità dei criteri diagnostici al fine di escludere più
rapidamente i non-casi al fine di ridurre i tempi di ricovero ospedaliero.
Ciò premesso il
comunicato ha auspicato che si individuino nuovi e più specifici marcatori
biologici specifici e che, usati in parallelo, migliorino sempre più la
diagnostica tempestiva e precisa di questa grave malattia.
Infatti, in base ai
dettami fissati nel 1979 dal World Healtb Organisation, la diagnosi di infarto
acuto del miocardio si fa in base alla comparsa di dolore precordiale,
alterazione del tracciato elettrocardiografico e raddoppio, rispetto al limite
di referenza, della concentrazione di almeno due marcatori cardiaci.
Un marcatore cardiaco
ideale dovrebbe avere le seguenti caratteristiche:
- Distribuzione prevalente
nel tessuto cardiaco.
- Alta specificità
cardiaca.
- Alta specificità
analitica.
- Possibilità di
titolazione altamente sensibile e precisa.
- Livelli apprezzabili
che compaiano precocemente dopo l'infarto.
- Livelli apprezzabili
che persistano per un periodo di tempo significativo.
- Possibilità di
titolazione con analizzatori automatici.
La Randox, che ha i
laboratori in Inghilterra e che produce un lettore denominato Evidence ha il
merito di aver prodotto per prima un tipo di microarray con sei marcatori
cardiaci, di cui tre già noti ed utilizzati nella diagnostica già da qualche
anno (Mb, CK-MB, cTn I), e gli altri tre più recenti.
Considerata la grande
variabilità che si ha nell' andamento della malattia nei singoli pazienti
conviene entrare un po' più nel merito ed esaminarli singolarmente:
Mioglobina ( Mb ).
E’ il marcatore più
precoce perché tende a salire già entro le prime due ore dalla comparsa del
dolore precordiale e la concentrazione può salire anche ad oltre dieci volte il
livello normale. E’ un marcatore altamente sensibile ma non specifico perché
sale anche in altre condizioni patologiche che non hanno nulla a che fare con
l'infarto del miocardio. Questa carenza di specificità può, comunque, essere
superata se in parallelo si valutano altri marcatori
Creatinina Kinasi MB ( CK-MB ).
La più alta
concentrazione di questo enzima si ha nel muscolo cardiaco e quindi il trovarne
in circolo un tasso elevato è espressione di danno miocardio specialmente se
aumenta anche l'indice, ossia la concentrazione relativa di questo isomero
rispetto agli altri. E’ il test tuttora più largamente utilizzato per fare
diagnosi di infarto del miocardio, ma, anche questo, non è del tutto specifico,
perché concentrazioni elevate si possono rilevare anche quando si hanno
rigenerazioni di muscoli scheletrici o in caso di insufficienza renale acuta.
Troponina cardiaca I ( cTnI ).
La si ritrova solo nel
tessuto cardiaco degli adulti ed è praticamente assente negli altri tessuti
muscolari e quindi la si può considerare specifica al 100%. I test diagnostici
che la valutano sono molto sensibili ma anche specifici. Potrebbe essere quindi
il marcatore ideale quale espressione di danno del miocardio se la
concentrazione si elevasse più precocemente. Infatti trascorrono 4-8 ore prima
che il tasso salga sopra il limite di riferimento.
Anidrasi carbonica ( CA m ).
Questo enzima è
presente solo nei muscoli scheletrici e nelle cellule epiteliali ed è del tutto
assente nel muscolo cardiaco. Quindi, se associato al test mioglobina, lo si
utilizza come marcatore negativo perché un aumento della concentrazione ci deve
far pensare a danni alla muscolatura scheletrica con esclusione del miocardio.
Bisogna comunque stare attenti nell'interpretazione di questo test perché la
concentrazione può anche salire dopo intensa attività motoria. Quindi la
comparsa di dolore precordiale dopo intensa attività fisica non ci può fare
escludere che si tratti di infarto.
Proteina che lega gli acidi grassi cardiaci ( hh FABP
).
E' una importantissima
proteina a basso peso molecolare, presente nel citoplasma dei miociti, che lega
le lunghe molecole di acidi grassi, che hanno un ruolo di primo piano nel
metabolismo del tessuto cardiaco. Infatti, in condizioni fisiologiche, il
60-90% dell'energia richiesta per realizzare contrazioni regolari è fornita
dall'ossidazione degli acidi grassi da parte dei mitocondri.
La FABP non è
cardiospecifica e quindi non da risultati migliori del test per la mioglobina.
Tuttavia la titolazione eseguita in parallelo al test per la mioglobina ci
permette di ottener un indice significativo. Infatti un basso indice è un segno
di conferma di danno cardiaco.
E' un test molto
sensibile e precoce perché si positivizza già 2-3 ore dopo l'infarto e può
essere eseguito anche sulle urine nelle prime due ore.
Glicogeno fosforilasi (GPBB).
Si tratta di un enzima
che converte il glicogeno in glucosio presente sia nel cervello che nel muscolo
cardiaco e, quindi, è un test relativamente specifico. Ma dato che un aumento
della conversione si ha già all'inizio dell'ischemia, prima che si abbia la
necrosi, è considerato essere un marcatore molto precoce.
In conclusione si può
affermare che questo settore della diagnostica, con i microarray, si sta già
avvantaggiando dalla possibilità di poter valutare in parallelo una serie di
marcatori biologici che offrono un quadro più completo per l'interpretazione
tempestiva dei singoli casi di dolore precordiale.
Lo studio dell'albero
genealogico di alcune grandi famiglie della storia ci da la possibilità di
notare la presenza di un certo numero di soggetti certamente affetti da
disturbi gravi del comportamento che si verificano come prodromi della malattia
di Alzheimer, la schizofrenia e la depressione.
La Malattia di Alzheimer
Un ben caratterizzato
esempio di suscettibilità è quello messo recentemente in evidenza fra il gene
dell’apolipoproteina E e la malattia di Alzheimer.
Questo gene, presente
sul cromosoma 19, ha tre differenti
combinazioni di alleli, note come 2, 3 e 4 che, in molte popolazioni europee,
presentano una frequenza che è, rispettivamente, del 6%, del 78% o del 16%
(Saunders 1993). Questi alleli differiscono nel loro DNA solo per una base a
livello dei codoni 112 o 158.
Ora si è visto che l’alterazione dell’allele 4 porta
certamente ad un aumento del rischio e ad una comparsa più precoce dellaa
malattia, mentre l’alterazione del tipo 2
porterebbe invece ad un’azione protettiva- ( Corder 1994; Farrer 1997).
Non sono ancora chiari i meccanismi biologici
che sono alla base di tali differenti suscettibilità. E’ quindi anche questo un
grande importantissimo settore di ricerca neurologica che si potrà
avvantaggiare della diagnostica molecolare realizzabile con i microarray.
La Schizofrenia
La schizofrenia è una
malattia mentale che va vista come un dissesto nelle interazioni nervose e che
è caratterizzata da confusione mentale, allucinazioni visive ed uditive,
abnorme modo di parlare, faccia priva di espressione, occhi semichiusi, non
rispondono ad alcuno stimolo ed altri variabilissimi sintomi comportamentali.
Sono soggetti che si sentono spiati e perseguitati e che hanno una serie di
reazioni negative come il rifiuto del cibo o il trattenimento forzato dei
bisogni corporali. In altri casi l'ammalato ripete movimenti senza senso o
ripete le parole altrui, obbedendo a qualsiasi comando.
Si possono avere
sintomatologie acute e sintomatologie croniche che, se non curate, possono
portare alla demenza.
E' una malattia che
colpisce circa 1 % della popolazione mondiale ed è presente in tutte le
popolazioni e in tutte le razze. il fatto che compaia più di frequente in
alcune famiglie fa pensare ad una componente ereditaria che coinvolga uno o più
geni. Infatti, dalle prime ricerche fatte a livello genetico, si è visto che
nelle persone affette da schizofrenia sono meno attivi molti geni importanti
per la trasmissione dei segnali intercellulari. Ma si è convinti che l'eredità
genetica rappresenti solo un fattore di predisposizione alla schizofrenia, per
cui taluni fattori ambientali possono essere scatenanti in soggetti
predisposti. L'esistenza di numerosi geni che predispongono alla malattia
potrebbe contribuire a spiegare l'eterogeneità dei sintomi riscontrabili fra le
persone e perché su alcune sono efficaci le terapie che agiscono sul
metabolismo della dopamina mentre per altre è meglio intervenire su altri
neurotrasmettitori.
Comunque le basi
biochimiche della schizofrenia sono ancora poco note. Si ritiene che uno dei
meccanismi patogenetici sia, appunto, uno squilibrio nella concentrazione di
alcuni neurtrasmettitori come la dopamina perché la clozapina, che è un
bloccante di questa molecola, risulta abbastanza efficace in alcune forme. Un
altro neurotrasmettitore, chiamato in causa più di recente, è il glutammato, i
cui ricettori hanno un ruolo critico nello sviluppo del cervello, nell'
apprendimento, nella memoria e nella elaborazione dei segnali nervosi in
generale.
Nel complesso, però, è
una malattia di cui sappiamo ancora molto poco e la cui terapia presenta molti
lati oscuri anche perché, come abbiamo già accennato, i pazienti rispondono
alla terapia in modo molto diverso gli uni dagli altri.
Quindi il poter
disporre oggi della completa sequenza del genoma umano ci da la possibilità di
porci una serie di domande a cui tra non molto sarà possibile dare risposte
adeguate:
Quali sono le
differenze fisiologiche a livello genico fra gli individui normali e quelli
affetti da schizofrenia?
Quali sono le basi biochimiche
dei fenomeni che caratterizzano la malattia?
Su quali ricettori
agiscono i farmaci antipsicotici ?
Perché alcuni farmaci
provocano in alcuni individui effetti secondari tali da sconsigliarne l'uso?
La Depressione
Sono milioni i
soggetti adulti, specialmente donne, che ricorrono al medico per sintomi che
riguardano il modo di sentirsi, di pensare, di comportarsi. I sintomi più
comuni sono la cefalea, il senso di stanchezza, la mancanza di appetito, una
visione del futuro talmente oscura o negativa da indurre al suicidio. In alcuni
soggetti si alternano periodi di depressione con altri esattamente opposti di
esaltazione apparentemente ingiustificata.
Anche per questa
malattia si sospetta, anche se finora non sono stati individuati, la presenza di
alterazioni a livello genico che determinino l'alterato funzionamento di alcuni
neurotrasmettitori. Ci si domanda:
Quali geni
conferiscono la predisposizione a tali manifestazioni cliniche?
Quali sono le
disfunzioni geniche più comuni che sono alla base delle forme cliniche più
gravi ?
Cosa c'è alla base
della particolare sensibilità di questi soggetti ad alcuni stimoli
dell'ambiente?
I farmaci anti
depressivi che oggi si adoperano risultano efficaci solo in alcuni soggetti,
perché?
Quando i medici potranno
disporre in maniera estensiva delle risposte dell'analisi molecolare che ci
metterà in luce le differenze a livello del DNA, RNA e delle proteine che sono
coinvolte a valle, le prescrizioni terapeutiche potranno essere più precise.
La diffusione dei microarray,
come metodo d'indagine, favorirà certamente questa evoluzione.
Negli ultimi anni,
epidemie di malattie come l’influenza aviaria, la SARS, la febbre emorragica di
Ebola hanno giustamente allarmato l’opinione pubblica e messo a repentaglio gli
scambi commerciali, provocando ingenti perdite economiche. Tutte queste
malattie hanno avuto origine negli animali e si sono poi diffuse negli esseri
umani. Ora, secondo stime recenti, più del 60% delle 1415 malattie infettive
note alla medicina contemporanea riguarda
sia gli uomini che gli animali e si tratta perlo più di infezioni virali
che si trasferiscono dall’animale all’uomo e, quindi sono tutte accomunate
della capacità di superare la barriera di specie.
L’attuale vicenda
dell’influenza aviaria, un infezione virale che, come si ritiene sia accaduto
anche in passato, sta gradualmente adattandosi dai volatili ai felini e
all’uomo, ha ribadito la necessità di una collaborazione sempre più stretta fra
specialisti di patologia umana e animale al fine di capire come un agente
patogeno attraverso una serie di mutazioni del proprio genoma riesca creare le
premesse per render possibile il salto di specie
Gli uomini stanno
creando le condizioni ideali per la diffusione di tali malattie virali sia con
la caccia e l’allevamento che con lo sviluppo del turismo e degli scambi
commerciali.
La grande maggioranza
degli abitanti, in ogni angolo del pianeta, macella animali per cibarsi della
loro carne o la acquista, fresca, salata o affumicata in mercati all’aperto e
in codizzioni igienico-sanitarie talvolta deprecabili.
Anche la domanda di
animali da compagnia, talvolta di provenienza esotica, favorisce le zoonosi.
Casi mortali di influenza avairia si sono verificati in gatti, tigri e
leopardi, sia in Asia che in Europa, malgrado il numero dei felini finora
deceduti sia ancora fortunatamente limitato, si pensa che, se la loro
sensibilità al virus aviario dovesse aumentare, sorgerebbero notevoli problemi.
Il pericolo che, prima
o poi il virus dell’influenza aviaria scateni una pandemia influenzale umana,
ha oscurato la pandemia in atto, da oltre vent’anni, quella di AIDS. Infatti
anche l’infezione da HIV può può essere
considerata una zoonosi, perché, si è sempre più convinti che il virus
dell’immunodeficenza umana sia stato trasmesso all’uomo dalle scimmie
antropomorfe. Infatti, studiando i genomi si è visto che il parente più
prossimo del principale virus umano, che è il virus HIV-1 è proprio il virus
dell’immunodeficenza delle scimmie ( SIV ), molto diffuso tra gli scimpanzé, le
cui carni sono comunemente ritenute non
solo commestibili ma anche pregiate da molte popolazioni africane..
A 25 anni di distanza,
quello che appariva un fatto notato solo dagli epidemioligi, è diventata la più
grave epidemia degli ultimi decenni con decine di milioni di morti e con circa
40 milioni di sieropositivi, di cui il 90% è di età compresa tra 15 e 49 anni.
Purtroppo la maggior
parte delle persone sieropositive, scopre di essere affetta solo alla comparsa
dei primi sintomi della malattia, non ritenendo di aver avuto mai comportamenti
a rischio e, non sapendolo, non considera neppure il rischio di infettare gli
altri.
Ora vediamo che mentre
le mutazioni che avvengono nei genomi dei virus sono relativamente frequenti,
fortunatamente, i salti di specie coronati da successo sono piuttosto rari il
che fa intuire quanto sia complessa la
serie degli adattamenti necessari per realizzare il salto di specie e
raggiungere nella specie umana un ritmo di trasmissione decisamente elevato.
Certamente con i
microarray riusciremo a capire più facilmente come e perché alcuni agenti
patogeni riescano a varcare la barriera di specie e quali sono e come si
allineano la serie delle mutazioni che si possono verificare sia nell’agente
patogeno che nelle cellule del ricevente, perchè tale salto di specie si possa
realizzare..
L’pidemiolgo Tony Mc
Michael ( 2002), ha recentemente scritto che gli esseri umani sono
inestricabilmente legati al mondo naturale, un ambiente contraddistinto dalla
competizione e dalla simbiosi tra organismi grandi e piccoli e che, via via che
aumentano le proporzioni del cambiamento demografico e dell’ impatto umano
sull’ecosfera, crescono parallelamente le possibilità che taluni agenti
patogeni di origine animale riescano a superare la barriera di specie ed
infettare l’uomo.
Il rischio di
trasmissione interspecie di malattie infettive può essere ridotto solo
adottando programmi coordinati e misure di prevenzione che coinvolgano
specialmente le regioni del pianeta in cui il commercio e il turismo hanno
notevolmente incrementato i contatti fra uomini e specie animali selvatiche,
Si impone anche
un’accurata e tempestiva sorveglianza nell’individuare focolai infettivi nelle
varie specie animali anche selvatiche al fine di mettere a punto, in tempo risposte adeguate sia di tipo terapeutico che
profilattico. Siccome ciò che accade in una parte anche remota del globo può
avere serie ricadute sul resto del pianeta questo presuppone che si instauri una efficiente collaborazione sia tra i
governi che tra gli enti in grado di
fornire informazioni tecnologiche.
E’ anche, comunque,
molto importante stabilire legami sempre più stretti fra le varie discipline
scientifiche coinvolgendo medici, veterinari, virologi, genetisti e biologi molecolari.
La scoperta, avvenuta
nel 1902, dei gruppi sanguigni ABO ha messo a disposizione dei giudici i primi
marcatori genetici che possono aiutare ad identificare o escludere sospetti
criminali.
In seguito questo
concetto di identificazione biologica è stato esteso alla determinazione di
parentela, in particolare per dispute di paternità.
Negli anni successivi,
molti altri marcatori genetici, basati sull'identificazione di polimorfismi di
proteine sieriche, enzimi eritrocitari o antigeni leucocitari, sono stati
proposti ma non hanno avuto molto seguito perché le proteine sono instabili e
quindi vanno incontro facilmente a degradazione nei campioni forensi.
Questo spiega il
successo che ha avuto, più di recente, l'idea di tipizzare i campioni forensi
mediante l'analisi del DNA. Infatti il DNA si trova in tutti i campioni
biologici, è notevolmente stabile ( in alcuni casi è stato possibile tipizzarlo
anche su campioni risalenti a millenni ), e contiene un numero praticamente
illimitato di siti polimorfici che rendono possibile una identificazione
biologica unica. Infatti, fin dal 1985, sono state identificate quelle che sono
state giustamente denominate impronte digitali del DNA ( fingerprints ), in
quanto sono individuo specifiche. Si tratta di sequenze di DNA ripetute in
tandem, ovvero l'una dietro l'altra, che contengono fino a poche centinaia di
kb, che si possono trovare con notevole frequenza ( fino a 200-300 ) nel genoma
umano, che sono prese in esame per la tipizzazione molecolare.
Integrando le indagini
con l'uso della PCR, è poi possibile analizzare, con estrema specificità minime
quantità di DNA presenti in campioni anche di saliva, sperma, mozziconi di
sigarette, colla dei francobolli ecc.
Sono oggi noti diverse
migliaia di marcatori polimorfi del DNA umano, disponibili come sonde
utilizzabili in vitro. La possibilità di trovare alleli identici in due
individui è tanto minore quanto più è alto il numero dei loci polimorfici
analizzati. Il numero dei marcatori necessari per una tipizzazione del DNA non
è standardizzato e dipende dall' eterozigosità e dalle frequenze alleliche di
ogni locus.
I microarray potranno
certamente dare un importante contributo per rendere più versatili ed
affidabili queste analisi molecolari per la tipizzazione individuale, sempre
più utilizzate per le applicazioni forensi.
E' una grande sfida
perché in base al nostro stile di vita possiamo fare molto non solo per vivere
più a lungo ma anche per preservare il benessere sia fisico che mentale. La
moderna medicina, negli ultimi decenni ha fatto tali e tanti progressi che
ciascuno di noi, ogni tre anni di vita vissuta ne ha guadagnato un altro grazie
a tante scoperte, a mezzi diagnostici sempre più sensibili e precisi, a tanti
farmaci nuovi e ad interventi terapeutici più sofisticati ed un miglioramento
delle condizioni igieniche.
Gli esseri umani sono
delle macchine biologiche guidate dai geni ma che devono rispondere non solo
alle istruzioni impartite dal genoma ma anche a tutti gli impulsi che vengono
dall'ambiente e che si integrano in ciascun individuo determinando il fenotipo,
ossia quello che ciascuno di noi esattamente è. La risultante di questo
miscuglio, di questo intreccio, determina il nostro benessere, la
predisposizione alle malattie, il nostro comportamento mentale, la nostra
longevità e, quindi, tutto l'evolvere della nostra vita.
Ma, malgrado tante
malattie siano state identificate, studiate e curate, malgrado si sia capito
come e perché il fumo, le droghe e l'abuso di alcol facciano male, mentre
l'attività fisica faccia quasi sempre bene, le nostre conoscenze, in molti
campi e per molti problemi, riguardanti il nostro benessere, risultano ancora
parziali e frammentarie, se non, addirittura, limitatissime. Questo perché, finora,
la medicina, malgrado tanti progressi, non era in grado di capire cosa
succedesse a livello del genoma, ossia a livello della torre di controllo da
cui partono tutti gli impulsi e la miriade di segnali che coordinano e
determinano ogni espressione della nostra vita minuto per minuto.
Ora ci sono tutte le
premesse per rivoluzionare, entro qualche anno, tutta la pratica medica perché
ogni aspetto sia fisiologico che patologico della nostra vita potrà essere
valutato a livello molecolare. Infatti ora che ci è nota la struttura del
genoma e che stiamo per capire le funzioni dei singoli geni nel produrre e
coordinare le l'attività delle proteine, l'introduzione sempre più diffusa e
capillare dei microarray, darà la possibilità al medico di arrivare alla diagnosi
e alla terapia con un livello di informazioni di gran lunga molto maggiori di
quelle attuali.
Inoltre la
collaborazione fra i ricercatori ed i medici curanti, disponendo di un quadro
molto più completo e profondo sia dello stato fisiologico che di quello
riguardante i singoli quadri morbosi, porterà certamente a perfezionare e a
rendere più corretto ed efficiente il sistema sanitario di ogni comunità.
Il medico oggi fa un
esame fisico del paziente, controlla i riflessi, la pressione, la frequenza del
polso, esamina i risultati del laboratorio di analisi concernenti i livelli di
alcuni analiti, i referti del radiologo e poi fa la diagnosi.
Ma siamo ad una svolta
perché, per capire veramente a fondo chi è veramente il paziente che gli sta di
fronte gli manca un'analisi molto importante, quella molecolare che gli può
offrire informazioni dettagliate sia sul quadro genetico sia sul funzionamento
delle cellule dei vari distretti sotto esame.
La tecnologia dei
microarray potrà sopperire a tale carenza. Basterà un piccolo campione di
sangue per inquadrare meglio ed approfondire non solo i vari quadri morbosi ma
anche come ciascuno di noi risponde a vari stimoli positivi come le attività
sportive o negativi quali il fumo, le droghe, l'inquinamento ecc.
Capire quali siano e
come agiscano i geni coinvolti nel processo d’invecchiamento potrebbe cambiare
la nostra vita. Ora, mentre è facile valutare con buona approssimazione lo
stato di un auto usata a partire dall’anno di fabbricazione e dal chilometraggio
fatto, per tutti gli esseri viventi, e quindi anche per l’uomo, c’è una
differenza cruciale perché il decadimento dovuto al passare del tempo non è
inesorabile in quanto quasi tutti i
sistemi biologici hanno la capacità non solo di reagire all’ambiente,
sfruttando le proprie forze, ma anche di autoripararsi.
Fino a qualche anno fa
si pensava che l’invecchiamento non fosse soltanto una forma di degenerazione
ma la prosecuzione attiva dello sviluppo geneticamente programmato di un
organismo. Al raggiungimento di una certa età, i geni dell’invacchiamento
avrebbero cominciato a guidare il cammino dell’individuo verso la tomba.
Invece, recentemente Sinclair e collaboratori (2005), hanno scoperto un gruppo di geni, coinvolti nelle capacità
di affrontare gli stress ambientali e di conservare intatte le naturali
attività di difesa e di riparazione dell’organismo, a dispetto del passar degli
anni. Questi geni, ottimizzando il funzionamento del corpo ai fini della
sopravvivenza, permettono di superare più facilmente le crisi e, migliorando
notevolmente le condizioni di salute dell’organismo, riescono ad allungarne
l’arco della vita. In pratica, quindi, sono l’opposto dei geni
dell’invecchiamento, ma possono, a buon ragione definirsi “ i geni della longevità”.
Questa ricerca,
iniziata con i lieviti, ed estesa poi alle cavie che nella scala biologica sono
abbastanza vicine all’uomo, ha permesso
di scoprire taluni geni denominati DAF 2, PIT-1, AMP-1, CLK-1, P66 e SIR2 che codificano
una serie di meccanismi fondamentali di sopravvivenza alle avversità
ambientali, aumentando la longevità. Di questi il più studiato nei lieviti è il
SIR2, che controlla la durata della vita del lievito ed ha messo in evidenza
che l’enzima che codifica è responsabile degli stessi benefici ottenibili con
la restrizione calorica. Il corrispettivo nei mammiferi del SIR2 è il SIRT1, da
cui deriva una famiglia di enzimi, che agiscono in varie zone delle cellule,
influenzandone la longevità, e che hanno
preso la denominazione di “ sirtuine ”.
La sirtuina
codificata da SIRT1 deacetilando altre
proteine ne altera il comportamento, Dato che molti dei suoi bersagli sono
fattori di trascrizione che attivano direttamente i geni, oppure sono
regolatori di questi fattori, riesce a
controllare una vasta serie di funzioni cellulari importantissime. Ne
ricordiamo alcuni:
- Fox 01, Fox 03 e
Fox04 sono fattori di trascrizione di geni coinvolti nelle difese cellulari e
nel metabolismo del glucosio.
- Istoni H1, H3,e H4
controllano l’impacchettamento del DNA nei cromosomi.
- Ku70 è un fattore di
trascrizione che promuove le riparazioni del DNA e la sopravvivenza cellulare
- Myo D è un fattore
di trascrizione che stimola le riparazioni sia dei muscoli che di altri tessuti
- NF-Kb è un fattore
di trascrizione che controlla i processi infiammatori, la crescita e la
sopravvivenza cellulare.
- P53 è il fattore di
trascrizione che innesca la morte programmata delle cellule danneggiate.
Le sirtuine finora individuate
nei topi sono almeno 6 e si sta cercando di capire se tutte abbiano
un’influenza sulla longevità. Lo studio delle sirtuine umane è ancora agli
albori e ci vorranno certamente molti anni ancora per capire in che modo i geni
delle sirtuine condizionino la longevità umana.
Ma a lungo termine si
può essere fiduciosi che si riusciranno a svelare i segreti dei geni umani associati alla
longevità e che ciò non solo ci faciliterà la cura delle malattie associate
all’invecchiamento ma addirittura probabilment ci permetterà d’impedirne
l’insorgenza.
Le attività
sportive.
Certamente, possiamo
dire che, le varie attività sportive come la corsa, il nuoto, il canottaggio,
l'andare in bicicletta, sciare ed anche il semplice camminare a passo svelto
attivino la circolazione ed il metabolismo e, quindi, nel complesso, fanno
bene. Sappiamo anche che influiscono favorevolmente sul livello della pressione
arteriosa, sulla concentrazione del colesterolo nel sangue, sul peso corporeo
e, di conseguenza, abbassano il rischio di malattie cardiovascolari che, da
sole, causano il 40% della mortalità umana. Un regolare esercizio fisico
promuove un senso di benessere e di vigore e pertanto è buona norma praticarlo
se si desidera fare di tutto per star bene.
Ma, oggi ci domandiamo,
quali sono i cambiamenti che avvengono a livello genico durante anche un
moderato esercizio fisico? I diversi esercizi fisici producono differenti
modifiche a livello fisiologico? E' possibile correlare meglio le differenze
fisiche dei vari individui con i vari tipi di sport, valutando l'attività di
particolari gruppi di geni?
Entro un tempo
relativamente breve sarà possibile dare una risposta a queste domande perché
qualcuno sta già pensando ai " fitness chips ", Infatti si sta già
cercando di produrre microarray che rendano possibile capire come particolari
gruppi di geni si attivino e cosa succeda a livello molecolare nel corso di un
esercizio fisico. E quindi sarà possibile rendersi conto, in modo molto più
approfondito, del perché l'esercizio fisico determini i suoi benefici effetti.
La selezione dei
giovani per i vari sport potrà essere fatta con completa cognizione di causa ed
effetto perché sarà possibile valutare con dati molto più precisi e completi la
predisposizione alle singole attività sportive.
La nicotina, che è la
più importante sostanza bioattiva presente nel tabacco, è un alcaloide
strutturalmente simile alla caffeina. Si scioglie facilmente nel muco presente
nei polmoni, entra nel torrente circolatorio e raggiunge il cervello dove,
facendo salire il livello dell'acetilcolina e delle endorfine, determina un
effetto psicoattivo che sì manifesta con una soffusa sensazione di euforia.
Siccome però la emivita della nicotina è piuttosto breve, il fumatore, per
prolungare tale effetto è indotto a fumare una sigaretta dopo l'altra con una
certa cadenza.
Oggi, però, c'è la
dimostrazione statistica dei disastri prodotti dal fumo sulla nostra salute. Si
calcola che in Italia ogni anno muoiano 80.000 persone per malattie connesse
direttamente al fumo. Infatti il Piano Sanitario Nazionale 1998- 2000 informa
che il fumo è responsabile del 90% di tutte le morti per tumori polmonari, del
66% delle morti per bronchiti croniche e del 25% delle morti per malattie
cardiovascolari. Il rischio di ammalare cresce con il numero di sigarette
fumate e, per annullare i danni da fumo, sono necessari ben 15 anni di
astensione.
Infine è da
sottolineare anche l'importanza del fumo passivo: Infatti il fumatore non solo
fa male a se stesso ma anche alle persone che convivono perché il fumo passivo,
respirato involontariamente dai presenti, si è dimostrato nocivo nell'indurre
le stesse malattie nei non fumatori in relazione all'intensità dell'esposizione
che, ovviamente, è massima tra le mura domestiche.
Quindi, dato che il
fumo è la più elevata causa di morte che si potrebbe prevenire, pensiamo che
valga la pena di approfondirne causa ed effetti a livello molecolare. Numerosi
sono i quesiti che potrebbero essere chiariti:
Quali sono le sequenze
geni che incoraggiano a fumare?
Quale è lo spettro dei
geni coinvolti dall'esposizione alla nicotina?
Per quale ragione
differiscono tanto le risposte dei singoli individui alla nicotina?
Quali sequenze geniche
predispongono ai tumori polmonari, all'arterosclerosi o ad altre malattie
collegate al fumo?
Quali potrebbero
essere gli interventi terapeutici a livello genico?
I microarray possono
aprire la strada per dare una risposta a tali quesiti come a molti altri
interrogativi connessi per identificare i pazienti ad alto rischio. E'
auspicabile quindi che si avvii la produzione e la utilizzazione di microarray
dedicati che, infatti, Schena ( 2000 ) ha già denominato gli "smoking
chip".
Il vino, la birra e le
altre bevande alcoliche, se consumate con moderazione, hanno un effetto
positivo nel senso che si possono considerare dei cibi che ci fanno sentire più
loquaci ed espansivi e ci danno una sensazione di benessere che favorisce in
alcuni soggetti la socializzazione ed in altri la sonnolenza.
Ma l'uso smoderato è
certamente terribilmente dannoso perché determina diminuzione della
coordinazione motoria, riduzione dell'attenzione fino alla perdita di
coscienza. In conseguenza di tali disturbi aumenta la facilità a causare
incidenti stradali ed a subire infortuni sul lavoro. Inoltre si è più
facilmente esposti a cadute con possibili fratture ed ematomi cranici tanto che
si è calcolato, che l'alcolismo può abbreviare la vita anche di 10 anni. Negli
USA, ogni anno, sono non meno di 100.000 le morti che sono direttamente
collegabili all'abuso di bevande alcoliche.
E' stata studiata la
componente ereditaria evidente in alcune famiglie, ma si tratta di un problema
molto complesso che coinvolge l'azione dei geni ma anche molti fattori
ambientali. Quindi, anche in questo caso, è auspicabile approfondire i
meccanismi molecolari per cercare di chiarire tutta una serie di interrogativi
quali:
Perché alcuni
individui sono predisposti all'abuso dell'alcol e non altri?
Come l'azione dei geni
si integra con quella dell'ambiente nel causare l'alcolismo ?
Quali sono le basi
biochimiche dell'intossicazione ?
Attraverso quali
meccanismi l'alcol può arrivare a danneggiare in maniera irreversibile alcuni
centri nervosi?
Si possono individuare
stili di vita o terapie che riducano l'incidenza dell' alcolismo?
I microarray sono il
mezzo ideale per individuare i soggetti predisposti, per studiare le deviazioni
funzionali che si verificano a livello cellulare negli alcolizzati e per
valutare l'efficacia dei diversi trattamenti possibili.
Cocaina, eroina, LSD,
ed altre sostanze simili appartengono alla grande famiglia degli alcaloidi che
sono piccole molecole contenenti azoto che esercitano la loro azione
psicoattiva alterando le funzioni biochimiche del cervello. Più precisamente
rallentano la funzione dei neurotrasmettitori quali la serotonina, la dopamina
e la norepinefrina che, a loro volta, esercitano una profonda e complessa
azione sull'espressione di alcuni geni.
Il problema sociale è
imponente specialmente negli USA dove si calcola che circa il 50% della
popolazione adulta ha fatto uso di droghe almeno una volta nella vita e c'è
circa mezzo milione di pazienti che sono sotto trattamento presso i centri
specialistici. C'è poi un altro aspetto da prendere in considerazione e che ne
aggrava le conseguenze. E' ormai assodato che i soggetti che fanno uso di
droghe, che, per oltre il 70% hanno un età compresa fra 21 e 44 anni, si
ammalano molto più facilmente di AIDS, epatite e tubercolosi.
Ciò premesso, ci si
pongono una serie di domande a cui ormai la medicina molecolare potrebbe dare
una risposta esauriente:
Quali sono i ricettori
cellulari a cui si legano le droghe?
C'è una base genetica
e biochimica nei fenotipi inclini all'uso delle droghe?
Ci sono soggetti
predisposti?
Quale è lo spettro
delle modifiche dell'espressione genica che consegue all'uso delle varie
droghe?
Fino a che punto può
influire anche l'ambiente a livello biochimico?
Quali sono le
alterazioni che si instaurano a seguito di un uso prolungato? Perché alcuni
soggetti le tollerano meglio di altri ?
Ci sono già diversi
gruppi di ricerca che fanno uso dei microarray per approfondire questi problemi
e che hanno già individuato alcune dozzine di geni implicati in tutta questa
tematica, ma siamo solo all'inizio di un grande lavoro che è tutto da compiere.
Sono due gravi
disturbi del comportamento alimentare presenti per lo più in donne giovani ma
che sono in crescita anche negli uomini giovani.
L'anoressia è
caratterizzata da un'apparenza emaciata, notevole perdita di peso corporeo e
malnutrizione derivante da intenzionale tendenza a non voler mangiare
correttamente e regolarmente.
La bulimia è anche
prevalente nelle donne giovani ed è caratterizzata invece dall'ingestione di
grandi quantità di cibo i cui effetti, sul peso corporeo, sono però, talvolta,
annullati ingerendo lassativi o purganti o provocandosi il vomito.
Segnali d'allarme sono
l'entità e la rapidità della perdita di peso, la polarizzazione ossessiva della
mente sul binomio cibo-corpo, la tendenza ad isolarsi ed, in alcuni casi,
l'interruzione del ciclo mestruale .
Quali sono i
cambiamenti che si realizzano a livello molecolare con diete troppo severe?
Riteniamo che l'uso
dei microarray ci darà la possibilità non solo di diagnosticare precocemente
queste gravi forme comportamentali ma anche di individuare, caso per caso,
l'intervento terapeutico migliore.
I genomi sono strutture
estremamente complesse e la selezione, l’unica cosa che è in grado di fare è
determinare il successo di un individuo.
Ma molte sono le novità che, negli
ultimi anni hanno fatto il loro ingresso nella biologia evoluzionistica. Si è
visto che le varie specie, sono in continua evoluzione per i continui
cambiamenti che si verificano nei
patrimoni genetici. Ma non tutti questi cambiamenti influenzano
direttamente il ciclo evolutivo, perché
alcuni determinano semplici fluttuazioni che si verificano in tutte le specie.
Si è notato che le
mutazioni veramente nuove avvengono quasi sempre in popolazioni composte da
pochi individui, perché solo le popolazioni di piccole dimensioni sono
abbastanza instabili da un punto di vista genetico per poter originare qualche
carattere evolutivo realmente nuovo.
La specie umana,
invadendo sempre più ogni angolo del pianeta, sta frammentando gli habitat
degli altri esseri viventi e quidi sta creando le condizioni perché si verifichino,
in tutte le altre specie, innovazioni evolutive
Per qunto riguarda la
storia evolutiva della nostra specie, attraverso lo studio del passato,
eseguito sui fossili, si è capito che noi abbiamo un’ampia galleria di
antenati. Secondo i più recenti orientamenti, l’homo sapiens, che è l’unica
specie di ominide presente sulla terra, si sarebbe caratterizzata, negli ultimi
sei milioni di anni attraverso l’evoluzione e le lotte di almeno una ventina di
specie diverse di ominidi. Da ora in poi, attraverso lo studio dei geni, che
compongono il nostro DNA, si potrà seguire meglio l’evoluzione di tutti gli esseri viventi, sia del mondo
vegetale che animale compresa la nostra specie.
Ma secondo
l’antropologo inglese Tattersall, la storia evolutiva della nostra specie
potrebbe essere giunta al termine, perché, causa la globalizzazione, la
popolazione umana è sempre più interconnessa perché gli individui sono sempre
più mobili e quindi stanno scomparendo le condizioni necessarie per avere dei cambiamenti significativi
dal punto di vista evolutivo. Questa prospettiva potrebbe però essere inficiata
da altre considerazioni:
-L’ uomo è oggi in
grado di modificare l’ambiente a tal punto da attivare condizioni che alterano
il DNA. a livello molecolare che rendono
imprevedibile quello che in futuro , sotto questo profilo, potrebbe succedre.
- Anche mediante la
terapia genica, che si andrà sempre più diffondendo, si creeranno le premesse
per errori ripetuti in gruppi ristretti di individui che, non si può escludere
che possano avere, nel corso degli anni dei secoli o dei millenni, conseguenze
evolutive.
- Gli uomini che
torneranno dai viaggi pluriennali interplanetari, non è da escludere che
possano essere portatori di mutazioni
del loro patrimonio genetico tali da determinare nel tempo cambiamenti
evolutivi.
I due termini vengono
usati spesso senza tener conto della loro sottile differenza concettuale.
Infatti
"farmacogenetica" è lo studio della diversa risposta individuale ai
farmaci riferibile alle diverse sequenze del DNA mentre la ” farmacogenomica
" abbraccerebbe un settore più vasto comprendendo sia la diversa
suscettibilità individuale alle malattie sia la diversa risposta ai farmaci.
Quindi lo studio dei nuovi farmaci mirati rientrerebbe nella farmacogenomica
mentre le richieste di analisi che il clinico fa per il singolo paziente sono
test di farmacogenetica.
I tests di
farmacogenetica hanno la funzione di collegare le caratteristiche genotipiche
dell'individuo alla farmacocinetica e alla farmacodinamica dei medicamenti.
Dopo aver individuato
e descritto la struttura dei circa 30.000 geni dell'uomo si è capito che la
enorme variabilità delle differenze funzionali riscontrabili a tutti i livelli,
in tutti i tessuti e in tutti gli organi dovesse essere collegata a variazioni
molto più fini del DNA. Si vanno quindi attualmente catalogando i polimorfismi
dei singoli nucleotidi ( SNPs ) che, si va constatando, ce ne è all'incirca uno
ogni 1000 paia di basi. Ci sono comunque variazioni che sono collegate a
polimorfismi più complessi perché dipendenti da più nucleotidi anche diversi e,
quindi, gran parte di questo vastissimo lavoro di collegamento è ancora da
compiere.
Non dimentichiamo che
si vanno individuando i geni connessi alla suscettibilità verso malattie molto
diffuse, ma geneticamente complesse come il diabete, l'ipertensione arteriosa,
la schizofrenia e tutto il vastissimo settore dei tumori.
D'altro canto numerose
sostanze, che sono comunemente usate non solo nell'industria farmaceutica, ma a
anche per la produzione di cosmetici ed erbicidi. sono potenzialmente tossiche
per gli esseri umani, in quanto sono capaci di alterare i normali meccanismi
fisiologici in modo indesiderato.
E' ben noto, infatti,
che la maggior parte dei farmaci hanno effetti indesiderati ed i meccanismi che
li determinano non sono sempre completamente noti. L'utilizzazione mirata dei
microarray ci permetterà di capire molto meglio e più rapidamente cosa succede
a livello cellulare nei diversi tessuti quando si somministra un determinato
farmaco.
Ecco perché
nell'industria farmaceutica si profila un enorme interesse verso questa
tecnologia. Infatti ci si ripromette, intanto, di riesaminare il meccanismo
degli effetti indesiderati dei farmaci già in commercio con la speranza di
poterli eliminare o almeno attenuare ma ci si attende molto di più dalle
prospettive future. L'uso sistematico dei microarray permetterà, di eliminare
il rischio di alcuni disturbi secondari prima di iniziare la costosissima fase
delle prove cliniche. Questa svolta nel modo di condurre la sperimentazione dei
nuovi farmaci dovrebbe incidere favorevolmente sulla cifra finale che si è
costretti a spendere per la registrazione che, ormai, si aggira sui 300.000-
500.000 dollari.
L'altro obiettivo
odierno molto importante è quello di arrivare al genoma personale e, con
l'ausilio della farmacogenetica,al “paziente trasparente” o ,meglio ancora alla
" medicina individuale predittiva". Si sono infatti cominciati a
mettere in evidenza polimorfismi che sono collegabili a varianti fisiologiche
di risposta ai singoli medicamenti. Le analisi di farmacogenetica clinica
cercano appunto di trasferire le conoscenze della genetica nel laboratorio
corrente al fine di tracciare il profilo farmacogenetico del singolo paziente.
Queste conoscenze avranno la funzione di far si che il medico possa scegliere
tempestivamente sia il medicamento ideale per il singolo paziente che il
corretto dosaggio.
Infatti, per avere
un'idea della situazione di incertezza attuale per alcune scelte di terapia
corrente, basta vedere quello che il medico è costretto a fare quando deve
usare un anticoagulante del sangue tipo warfarin. Infatti questo farmaco che
dovrebbe raggiungere la concentrazione ematica ottimale di 68 microgrammi per ml,
si vede che ciò dipende non solo dalla dose ingerita, ma molto anche dalle
condizioni del fegato che è l'organo più importante per il metabolismo di
questa sostanza. Il medico, per aggiustare la dose, non può fare altro che
procedere per tentativi che possono durare anche molte settimane, sapendo che,
se sbaglia per eccesso, può provocare delle emorragie interne spontanee, mentre
se sbaglia per difetto non raggiunge lo scopo di aumentare la fluidità del
sangue.
Domani, quando potrà
avere i dati delle analisi farmacogenetiche di quel paziente potrà procedere
più speditamente e con meno rischi di sbagliare. Infatti sappiamo già che il
metabolismo epatico di questa sostanza dipende da un enzima codificato dal gene
CYP2C9, che nel 35% dei soggetti presenta delle varianti genetiche che, se
individuate preventivamente, ci potranno permettere di inquadrare molto
rapidamente il giusto dosaggio. Un altro caso già individuato è quello della
pravastatina che è molto più attivo nell' abbassare il tasso di colesterolo nei
soggetti con la variante B1B1 del gene CETP rispetto agli altri soggetti.
Cosi il tamoxifene si
dimostra molto più efficace nel bloccare le ricadute dei tumori del seno nelle
donne che presentano le mutazioni geniche BRCA1 e BRCA2.
Bonny cita numerosi altri
casi del genere in cui è stata messa in evidenza una precisa relazione fra una
variazione genetica ed un composto. Ne riportiamo alcuni:
GENE |
COMPOSTO |
CYP3A |
Pantoprazolo |
CYP2B6 |
Ciclofosfamide |
HTR2A |
Clozapina |
DYPD |
5-Fluorouracile |
MDRI |
Digoxina |
Ma quali sono gli ostacoli che si devono superare perché la medicina individuale diventi una realtà? Sono fondamentalmente tre:
Occorre ampliare
ancora molto la ricerca clinica per capire per quali malattie la
farmacogenetica possa realmente costituire un effettivo progresso sia per la
diagnosi che per la terapia.
Questo tipo di analisi
viene fatto ancora molto raramente perché hanno un costo molto elevato e sono
pochi i laboratori in grado di farle.
La comunità medica va
informata in maniera capillare dei vantaggi pratici, affinché si possa arrivare
ad un'applicazione consapevole generalizzata.
Una piccola pianta,
l'Arabidopsis thaliana, che ha un genoma ridotto, di circa 25.000 geni con
sequenze tutte note ed un tempo di generazione molto rapido ha reso possibile
una serie di ricerche tendenti a mettere in chiaro quello che succede a livello
molecolare e in tutti i geni per effetto della luce solare. Oggi sappiamo quali
geni vengono attivati e come tale fenomeno influenzi tutte le fasi della
crescita e dello sviluppo. Anche qui siamo solo all'inizio di una grande
rivoluzione che la diffusione dei microarray potrà permettere di attuare nei
prossimi anni man mano che potremo capire e regolare meglio l'influenza della
luce a livello dei singoli geni ed in base agli scambi fra le diverse proteine
cellulari.
Un altro aspetto molto
importante della vita delle piante è determinato dalla concentrazione salina
nei tessuti per l'effetto osmotico. Le piante assorbono acqua prevalentemente
dal terreno e la perdono per evaporazione attraverso le foglie. Quando
l'irrigazione non è adeguata o, per effetto dell'eccessivo calore,
l'evaporazione aumenta, la pianta va incontro ad un progressivo stato di
sofferenza determinato dalla eccessiva concentrazione dei sali, specialmente il
sodio, che causa all'interno delle cellule tutta una serie di più o meno gravi
perturbazioni biochimiche. Le ricerche eseguite con l' Arabidopsis thaliana
hanno permesso di individuare alcune dozzine di geni la cui espressione cambia
come conseguenza dei cambiamenti della concentrazione salina.
Questi studi per
quanto ancora molto preliminari hanno messo in evidenza i geni che rendono la
pianta del riso più resistente alla carenza dell'acqua. Ciò ha permesso di
selezionare in maniera più razionale varietà più adatte ad essere coltivate in
terreni soggetti a periodi di siccità. Tali studi hanno un enorme impatto
economico e sociale perché il riso è la principale fonte di nutrimento di circa
il 50% dell'intera popolazione del globo.
Ma il fatto di poter
studiare le funzioni di ogni singolo gene darà certamente nuovo impulso alle
ricerche sugli organismi geneticamente modificati, meglio noti, anche da parte
del grande pubblico, come OGM. Negli USA. dove la maggior parte di tali
ricerche sono state avviate e sono progredite, si coltivano già su larga scala
granturco, soia, fragole e tante altre piante ancora e se ne fa un uso corrente
nell'alimentazione. In Europa. un po' per ignoranza e un po' per contrastare
l'invadenza delle multinazionali americane, che hanno brevettate le sementi ed
ora giustamente ce le vendono a caro prezzo, se ne sta frenando la diffusione
con vari pretesti e paventando futuri disastri.
il poter creare piante
che producono di più, piante con una migliore composizione nutrizionale, più
resistenti alle malattie, che richiedano meno pesticidi, che producano frutti
di gusto più gradevole sono alcuni dei numerosi obiettivi che oggi con la
diffusione dell'uso dei microarray sono più a portata di mano. Ma, l'aspetto
forse più importante per noi europei, è sapere cheoggi è possibile evitare la
sensazione di dover fare un salto nel buio, perché ogni risvolto di questa problematica
potrà essere approfondita e seguita nel tempo con tecnologie che presto saranno
a portata di tutti. Basta volerlo !
E' ridicolo continuare
a piangerci sopra. Occorre lavorare per mettersi al passo con i tempi. Lavorare
per capire e per contribuire seriamente al progresso della scienza in generale
e dell'agricoltura, in questo caso particolare.
Negli anni cinquanta
un gruppo di studiosi risolse un problema tecnologico di grandissima importanza
perché descrisse le operazioni necessarie per depositare sottilissimi, strati
di metalli e sostanze chimiche, usando calchi chiamati fotomaschere,in un
minuscolo wafer di silicio. Questa scoperta, infatti, fu determinante per lo
sviluppo esplosivo dell’elettronica negli anni seguenti, perché tramontò
rapidamente la prassi di saldare uno per uno i transistor e sorse l’epoca dei
circuiti integrati, prodotti in modo costante e specifico, che è ancora in
pieno splendore. Si era passati, infatti, da un processo artigianale, dai
risultati incerti ad una tecnologia
standardizzata che permetteva agli ingegneri di produrre circuiti
integrati di semiconduttori che poi potevano essere poi combinati ed assemblati
a piacimento per progettare e costruire attrezzature elettroniche dalle più
semplici alle più complesse e potenti, che, facendo emergere un universo nuovo
delle comunicazioni è stato in grado di attuare applicazioni di ogni genere.
Alcuni studiosi come
Endy ( 2005 ) e Church ( 2005 ) ritengono che dovrebbe essere possibile passare
dai circuit elettronici integrati ai circuiti biologici assemblando pezzi di
DNA. Infati se i transistor sono i componenti di base dei circuiti elettronici,
i loro equivalenti biologici sono i geni che non sono altro che lunghi filameti
di DNA accuratamente ordinati.
Per costruire circuiti
genetici per dispositivi biologici avanzati occorre sintetizzare lunghe
sequenze di DNA in modo veloce e standardizzabile ed a costo ragionevole. Tutte
le tecniche di sintesi sono variabili del metodo di Caruters che utilizza le
fosforamiditi in fase solida. Infatti si parte con un singolo nucleotide
ancorato ad un supporto solido come una sferetta di polistirolo sospesa in un
liquido. Quando questa è esposta ad un acido, la base del nucleotide ancorato
diventa pronta per formare un legame chimico con un altro nucleotide presente
nella soluzione, allungando la catena nascente. La ripetizione di questo ciclo
consente di sintetizzare qualunque tipo di sequenza con una frequenza di errore
del 1%.
Church, con la
tecnologia dei microarray ed utilizzando la polimerasi, che è in grado di
costruire molecole di DNA con una velocità
che può arrivare a 500 basi al secondo ed una frequenza di errore di una
base su un miliardo, è riuscito a creare
degli schemi reticolari con una densità che può arrivare a un milione di punti per centimetro
quadrato. Church ha chiamato questi filamenti “ oligonucleotidi da costruzione
“ perché con squenze sovrapposte riesce a costruire tratti di DNA anche più lunghi di un gene intero. Poi, dato
che gli oligonucleotidi che contengono errori devono essere eliminati, ha
elaborato anche due sistemi diversi di correzione abbastanza agevoli.
Queste tecnologie, che
rendono possibile le sintesi in parallelo di oligonucleotidi rilasciabili e la
correzione di errori ci permettono di assemblare lunghe molecole di DNA
abbastanza corrette, in modo meno costoso e più rapido di quanto lo sia stato
finora. Si può quidi ritenere che queste procedure saranno le tecniche di base
per la biofabbricazioe e che potranno portare a miglioramenti costanti nel
tempo.
Sono già nate negli
USA le prime aziende ed organizzazioni che applicano i principi e le
applicazioni delle biofabbriche di domani: Ne segnaliamo alcune:
-BioBricks
Foundation. Cambridge, Massachussets
-Amyris
Biotechnologies. Emmevylle,California
-Codon Devices.
Cambridge, Massachussets
-Foundation for
Applied Molecular Evolution. Gainesville, Florida
In queste sedi sono
stati prodotti i primi “ circuiti biologici artificiali funzionanti” che si
potrebbero utilizzare per esplorare nuove strategie di lotta alle malattie e si
studiano tutte le nuove opportunità che la biofabbrica potrebbe offrire per la
produzione di nuovi materiali e di sensori, il recupero di suoli inquinati, la
produzione energetica ecc.
La biofabbrica è molto
di più che una serie di tecnologie di sintesi sempre più veloci ma è un nuovo
metodo di pensare ai macchinari biologici esistenti e a costruirne di nuovi che
prende in prestito sia il linguaggio che i metodi dell’ingegneria. Il metodo di
fabbricazine dei circuiti a semiconduttori è stato creato grazie ad una tecnica
flessibile ed affidabile ed una enorme varietà di componenti a cui i progettisti
possono attingere.
Grazie a questo sistema integrato gli
ingegneri hanno potuto creare dispositivi elettronici sempre più complessi e
potenti con vaste applicazioni. Animati dalla stessa filosofia comincia ad
essere possibile oggi concepire e costruire sofisticati dispositivi costituiti
da componenti biologici. Occorre che i biologi oggi assumano una mentalità da
ingegneri. Le sequenze dei componenti genetici
che esguono compiti distinti tradi loro, possono essere determinate dai
progettisti di componenti,e, se necessario, prodotte anche al di fuori della
biofabbrica. Un ingegnere biologico non deve aver bisogno di costruirsi ogni
singola parte a partire da zero e non deve nemmeno conoscerne sempre il
funzionamento interno, gli basta sapere che è affidabile. Ma, dato che si ha
ache fare con sistemi biologici capaci di replicarsi ed evolvere, è
comprensibile la preoccupazione di chi teme che possano causare danni
intenzionali o meno.
Finora possiamo dire
che gli scienziati hanno scrupolosamente adoperato tutte le precauzioni
consuete dei laboratori che lavorano in
sicurezza biologica e si sono sempre comportati nel fabbricare la
vita,applicando codici etici che finora hanno ben funzionato. Ma la
preoccupazione è che un giorno la capacità di sintetizzare il DNA abbia una
tale diffusione da consentire a dei criminali di creare per esempio nuovi germi
patogeni altamente diffusibili.
E’ stato quindi
proposto negli USA di prevedere la registrazione di tutti coloro che lavorano
con la biologia sintetica così come già si fa con coloro che usano i così detti
reagenti speciali.
La lettura del libro
della vita è arrivata alla parola fine con il sequenziamento del cromosoma 1,
il più grande dei cromosomi umani. Questo ultimo sforzo è stato anche il più
duro ed ha richiesto il lavoro decennale di almeno 150 scienziati. La mole
delle informazioni raccolte, che oggi sono a disposizione di tutti gli
interessati, se riportate a stampa richiederebbero la scrittura di oltre 60.000
pagine.
Con il progetto Genoma
Umano si è pertanto riusciti a sequenziare, con qualche anno di anticipo sulla
data prevista, il 100% del genoma umano e a rendere disponibili un’ enorme
quantità di tecnologie e metodi utili il cui continuo perfezionamento ha abbassato
il costo di un sequenziamento di un genoma umano che comunque oggi può essere
richiesto ma con un esborso di circa 20 milioni di dollari. Questa cifra
significa che i sequenziamenti su larga scala sono ancora limitati ai centri di
ricerca specializzati e riservati a progetti grandi e costosi.
Ma i genomi finora
resi noti erano genomi composti perché ottenuti dal DNA di più persone e, quindi possono avere solo
un valore indicativo di tipo generale.
Ora Craig Venter, lo
scienziato americano che nel 2000 dimostrò per primo di avere sequenziato
l’intero genoma umano, ha annunciato di aver, quasi completato il
sequenziamento del suo stesso genoma.
Così tutti e sei
miliardi di lettere del suo DNA verranno riversati nel database di un computer
gestito da un ente pubblico, la GenBank, e, quindi sarà accessibile agli
scienziati di tutto il mondo.
Venter lo chiama “ Il
Genoma Umano di Riferimento “ e ritiene che con il raggiungimento di questo
traguardo si potrà dare il via alla genomica individuale. Questo, secondo
Venter ci permetterà di capire non solo l’aspetto e lo stato di salute del
singolo individuo, ma anche la sua personalità.
Il vero potenziale
delle biotecnologie diverrà evidente solo quando gli strumenti di cui si
servono, per esempio le tecniche per la lettura del genoma, saranno diventati
economici e diffusi quanto lo sono oggi i personal computer. L’obiettivo a cui
si tende è quello di raggiungere una capacità di sequenziamento del DNA così
poco costosa che chiunque potrebbe decidere che valga la pena di spendere un
po’ di denaro per disporre di una
sequenza completa del proprio genoma registrato in un dischetto ad uso e
consumo dei medici. Negli USA lo slogan che fa sperare è che si possa, entro
qualche anno, arrivare al “ genoma da 100 dollari”.
Due programmi
finanziati dal National Institute of Health e dedicati alle “ Tecnologie
innovative di sequenziamento genomico”, sfidano gli uomini di scienza ad
abbassare i costi del sequenziamento di un genoma umano, portandoli a 100.000
dollari entro il 2009 e a 1000 dollari entro il 2014.
Abbiamo visto che il
genoma umano è composto da 23 coppie di
cromosomi, ciascuno dei quali ereditato da uno dei genitori, e da un totale di
sei miliardi di paia di basi, scelte fra
le possibili alternative, adenina,citosina,guanina e timina, che rappresentano
l’alfabeto genomico ( A , C , G e T ) codificante le in formazioni racchiuse
nel DNA.
Per poter identificare le singole basi
all’interno di una sequenza di DNA, occorre disporre di sensori capaci di individuare
le differenze su scala subnanometrica esistenti fra i quattro tipi di basi.
La maggior parte dei
sequenziamenti che si eseguono oggi si attuano ancora con la tecnica enzimatica
messa a punto da Frederick Sanger negli anni settanta, che, malgrado i
miglioramenti apportati nel corso degli anni, continua ad essere lungo e
costoso.
Una più recente
tecnica, che potrebbe rivelarsi assai promettente, adotta un approccio del
tutto diverso per identificare le singole basi che compongono la molecola di DNA.
Questa metodica, chiamata “sequenziamento mediante nanopori”, sfrutta le
differenze fisiche esistenti fra le quattro basi che compongono il DNA, per
produrre un segnale diverso. Come l’elettroforesi, questa tecnica trascina le
molecole di DNA verso una carica positiva. Per raggiungerla, le molecole devono
attraversare una membrana transitando per un poro con un diametro inferiore a
1,5 nanometri, per cui riescono a passare solo le molecole di DNA a filamento
singolo.
Quando il filamento
transita attraverso il poro, i nucleotidi bloccano temporaneamente il
passaggio, alterando la conduttanza elettrica della membrana misurata in
picoampere. Le differenze fisiche fra le quattro basi generano blocchi di
durata e grado diversi. Questa tecnologia dovrebbe portare ad una notevole
riduzione dei costi e a leggere un intero genoma umano in non più di 20 ore.
Comunque già oggi si
possono eseguire delle indagini mirate perchè, per esmpio, quando nello studio
di una malattia, analizzando il DNA, si nota un buco o una malformazione in un
cromosoma, basta andare su internet e consultare la banca dati del genoma umano per scoprire a cosa
corrispondono i frammenti coinvolti e rendersi conto della precisa eziologia
della malattia.
In ogni cellula di
ogni essere vivente ci sono un numero
determinato di cromosomi ed in ogni cromosoma un certo numero di geni, ciascuno
con un proprio ruolo . Negli anni novanta a seguito l’enorme sviluppo
tecnologico che si è registrato, l’ufficio dei brevetti degli USA è stato
sommerso dalle domande di brevetti su DNA e RNA che sono alla base di tutti i
fenomeni vitali. Malgrado molti oggi considerino che brevettare la vita sia una
pratica bizzarra e preoccupante, l’ufficio brevetti degli USA, ha concesso
oltre 4000 brevetti sul genoma umano. Ma ancora più grande, ovviamente, è il
numero dei brevetti riguardante il genoma di tutti gli esseri viventi.
Riteniamo utile riportare l’elenco dei più importanti possessori ditali
brevetti:
TITOLARI |
NUMERO DI
BREVETTI |
Università della
California |
1018 |
Governo degli Stati
Uniti |
926 |
Sanofi Aventis |
587 |
GlaxoSmithKlein |
580 |
Incyte |
517 |
Bayer |
426 |
Chiron |
420 |
Genentech |
401 |
Amgen |
396 |
Human Genome Sciences |
388 |
Wyeth |
371 |
Merck |
365 |
Applera |
360 |
Università del Texas |
358 |
Novartis |
347 |
Johns Hopkins University |
331 |
Pfizer |
289 |
Massachussetts General Hospital |
287 |
Novo Nordisk |
257 |
Harvard University |
255 |
Stanford University |
231 |
Lilly |
217 |
Affymetrix |
207 |
Cornell University |
202 |
Salk Institute |
192 |
Columbia University |
186 |
University del Wisconsin |
185 |
Massachussetts Institute of technology |
184 |
Per quanto riguarda i
geni dei cromosomi umani l’elenco dei brevetti finora concessi è il seguente:
CROMOSOMA |
NUMERO DEI BREVETTI |
1 |
504 |
2 |
330 |
3 |
307 |
4 |
215 |
5 |
254 |
6 |
225 |
7 |
232 |
8 |
208 |
9 |
233 |
10 |
170 |
11 |
312 |
12 |
252 |
13 |
97 |
14 |
255 |
15 |
141 |
16 |
192 |
17 |
313 |
18 |
74 |
19 |
270 |
20 |
178 |
21 |
66 |
22 |
106 |
X |
200 |
Y |
14 |
Questa enorme quantità
di brevetti deriva dal fatto che negli USA, al contrario di quanto è accaduto
in Europa e in Canada, le questioni etiche sulla brevettabilità della vita,
sono state ampiamente ignorate e, almeno fino al 2001 è stato possibile brevettare
qualsiasi “cosa fatta dall’uomo” comprese le cose viventi che incorporassero un
intervento umano. Tutto risale ad una famosa sentenza del 1972, riguardante
Ananda M. Chakrabarty, un ingegnere della General Electric, che aveva
presentato domanda di brevetto per un ceppo del batterio Pseudomonas in grado
di sciogliere le chiazze di petrolio. A quell’epoca le tecniche di splicing del
DNA ricombinante, che permettono di ottenere le sequenze genetiche desiderate,
non erano ancora state inventate e quindi l’ufficio brevetti respinse la
domanda con la motivazione che “ i prodotti della natura che sono organismi
viventi non possono essere brevettati”. Ma Chakrabary fece ricorso alla Corte
Suprema, che nel 1980, quando il panorama della biologia molecolare era radicalmente
mutato, con 5 voti a favore e 4 contrari, accolse il ricorso, considerando quel
batterio un prodotto dell’ingegno umano
e aprendo così la strada ai “brevetti sulla vita”.
L’atteggiamento degli
uffici brevetti sia europeo che canadese sono stati sempre molto più
restrittivi, sostenendo che “i prodotti della natura” non sono brevettabili. Le
autorità politiche e giuridiche americane raramente tengono conto di questioni
etiche, filosofiche o sociali nei processi decisionali che riguardano i brevetti
perché
“ l’ingegnosità merita
un incoraggiamento liberale”.
Ma, dal 2001, anche l’
ufficio brevetti degli USA ha perfezionato in senso restrittivo tale direttiva
riguardante i brevetti in campo biotecnologico sostenendo che definire una
sequenza di DNA semplicemente come sonda genica o marcatore di cromosomi non
basta, occorre che, per ottenere il diritto alla proprietà intellettuale, “la
ricerca abbia un’utilità specifica e sostanziale”.
Ma il valore di tanti
di questi brevetti , almeno da un punto di vista commerciale, si è ridotto a
zero dopo che, nel 2000, Bill Clinton e Tony Blair rilasciarono una
dichiarazione che afferma che” i dati fondamentali sul genoma umano, inclusa la
sequenza del DNA e le sue variazioni devono essere rese disponibili liberamente
agli scienziati di tutto il mondo”.
Biochip e microarray
sono una piattaforma tecnologica di grande interesse per i futuri prodotti
diagnostici. Finora il loro principale uso ha riguardato il sequenziamento del
genoma sia umano che di molti animali e piante ma è già iniziata una nuova fase
di studi e ricerche per cercare di inquadrare ed approfondire non solo le
strutture ma anche le funzioni dei singoli geni sia in condizioni fisiologiche
che patologiche.
Attualmente, dato che
ci si trova ancora in una fase orientativa. si è costretti ad operare spesso
con centinaia ed anche migliaia di spots valutati in parallelo. In futuro,
allorché i principali markers delle malattie umane saranno stati identificati,
è probabile che si tenderà ad utilizzare sistemi con numeri più limitati di
variazioni delle sequenze e delle relative funzioni.
Comunque, come già
abbiamo accennato, mentre il mercato dei tests sugli acidi nucleici ha già
diversi anni di espansione, quello dei microarray per le proteine, causa le
maggiori difficoltà tecnologiche, di cui abbiamo fatto cenno stanno progredendo
più lentamente nel passare dai laboratori di ricerca al più vasto mercato dei
laboratori d'analisi.
Comunque un aspetto
che va chiarito che si tratta di mercati piuttosto vasti e complessi che
abbracciano non solo vari tipi di diagnostici, ma anche vari tipi di macchine,
accessori e servizi che le diverse aziende offrono.
In questo ambito gli
USA, dove queste tecnologie sono nate, sono ovviamente all'avanguardia, ma si
delinea che, già nel 2006, il mercato europeo dei tests per gli acidi nucleici
dovrebbe superare quello USA. Inoltre è previsto che al mercato dei microarray
saranno interessati in tutto il mondo, sempre nel 2006, circa 400.000
ricercatori che muoveranno un valore di vendite, per i soli tests diagnostici,
superiore ai 2 miliardi di dollari.
Infatti i microarray
commerciali offrono una serie di vantaggi su quelli che, per un certo tempo,
molti laboratori hanno preferito produrre in proprio. Infatti hanno certamente
un miglior potere di risoluzione, una maggiore stabilità, maggiori opzioni di
software, assistenza tecnica e, probabilmente, alla fine, un costo inferiore.
Dato che questa
tecnologia tende ad espandersi in maniera esplosiva, è previsto anche, che in
un futuro non troppo lontano, il numero delle macchine di lettura eccederà le
100.000 unità, per un valore di circa 5 miliardi di dollari.
Le società commerciali
che producono microarray o attrezzature dedicate sono ormai numerose. Riportiamo qui di seguito un parziale elenco
con il nome dei prodotti ed un cenno delle caratteristiche principali, ed un
altro elenco di compagnie, prevalentemente europee, che producono microarray e
di alcuni che producono microarray per proteine di cui forniamo anche gli
indirizzi di posta elettronica:
NOME |
COMPAGNIA |
CARATTERISTICHE |
Affibody |
Affymetrix |
Leganti anticorpi
simili |
Atlas |
Clontech |
Kits fluorescenti |
Bio Door |
BioDoor |
Kits per DNA |
Coming microarray technology |
Corning |
Vetrini ricoperti |
Esensor |
Motorola LS |
Cdna |
HyChip |
Hyseq |
5-mer oligos |
ISAC |
VBC Genomics |
Kits per allergeni |
GEM |
Incyte pharm |
PCR frammenti |
GeneChip |
Affymetrix |
Oligos su silicio |
Gene Connection |
Sratagene |
Kit completi |
LabCffiP |
Caliper |
Microchanels |
LumiCyte |
LumiCyte |
Chips cattura
proteine |
MicroMax |
NEN |
Kits completi |
Nano Chip |
Nanogen |
Spots oligo-electroactivi |
ProteinChip |
Ciphergen |
Proteine per
caratterizzazione |
Proteo Plex |
Novagen |
Kits per citochine
umane |
Schleicher & Schuell |
Schleicher & Schuell |
Vetrini rapidi |
The CelI Chips |
Cellomics |
Kits per cellule
vive |
Trinectin |
Phylos |
Reagenti per cattura |
UniGEM |
Synteni |
0,5-5 kb cDNAs |
Universal Reference
RNA |
Stratagene |
RNA umani di
riferimento |
Compagnie che offrono
microarray per proteine:
-Adaptive
Screening |
Cambridge UK |
www.adaptive-screening.com |
-Aspira Biosystems |
San Francisco, CA |
www.aspirabiosystems.com |
- Biancore |
Uppsala Svezia |
www.biacore.com |
- BioArray Solutions |
Warren NJ |
www.bioarrays.com |
- Cambridge Antibody Technology |
Cambridge UK |
www.cambridgeantibody.com |
- Discerna |
Cambridge UK |
www.discerna.co.uk |
- Jerini Array Technologies |
Berlin Germania |
www.jerini.com |
- Nanotype |
Grafelfing Germania |
www.nanotype.de |
- Pepscan |
Lelystad Olanda |
www.pepscan.nl |
- SmartBead Tecnologies |
Cambridge UK |
www.smartbead.com |
- VBC-Genomics |
Vienna Austria |
www.vbc.genomics.com |
- Zeptosens |
Witterswill Svizzera |
www.zeptosens.com |
Comunque va
sottolineato il merito ed il valore di un'azienda, sia perché è stata l'antesignana,
avendo iniziato il 1990, sia perché è, forse. ancora quella che offre la più
vasta gamma di prodotti e di servizi, ed è l'Affymetrix di Santa Clara in
California, fondata da Stephen Fodor.
Qualcuno ha affermato
che quest'azienda, nel suo ambito, ha velleità monolitiche non dissimili da
quelle di Bill Gates. ma, ormai è strettamente tallonata da altre che spesso
sono emanazioni dirette o indirette di multinazionali, come riferiamo, più in
particolare, nel capitolo seguente.
E' facilmente prevedibile
che, durante questo secolo, ci sarà una progressiva enorme espansione di test
diagnostici di alta qualità basati su microarray sia per gli acidi nucleici che
per le proteine.
Molti, se non quasi
tutti gli attuali tests diagnostici potranno essere sostituiti da tests basati
su microarray per malattie infettive, tumori, malattie cardiache, malattie
degenerative, ecc. che riguardano non solo gli uomini ma anche gli animali,
oltre a tutta una serie di aspetti fondamentali riguardanti anche tutto il mondo
vegetale e per gli alimenti.
La posta in gioco è il
sogno delle scienze della vita: è la comprensione solistica, integrale e
integrata di ogni sistema vivente. E' la nuova scienza, che alcuni chiamano
genomica funzionale ed altri biologia dei sistemi. Ma i nomi non hanno molta
importanza. Quello che importa è che ormai ci sono le premesse per credere che,
dopo avere sconfitto le malattie infettive, non dovremmo essere lontani dal
controllare e sconfiggere anche le malattie degenerative, compreso l'Alzheimer,
ed i tumori, che sono certamente il risultato di un danno al DNA cellulare.
Un altro aspetto della
massima importanza è che, con i microarray, si sta completando lo studio
dell'interazione fra le proteine umane all' interno dei tessuti umani nel corso
dell' infiammazione.
La reazione
infiammatoria è all'origine di molte patologie molto importanti, perché si
innesca automaticamente come risposta dell' organismo a qualsiasi fenomeno che
tenda a compromettere o danneggiare le nostre cellule. Questo ci permetterà,
intanto, di approfondire l'attività antinfiammatoria dei farmaci che già
esistono, per capire come migliorare la loro azione a livello molecolare, ma
poi, è certo, che l'approfondimento della proteomica, porterà ad individuare un
gran numero di nuove molecole importanti per la profilassi o la terapia di
forme morbose verso le quali le nostre capacità d'intervento sono ancora
carenti.
Le previsioni
descrivono un settore in crescita vertiginosa: Infatti l’ultimo rapporto della
Frost & Sullivan stima che da un mercato di 963 milioni di dollari del
2000, si raggiungeranno facilmente i 5,6 miliardi entro il 2006.
Queste enormi
prospettive di sviluppo di questo settore hanno naturalmente attirato
l'interesse delle multinazionali e dei governi avveduti, primo fra tutti quello
degli USA, per le interessantissime applicazioni che tale tecnologia potrà
avere in molti settori di primaria pubblica utilità. Ne riferiamo alcuni
esempi:
La Molecular Dynamics,
che già era una compagnia pubblica, ossia di cui ognuno poteva acquistare le
azioni in borsa, è stata rilevata poi dalla Amersham Pharmacia Biotech.
La Hyseq, che già
vantava una propria clientela internazionale in questo settore, ha firmato un
contratto di ampio respiro con la Perkin-Elmer per sviluppare tutto ciò che
riguarda la diagnostica in qualche modo collegata alla genetica.
La Nanogen è entrata
nell'orbita della Becton Dickinson per attuare più rapidamente una serie di
programmi collegati alla tipizzazione genica collegata alle malattie infettive
e aIe applicazioni forensi. La Nanogen sta anche sviluppando alcuni tipi di
elettrodi in grado di apprezzare direttamente l'avvenuta ibridazione degli
spots.
La Caliper ha
sottoscritto un contratto con la Agilent per sviluppare particolari strumenti
di lettura che siano relativamente più economici di quelli attualmente presenti
sul mercato. Anche la stessa Affymetrix, che ha precorso i tempi in questo
settore, ha firmato un accordo con la BioMerieux per mettere a punto pannelli
per eseguire gli antibiogrammi utilizzando particolari agenti patogeni.
Ma chi sta certamente
investendo molto in questo settore è la Motorola che ha sottoscritto un accordo
con la Packard Instruments ed insieme stanno fInanziando una serie di progetti
dell' Argonne National Laboratori, della Orchid, della Genometrix e della
Biochip Systems per sviluppare un completo sistema di analisi con particolari
microarray, rivestiti di un particolare gel e che siano leggibili anche con
strumenti abbastanza semplici, addirittura portatili.
Negli USA i
finanziamenti pubblici a questo settore d'avanguardia naturalmente non mancano.
Ricordiamo quelli
della DARPA ( Defense Advance Resarch Projects Agency ) che vuole selezionare
un sistema portatile e a risposta rapida in grado di svelare la presenza in
campioni di agenti patogeni:
La Chepheid, con
questo stesso fine, ha sottoscritto un contratto con una copertura di 5 milioni
di dollari per tre anni.
La Nanogen ha anche
presentato sue proposte progettuali simili ed ha ricevuto un finanziamento di
2,8 milioni di dollari.
La Orchid, in questo
stesso ambito, ha presentato un progetto integrato per un sistema analitico
rapido ed ha sottoscritto un finanziamento di 12 milioni di dollari.
Altri enti
finanziatori negli USA di progetti riguardanti i microarray sono:
The National Institute of Standards and Technology
The Department of Energy
The Human Genome Project
The National
Institutes of Health
E' auspicabile che in
Europa queste ricerche ricevano adeguati finanziamenti nell'ambito del sesto
programma per la Ricerca e lo Sviluppo Tecnologico, che dovrebbe svilupparsi
lungo tre direttive.
Concentrare e
integrare la ricerca comunitaria.
Strutturare lo spazio
europeo della ricerca.
Rafforzare le basi
dello spazio europeo della ricerca.
Questo programma è
molto più ambizioso dei precedenti perché intende realizzare per l'Europa una
base di ricerca profondamente innovativa che possa permettere di colmare il
divario con gli USA e porre le basi per il rilancio della ricerca in Europa. Il
proposito della Unione Europea. stando alle dichiarazioni date al Consiglio
europeo di Lisbona del 2000 è di " divenire, entro il
Nel corso degli ultimi
due decenni l'automazione sempre più spinta del modo di eseguire le analisi è
stata certamente agevolata dall'uso prima di piastrine con 96 pozzetti del
volume di
Oggi si tende a
realizzare quello che gli anglosassoni chiamano " the lab-on-a chip "
che implica il rivoluzionario concetto di operare con poche molecole e di far
confluire in un unico modulo una serie di processi finora svolti manualmente e
separatamente.
Tutto ciò richiede una
miniaturizzazione molto spinta delle operazioni ed una accelerazione funzionale
con accurata integrazione delle fasi e dei passaggi eseguiti ovviamente in
automazione.
Un'altra sicura
tendenza sarà quella di realizzare macchine e sistemi portatili che possano
operare, anche in spazi limitati, presso il letto del malato o comunque dove
richiesti per le applicazioni più diverse. Non dimentichiamo che si va verso un
tipo di medicina sempre più personalizzata: Sia la diagnosi ed ancor più la
terapia dovrà tener conto delle caratteristiche peculiari genetiche e fisico
chimiche dei singoli pazienti in base ad una serie di dati che ancora oggi in
gran parte non ci sono noti. Sarà uno scanner collegato ad un computer a
stabilire chi siamo veramente, qual è l'origine dei sintomi che avvertiamo e
che tipo e dosaggio di terapia sarà più indicato. Quindi l’attività ed la
funzione del medico sarànno molto diverse dall'attuale.
Serviranno software in
grado di elaborare miliardi di dati e informazioni generati dalle combinazioni
di sequenze, in modo che i medici
possano cominciare ad usarle in medicina, bisognerà forse cominciare a stilare
una lista prioritaria contenete le variazioni genetiche più importanti su cui
concentrare le ricerche
Ma la rivoluzione che
si profila non finisce qui perché sarà essenziale determinare gli effetti che
l’accesso diffuso a tale tecnologia potrà avere sulla vita delle persone.
E' uno scenario da
fantascienza quello illustrato da Rodotà nell'ultima relazione annuale
dell'Ufficio del Garante della Privacy: "La retina dell'occhio per
identificare una persona, chip inseriti sotto pelle per seguirne i movimenti o
che, come ha proposto una società statunitense, possono sostituire una comune
Carta di credito.
Si va insomma verso
quella che è stata chiamata giustamente la " Networked Person "
perché ciascuno di noi, trasmettendo e ricevendo impulsi sarà completamente
inquadrato e schedato, sarà sempre rintracciabile per cui abitudini, movimenti
e contatti non potranno più sfuggire.
La prospettiva che
questo genere d’informazioni personali diventi d’improvviso ampiamente
disponibile, solleva anche preoccupazione sul possibile uso improprio dei dati
da parte di assicuratori, datori di lavoro, forze dell’ordine, ma anche parenti
ed amici. Infatti non è chiaro, per esempio, in che modo si potrà garantire la privacy e la correttezza
nell’uso delle informazioni genetiche personali a cominciare dalle decisioni di
natura sia clinica che riproduttiva. Nessuno può prevedere come vivremo e cosa
faremo nell’era dei genomi personali finchè non ne sperimenteremo direttamente
pregi e difetti
Il nostro corpo sarà
rivelato in tutti i suoi più profondi dettagli, per cui diventeremo trasparenti
a chiunque voglia sapere tutto di noi e di quello che potrà essere il nostro
divenire.
La nostra parola
conterà ben poco perché solo una macchina ci dirà cosa veramente siamo. Rodotà
ha recentemente esclamato: " Non tutto ciò che è tecnologicamente
possibile è socialmente desiderabile, eticamente accettabile, giuridicamente
legittimo.”
Noi, in quanto medici
protagonisti di questa radicale trasformazione del sapere che, coinvolgendo
ogni aspetto della vita vegetale, animale, e quindi anche umana, dovremo
tenerne conto e fare in modo che a tale nuovo equilibrio dei nostri rapporti
con tutto ciò che ci circonda, si possa arrivare conservando la nostra
personalità, anzi rendendola più ricca, proprio perché saremo consapevoli che, volendo,sarà totalmente
evidenziabile.
Coffey D.S.
Self-organization,complexity and chaos: The new biology for medicine.
Nature Medicine 4- 882- 1998
Cross S. S.,Cotton D. W.k
Chaos and antichaos in pathology
Human Pathology 25- 630- 1994
Freeland 8. , Hurst L, D.
The genetic code is one in a million.
J. Mol. Evolution 47-
238- 1998
Altman R,B.,
Raychaudhuri 8.
Whole genome expression analysis challenges beyond clustering.
Curro Opin. 8truct.
BioI. 11- 340- 2001
Arcellana -Pandilio
M., Robbins 8.M
Global gene expression profiling using DNA microarrays.
Am. J. Phys. Gastr. LiverPhysiol. 282- 397- 2002
Baggerly KA et al.
Identifying differentially expressed genes in cDNA microarray
experiments.
J. Comput. BioI. 8- 639- 2001
Banks R. E. , Dunn M J. et al.
Proteomics: new perspectives,new biomedical opportunities.
Lancet 356- 1749- 2000
Brown P.O., Botstein D.
Exploring the new world of the genome with DNA microarray
Nat. Genet. 21 ( Suppl. 1 ) 33-1999
Burgess J .K.
Gene expression studies using microarray.
Clin. Exp. Pharmacol. Physiol. 28- 321- 2001
Duggan D.J., Bittner M. et aI.
Expression profiling using cDNA microarrays.
Nat. Genet. 2 ( Suppl. 1) 10- 1999.
Evans G.A.
Designer science and the “ omic” revolution
Nature Biotecnology 18- 127- 2000
Garrod A.E.
The incidence of alkaptonuria: A study in chemical individualty.
Lancet ii-1616-1902
GeshwindD. H.
Sharing gene expression data: An array of options.
Nat. Rev. Neurosci. 2- 435- 2001
Greenfield A.
Application of DNA microarrays to the transcriptional analysis of
mammalian genomes. Mamm.
Genome 11- 600- 2000
Harvell L. H. et al.
From molecular to modularcell biology
Nature 402- 47- 1999
Schuchhardt J. Beule D. et al.
Normalization strategies for cDNA microarrays.
Nucleic Acids Res. 28- 47- 2000
Schulze A. , Downward J.
Analysis of gene expression by microarrays: cell biologist's gold mine
or minefield?
J. Cell. Sci. 113- 4151- 2000
Schulze A. , Downward J.
Navigating gene expression using microarrays. A technology review.
Nat. Cell. BioI. 3- 190- 2001
Alan R., Gorska M.
Genomic microarrays. Arraying order in biological chaos?
Am. J. Respir. Cell Mol. BioI. 25-405 -2001.
Dangond f.
Chips around the world: Proceedings from the Nature Genetics Microarray
Meeting.
Physiol. Genomics 2- 53- 2000.
Deyholos M.K., Galbraith D. V.
High density microarray for gene expression analysis.
Cytometry 43- 229- 2001
Draghici S., Kuklin A. et al..
Experimental design, analysis of variance and slide quality assessment
in gene expression array
Curro Opin. Drug Discov. Devel. 4- 332- 2001
Fenandez Zapico M.B., Ahmad U.S. et al.
DNA microarrays: revolutionary insight into the living genome.
Surgery 130- 403- 2001
Fodor S. P. , Read J. L. et al.
Light directed spatially addressable parallel chemical synthesis.
Science 251- 767- 1991
Foster W.R., Huber R. M.
Current themes in microarray experimental design and analysis.
Drug Discov. Today 7- 290- 2002
Freeman W.M., Robertson D. J. et al.
Fundamentals of DNA hybridization arrays for gene expression analysis.
Biotecniques 29-1042- 2000
Friend S. H., Stoughton R.B.
The magic of microarrays
Sci. Am. 286- 44- 2002
Fung E. T., Thulasiraman V. et al.
Protein biochips for differential profiling.
Curr.Opin. Biotechnol.12. 65. 2001
Gasterland T., Bekiranov S.
Making the most of microarray data
Nat. Genet. 24- 204~ 2000
Gabig M. , Wegrzyn G.
An introduction to DNA chips. Principles, technology, applications and
analysis.
Acta Biochim. Pol. 48- 615~ 2001
Kane M. D., Jatkoe T. A. et aI.
Assessement of the sensitivity and specificity of oligonucleotide ( 50
mer ) microarrays
Nucleic Acids Res. 28- 4552~ 2000
KhanJ., BittnerM. L. et al.
DNA microarray technology. The anticipated impact on the study of human
diseases
Biochim. Biophys.Acta 1423~ 17~ 1999
Leung Y.F., Lam D. S. et al.
The miracle of microarray analysis.
Genome. BioI. 2~ 2001
Maughan N.J., Lewis F. A. et al.
An introduction to the arrays.
J. Pathol. 195~ 3~ 2001
Schena M. .Shalon D. et al.
Parallel human genome analysis. Microarray based expression monitoring
of 1000 genes.
Proc. Natl. Acad. Sci. USA 93- 10614- 1996
Snijders A. M. , Meijer G. A. et al.
Microarray techniques in pathology: Tool or toys?
Mol. Pathol. 53- 289- 2000
Southern E.
Detection of specific sequences among DNA fragments separated by gel
electrophoresis
J. Mol. BioI. 98- 503- 1975
Southern E. , Mir K. et al.
Molecular interaction on microarrays.
Nat. Genet. 21 ( Suppl. 1 )- 5- 1999
Steel A. B. ,Torres M. et aI.
Immobilization of nucleic acids at solid surfaces. Effect of
oligonucleotide length on layer assembly.
Biophys J. 79- 975- 2000
Stillman B. A., Tonkinson J. L.
FAST' slides: A novel surface for microarrays.
Biotechniques 29- 630- 2000
Stoll D. , Templin M. F. et aI.
Protein microarray technology.
Front. Biosci. 7- 13- 2002
WuT.D.
Analysing gene expression data from DNA microarrays to identify
candidate genes.
J. Pathol. 195- 53- 2001
Zammatteo N. , Jeanmart L. et al.
Comparison between different strategies of covalent attachment of DNA to
glass surfaces to build DNA microarrays.
Anal. Biochem. 280- 143- 2000
Zhu H. Bilgin M. et aI.
Global analysis of protein activities using proteome chips.
Science 293- 2101- 2001
Zhu H , Sneider M.
Protein arrays and microarrays.
Curro Opin. Chern.
Bioi. 5- 40- 2001
Ziauddin J. , Sabatini
D. M.
Microarrays of cells expressing defined cDNAs
Nature 411-107- 2001
Allen J. F.
Bioinformatics and discovery: Induction beckons again.
Bioassays 23- 104- 2001
Amaratunga D. , Cabrera J.
Exploration and analysis of DNA microarray and protein array data.
Ed. John Wiley and Sons 2004.
Andersen C.L. et al.
Improved procedure for fluorescence in situ on tissue microarrays.
Cytometry 45- 83- 2001
Avseenko N. V. et ai.
Immobilization of proteins in immunochemical microarray fabricated by
electrospray deposition.
Anal. Chern. 73- 6047- 2001
Basarsky et al.
Overview of microarray scanner: Design essentials for an integrated
acquisition and analysis platform.
In M. Schena ed. Microarray Biochip Technolgy. Eaton Publishing. Natick
MA. 265
2000.
Brown C.S., Goodwin P .C. et al.
Image metrics in the statistical analysis of DNA microarray data.
Proc. Natl. Acad Sci. USA 98- 8944- 2001
Call D.R., Chandler D.P. et al.
Fabrication of DNA microarrays using unmodified oligonucleotide probes.
Biotechniques 30- 368- 2001
Che D., Bao Y., Muller U.R.
Novel surface and multicolor charge coupled device based fluorescent
imaging system for DNA microarrays. '
J.Biomed, Opt. '6- 450- 2001
Cheung V.G., Morley M. et al.
Making and reading microarrays.
Nat. Genet. 21 (Suppl. 1) 15-1999
Diehl F., Grahlrnann S. et al.
Manufacturing DNA microarrays of high spot homogeneity and reduced
background signal.
Nucleic Acids Res. 29- 38- 2001
Engler D.
Production of microarrays on porous substrates using non contact
piezoelectric dispensing.
In M. Schena. Ed. Microarray Biochip Technology. Eaton Publishing. Natrick. MA. 231-
2000,
Epstein C.B., Butow R. A.
Microarray technology. Enhanced versatility, persistent challenge.
Curr.Opin.Biotechnol.l1- 36- 2000
Galbraith D. W. , Macas J. et al.
Printing DNA microarrays using the Biomek 2000 laboratory automation workstation.
Methods Mol. Biol.170-131-2001
Gardiner-Garden M , Littlejohn T. G.
A comparison of microarray databases.
Brief. Bioinform. 2- 143- 2001
Goryachev A.B. , Mac Gregor P. P.
Unfolding of microarray data.
J. Comp. Biol. 8- 443- 2001
Graves D. J., Su H J. et al.
Four laser scanning confocal system for microarray analysis.
Biotechniques 32- 346- 2002
Graves D.J., Su H.J, et aJ.
System for preparing microhybridation arrays on glass slides.
Anal. Chern. 70-5085- 1998
Harris T.M., Massimi A. et al.
Injecting new ideas into microarray printing.
Nat. Biotecnol. 18- 384- 2000
HeckD.E. , Laskin J.D. etal.
Nucleic acid microarray technology for toxicology. Promise and
practicalities.
Adv. Exp. Med. BioI. 500- 709- 2001
Hughes T. R., Mao M. et aI.
Expression profiling using microarrays fabricated by an ink-jet
oligonucleotide synthesizer.
Nat. Biotechnol. 19- 342- 2001
Johnson K. F."Lin S.M.
Critical assessment of microarray data analysis: The 2001 challenge.
Bioinformatics 17- 857- 2001
Kalocsai P., Shams S.
Use of bioinformatics in arrays
In DNA Arrays Methods and Protocols
Humana Press, Totowa, New Jersey 2001
Kamb A. ,Ramaswami M.
A.
A simple method for statistical analysis of intensity differences in
microarray derived gene expression data.
BMC Biotechnol. 1- 8- 2001
Kanehisa M.
Post-genome informatics
Oxford University Press 2000
Kellam P.
Microarray gene expression database: Progress towards an international
repository of gene expression data.
Genome Bull. 2- 2001
Kerr M.K. , Martin M. et al.
Analysis of variance for gene expression microarray data.
J. Comput. BioI. 7- 819- 2000
Khitrov G.
Use of inexpensive dyes to calibrate and adjust your microarray printer.
Biotechniques 30- 748- 2001
Kricka L.J.
Nucleic acid detection technologies-labels, strategies and formats.
Clin. Chem. 45-453-1999.
Lee M. .Walt D.R. et al.
A fiber optic microarray biosensor using aptamers as receptors.
Anal. Biochem. 282- 142- 2000
Kooperberg C. Fazzio, T.G. et al.
Improved background correction for spotted Cdna microarrays.
J.Comput.Biol. 9-55-2002
Lee M. L., Kuo F.C. et al.
Importance of replication in microarray gene expression studies:
Statistical methods and evidence from repetitive cDNA hybridizations.
Proc.Natl. Acad. Sci. USA 97- 9834- 2000
Lee P. H. , Sawan S. P. et al.
An efficient binding chemistry for glass polynucleotide microarrays.
Bioconjug. Chern. 13- 97- 2002
Luo I. Y. , Diamandis E.P. et al.
Preliminary examination of time resolved fluorometry for protein array
applications.
Luminescence 7- 409- 2000
Macas J., Nouzova M. et al.
Adapting the Biomeck 2000 Laboratory Automation Workstation for printing
DNA microarrays.
Biotechniques 25- 106- 1998
MacBeath G. , Schreiber S. L.
Printings proteins as microarrays for high-throughput function
determination.
Science 289- 1760- 2000
Marti G.E., Galgalas A. et al.
Recent developments for analyzing cells and microarrays.
Cytometry 42- 263- 2000
Moerman R., Frank J. et al.
Miniaturized electrospraying as technique for the production of
microarrays of reproducible micrometer-sized protein spots.
Anal. Chern. 73- 2183~ 2001
Morozov V. N., Morozova T. Y.
Electrospray deposition as method for mass fabrication of mono and
multicomponent microarrays of biological and biologically active substances.
Anal. Chern. 71~ 3110~ 1999
Okamoto Y. , Suzuki T. et at.
Microarray fabrication with covalent attachment of DNA using bubble jet
technology.
Nat. Biotechnol. 18- 438- 2000
Park P. J. , Pagano Met al.
A nonparametric scoring algorithm for identifying informative genes from
microarray data.
Pac. Symp. Biocomput. 52~ 63- 2001
Petron M. ,Bosdogianni P.
Image Processing:The fundamentals.
John Wiley and Sons, New York
Proudnikov D., Tirnofev E. et al.
Immobilization of DNA in polyacrilamide gel for manufacture of DNA and
DNA oligonucleotide microchips.
Anal. Biochem. 259- 34- 1998
Quackebush L.
Computational analysis of microarray data.
Nat. Rev. Genet. 2-
418- 2001
Roda A. , Guardigli M
et al.
Protein microdeposition using a conventional ink-jet printer.
Biotechniques 28- 492- 2000
Schena M. , Shalon D. et al.
Quantitative monitoring of gene expression patterns with a complementary
DNA microarray.
Science 270- 467- 1995
Schoenberg Fejzo M., Slamon D. J.
Frozen tumor tissue microarray technology for analysis of tumor DNA, RNA
and proteins.
Am. J. Pathol. 159- 1645- 2001
Soille P.
Morphological immage analysis: Pricipless
and applications. 2nd Ed. (2003) Springer Verlag, New York
Sturn A. , Quackenbush J. et aI.
Genesis: Cluster analysis of microarrays data.
Bioinformatics 18- 207- 2002
Thompson A. , Lucchini S. et al.
It's easy to build your own microarrayer !
Trends Microbiol. 9- 154- 2001
Thompson M. , Furtado L.M. et al.
High density oligonucleotide and DNA probe array for analysis of target
DNA.
Analyst 124- 1133- 1999
Tran P.H., Peiffer D.A. et al.
Microarray- optimizations : incrising spot accuracy and automated
identification of true microarray signals.
Nucleic Acids Res. 30-54- 2002
Tsodikov A. ,. Szabo A. et al. Adjustments and measures of differential
expression for microarray data.
Bioinformatics 18- 251- 2002
Wang X.,Ghosh S et al.
Quantitative quality control in microarray image processing and data
acquisition.
Nucleic Acids.Res 29-75-2001
Wegner G.J. et al.
Surface plasmon resonance imaging measuraments of DNA,RNA, and protein
interactions in biomulecular arrays In
:Protein Microarray Tecnology. Ed.Wiley-WCH 2003
Yang Y. H., Dudoit S. et aI.
Normalization for c DNA microarray data. A robust composite method
addressing single and multiple slide systematic variation
Nucleic Acid Res. 30-
15- 2002
Blohm D.H.,
Guiseppi-Elie A.
New developments in microarray technology.
Curr. Opin.. Biotechnol. 12- 41- 2001
Bowell D.D.,
Options available- from start to finish- for obtaining expression data
by microarray.
Nat.Genet 21 ( Suppl. 1 ) 25- 1999.
Fellemberg K., Hauser N.C. et al.
Correspondence analysis applied to microarray data.
Proc. Natl. Acad. Sci. USA 98- 10781- 2001
Hegde P.Q., Abernathy K. et al.
A concise guide to cDNA microarray analysis.
Biotcniques 29- 548- 2000
Hollon T.
Comparing microarray data: What technology is needed?
J. Natl. Cancer Inst. 93- 1126- 2001
Mirzabekov A. , Kolkhinsky A.
Emerging array based technologies in proteomics.
Curr. Opin. Chern. BioI. 6- 70- 2002
Mousses S. , Kllioniemi A. et al.
Clinical and functional target validation using tissue and cell
microarrays.
Curr. Opin. Chern. BioI. 6- 97- 2002
Rampal J. B.
DNA arrays. Methods and protocols
Ed. Umana Press 2001
Rajeevan M.S. , Ranamukaarachchi D. G. et al.
Use of real-time quantitative PCR validate the results of DNA array and
differential display PCR tecnologies.
Methods 25- 443- 2001
Taylor E. , Cogdel D. et al.
Sequence verification as quality control step for the production of cDNA
microarrays.
Biotechnique 31- 62-
2001
Almeida R., et al.
From genomes to vaccines: Leishmanias as model. Philos Trans R.
Soc. Lond B Bio., Sci.. 357- 5 -2002
Ameen M., Smith.C.H., Barker J.N. Pharmacogenetics in clinical
dermatology.
Brit. J. Dermatol. 146- 2- 2002
Baba Y.
Development of novel biomedicine based on genome science.
Eur. J. Pharm. Sci. 13- 3- 2001
Bains W. ,Smith G.C.
A novel method for nucleic acid sequencing.
J. Theor. Biol. 135-303-1988
BarryC. E., SchroederB.G.
DNA microarrays: Translational tools for understanding the biology of
Mycobacterium tuberculosis.
Trends Microbiol 8- 209- 2000
Bavykin S.G. et al.
Portable system for microbial sample preparation and oligonucleotide
microarray analysis.
Appl. Environ Microbiol. 67- 922- 2001
Behr MA. et al.
Comparative genomics of BCG vaccines by whole genome DNA microarray.
Science 284- 1520- 1999.
Bertucci F., Loriod B. et al.
DNA array. Technological aspects and applications.
Bull. Cancer 88- 243- 2001
Bigger C. B. , Brasky K. M. et al.
DNA microarray analysis of chimpanzee liver during acute resolving C
virus infection.
J. Virol. 75- 7059- 2001.
Blader I. J., Manger ill. et al.
Microarray analysis reveals previously unknown changes in toxoplasma
gondii infected human cells.
J.Biol. Chem. 276- 24223- 2001
Bubendorf L.
High-throughput microarray technologies from genomics to clinics.
Eur. Urol. 40- 231- 2001
Bubendorf L. , Kolmer M.
Hormone therapy failure in human prostate cancer. Analysis by
complementary DNA and tissue microarrays.
J. Natl. Cancer Inst. 91- 1758- 1999.
Bull J.H.,Ellison G. et al.
Identification of potential diagnostic markers of prostatic cancer and
prostatic intraepithelial neoplasia using cDNA microarray.
Brit. J. Cancer 84- 1512- 2001
Chaib H. , Cockerell E.K. et al.
Profiling and verification of gene expression patterns in normal and
malignant human prostatic tissue by cDNA microarray analysis.
Neoplasia 3- 43- 2001
Chizhikov V., Rasooly A.
Microarray analysis of microbial virulence factors.
Appl. Environ Microbiol. 67- 3258- 2001
Cojocaru G.S., Rechavi G. et al. The use of microarray in medicine.
Isr. Med. Assoc J. 3- 292- 2001
Coombes B. K.. Mahony B.
cDNA array analysis of altered gene expression in human endothelial
cells in Chlamydia pneumoniae infection.
Infect. Immun. 69- 1420- 2001
Cooper C. S.
Application of microarray technology in breast cancer research.
Breast Cancer Res. 3-158- 2001
Cummings C.A, ReIman D.A.
Using DNA microarrays to study host- microbe interaction.
Emerg, Infect. Dis. 6- 513- 2000
Dhiman N., Bonilla R. et al.
Gene expression microarrays: A
Vaccine 20- 22- 2001
Dorell N., Mangan J.A et al.
Whole genome comparison of Campylobacter jejuni human isolates using a
low cost microarray reveals extensive genetic diversity.
Genome Res. 11-1706-2001
Favis R., Barany F.
Mutation detection in K-ras, BRCA 1, BRCA 2 and p 53 using PCR/LDR and a
universal microarray.
Ann. N. Y. Acad. Sci. 906- 39- 2000
Ghazal P.
DNA microarray technology and integrative viral genomics.
Drug Discov. Today 6- 1046- 2001
Ghazizadeb M., Kawanami O. et al.
Assessment of gene expression profile by cDNA microarray analysis.
J. Nippon Med. Sci. 68- 460- 2001
Grouse L. H., Munson P. J. et al,
Sequence databases and microarrays as tools for identifying prostate
cancer biomark
Urology 57 (Suppl.l) 154 -2001
Hacia J. G.
Resequencing and mutational analysis using oligonucleotide microarrays.
Nat. Genet. 2 (Suppl. 1) 42- 1999.
Hacia J. G., Collins S. E.
Mutational analysis using oligonucleotide microarrays.
J. Med. Genet. 36- 730- 1999.
Hacia J. G., Edgemon K. et al.
Oligonucleotide microarray based detection of respective sequence
changes.
Human Mutat 10- 354- 2000
Hanash S. M.
Global profiling of gene expression in cancer using genomics and
proteomics.
Curro Opin. Mol. Ther. 3- 538- 2001
Harkin D.P.
Uncovering functionally relevant signaling pathways using microarray
based expression profiling.
Oncologist 5- 501- 2000
Hegde P.Q., Gaspard R. et al.
Identification of tumor markers in models of human colorectal cancer
using a 19.200 element complementary DNA microarray.
Cancer Res. 61- 7792- 2001
Heller R.A., Schena M. et al.
Discovery and analysis of inflammatory disease related genes using cDNA
microarray.
Prato Natl. Acd. Sci.
USA 94- 2150- 1997
Hippo Y., Taniguchi H
et al.
Global gene expression analysis of gastric cancer by oligonucleotide
microarray.
Cancer Res. 62- 233- 2002
Horvath L., Henshall S.
The application of tissue microarrays to cancer research.
Pathology 33- 125- 2001
Howell S. B.
DNA microarrays for analysis of gene expression
Mol. Urol. 3- 295- 1999
Hsieh H.B., Lersch R.A.
Monitoring signal trasduction in cancer cDNA microarray for
semiquantitative analysis.
Histochem. Cytochem. 49- 1057- 2001
Hui A. B., Lo K. W. et at.
Genome wide detection of oncogene amplifications in nasopharyngeal
carcinoma by array base comparative genomic hybridization.
Int. J. Oncol. 20- 467- 2002
Israel D. A. , Salama N. et al.
Helicobacter pilori strain specific differences in genetic content,
identified by microarray influence host inflammatory responses.
J. Clin. Invest. 107- 611- 2001
Kan T. , Shimada Y. et al.
Gene expression profiling in human esophageal cancers using cDNA
microarray.
Biochem. Biophys. Res. Commun. 286- 792- 2001
Kannan K., Amariglio N. et al.
DNA microarray identification of primary and secondary target genes
regulated by p53.
Oncogene 20- 2225- 2001
Kannan K. , Kaminski N. et al.
DNA microarray analysis of gene involved in p53 mediated apoptosis.
Activation of Apf 1.
Oncogene 20-3449- 2001
Kato-Maeda M.~ Gao Q. et al.
Microarray analysis of pathogens and their interaction with hosts.
Cell Microbiol. 3- 713- 2001
Kellam P.
Post genomic virology: The impact of bioinformatics, microarrays and
proteomics on investigating host and pathogen interactions.
Rev. Med. Virol. 11-313- 2001
Kelly D. L. , Rizzino A.
DNA microarray analysis for genes regulated during the differentiation
of embryonic stem cells.
Mol. Reprod. Dev. 56- 113- 2000
Khan J., Simon R. et al.
Gene expression profiling of alveolar rhabdomiosarcoma with c DNA
microarray.
Cancer Res. 58- 5009- 1998
Kitchen W. H, Byrne M. C. et al.
Using a DNA chips to unravel the genetics of type 1 diabetes.
Diabetes Technol. Ther 2- 249- 2000
Lau W. Y. , LaiP.B. et al.
Differential gene expression of epatocellular carcinoma using cDNA
microarray analysis.
Oncol. Res. 12- 59- 2000
Li J., Chen S. et al.
Typing and subtyping influenza virus using DNA microarrays and multiplex
reverse transcriptase PCR.
J. Clin. Microbiol. 39- 696- 2001
Lucchini S. , Thompson A. et al.
Microarray for microbiologists
Microbiology 147- 1403- 2001
Lueking A., Horn M. et al.
Protein microarrays for gene expression and antibody screening.
Anal. Biochem. 270- 103- 1999
Markert J.M., Fuller C.M. et al.
Differential gene expression profiling in human brain tumors.
Physiol. Genomics 5- 21- 2001
Masters J. R. , Lakhani S.R.
How diagnosis with microarray can help cancer patients.
Nature 404- 921- 2000
Mezzasoma I.,
Bacarese-Hamilton T. et al.
Antigen microarrays for serodiagnosis of infectious diseases~.
Clin. Chern. 48- 121- 2002
Miller J. C. ,Butler E. B. et al.
The application of protein microarray to serum diagnostics: Prostate
cancer as a test case.
Dis. Markers 17- 225- 2001
Mills J. C. , Roth K. A. et al.
DNA microarray and beyond completing the journey from tissue to cell.
Nat. Cell. Bull 3-175- 2001
Mirnic K.
Microarray in brain research: The good, the bad and the ugly.
Nat. Res. Neurosci. 2- 444- 2001
Moch H. , Schraml P.
Identification of prognostic parameters for renal cell carcinoma by cDNA
arrays and cell chips.
Verh. Dtsch. Ges.Pathol. 83- 225- 1999
NoordewierM. O., Warren P.V.
Gene expression microarrays and the integration of biological knowledge.
7 Trends Biotechnol. 19- 412- 2001
Nuwaysir E. F.~ Bittner M. et al.
Microarrays and toxicology. The advent of toxicogenomics.
Mol. Carcinog. 24- 153- 1999
Okabe H. , Satoh S. et al.
Genome wide analysis of gene expression in human hepatocellular
carcinomas using cDNA
microarray. Identification of gene involved in viral carcinogenesis and
tumor progression.
Cancer Res. 61- 2129- 2001
Ono K. , Tanaka T. et al.
Identification by c DNA microarray of gene involved in ovarian
carcinogenesis.
Cancer Res. 60- 5007- 2000.
Pinheiro N.A., Caballero O.L. et al.
Significant overexpression of oligophrenin-
analysis.
Cancer Lett. 172- 67- 2001
Pollack J.R , Perou C. M. et al.
Genome wide analysis of DNA copy number changes using cDNA microarrays.
Nat. Genet. 23- 41- 1999
Ramarathnam R., Subramaniam S.
A novel microarray strategy for detecting genes and pathways in microbes
with unsequenced
genomes. .
Microb. Comp. Genomics 5. 153- 2000
Revel A. T., Talaar A. M. et al.
DNA microarray expression in Borrelia burgdorferi, the Lyme disease
spirochetes
Proc. Natl. Acad. Sci. USA 99- 1562- 2002
Rew D.A.
DNA microarray technology in cancer research.
Eur. J. Surg. Oncol. 27- 504- 2001
Rubin M. A.
Use of laser capture microdissection cDNA microarrays, and tissue
microarrays in advancing our understating of prostate cancer
J. Pathol. 195- 80- 2001
Saiki R, Walsh P.S. et al.
Genetic analysis of amplified DNA with immobilized sequence specific
oligonucleotide probes.
Proc. Natl. Acad. Sci. USA
86-6230- 1989
Sallinen S.L. Sallinen P .K. et al.
Identification of differentially expressed genes in human gliomas by DNA
microarray and chip techniques.
Cancer Res. 60- 6617" 2000
Schena M
Genome analysis with gene expression microarrays.
Bioassays 18" 427- 1996
Schraml P., Kononen J. et al.
Tissue microarrays for gene amplification surveys in many different
tumor types.
Clin. Cancer Res. 5- 1966- 1999
Selaro F. M. , Zou T. et al.
Global gene expression profiling in Barrett's esophagus and esophageal
cancer. A comparative analysis using cDNA microarrays.
Oncogene 21- 475- 2002
Soini H. .Musser J. M.
Molecular diagnosis of mycobacteria.
Clin. Chern. 47- 809- 2001
Southern E. M.
Detection of specific sequences among DNA fragments separated by gel electrophoresis.
J. Mol. Biol 98-503-1975
Stephens C.
Bacterial cell cycle. Seeing the big picture with microarrays.
Curro BioI. 11- 222- 2001
Takemasa I. , Higuchi H. et at.
Construction of preferential cDNA microarray specialized for human
colorectal carcinoma: molecular sketch of colorectal cancer.
Biochem. Biophys Res. Commun. 285 1244- 2001
Triche T. J. , Sholfield D. et al.
DNA microarrays in pediatric cancer.
CancerJ. 7" 2- 2001
Tsirulnikov N. , Shoat M.
Microarray technology -Clinical aspects.
Harefua 140- 1072- 2001
Wallace R H, ShafferJ.,et. Al.
Hybridazation of synthetic oligodeoxyribonucleotides to X 174 DNA.
Nucleic Acids Res. 6-3543-1979
Wang K. , Gan L. et al.
Monitoring gene expression profile changes in ovarian carcinomas using
cDNA microarray.
Gene 229- 101- 1999
Xerri L.
Recent advance in the classification of tumors using microarrays.
Annal. Pathol. 20- 396- 2000
YeR. W. ,WangT. et al.
Applications of DNA microarrays in microbial systems.
J. Microbiol. Methods 47- 257- 2001
ZhangH. , Yu C. Y. et al.
Recursive partitioning for tumor classification with gene expression
microarray data
Proc. Natl. Acad. Sci.
USA 98- 6730-2001
Barrans J. D. , Stamatiou D. et al.
Construction of a human cardiovascular cDNA microarray: Portrait of the
failing heart.
Biochem. Biophys. Res. Commun. 280- 964- 2001
Braxton S., Bedilion T.
The integration of microarray information in the drug development
process.
Curr. Opin. Biotechnol. 9- 643- 1998
Brockman P., Tamminga C.A.
The human genome: Microarray expression analysis.
Am. J. Psychiatry 158- 1199- 2001
Cartwright C.P.
Pharmacogenetics: The Dx Perspective
Expert Review of Molecular Diagnostics 1-371- 2001
Chen C.C., Shieh B. et aI.
Microarray profiling of gene expression patterns in bladder tumor cells
treated with genistein.
J. Biomed. Sci. 8- 214- 2001
Clarke P .A., Poe1e R. et al.
Gene expression microarray analysis in cancer biology, pharmacology, and
drug development progress and potential.
Biochem. Pharmacol. 62- 1311- 2001
Debouk C., Goodfellow P.N.
DNA microarray in drug discovery and development.
Nat. Genet. 21 ( Suppl. 1) 48-1999
Dramac,R. ,Crkvenjakov R
Method of sequencing
of genomes by hybridization with oligonucleotidi probes Domanda di brevetto
iugoslavo a cui poi è seguita la U.S. Patent no 5,202,231 ( 1993).
Friend S.H.
How DNA microarrays and expressions profiling will affect clinical
practice.
Brit. Med. J. 319- 1306- 1999
Genoud T., Trevino Santa Cruz M.B. et al. Numeric simulation of plants
signaling networks.
Plant Phisiol.126- 1430" 2001
Gmuender H.
Perspectives and challenges for DNA microarrays in drug discovery and development.
Biotecniques 32- 152- 2002
Greemberg S.A.
DNA microarray gene expression analysis technology and its application
to neurolog disorders.
Neurology 57- 755- 2001
Haab B. B.
Advances in protein microarray technology for protein expression and interaction
profiling.
Cuur. Opin. Drug Discov. Devel 4- 116 2001
Harmer S.L., Kay S.A.
Microarray determining the balance of cellular trascription.
Plant Cell. 12- 613 2000
Harris B.D.
Differential PCR and DNA microarrays. The modem era of nutritional
investigations.
Nutrition 16- 714- 2000
Hertzberg M, , Sievertzon M.
c DNA microarray analysis of small plant tissue samples using a cDNA tag
target amplification protocol.
Plant J. 25" 585- 2001
Hess P., Cooper D.
Impact of Pharmacogenetics on the Clinical Laboratory
Molecular Diagnostics 4- 289- 1999
Ho I., Guo Y. et al.
Altered expression of a-type but not b-type synapses isoform in the
brain of patients of high risk for Alzheimer's disease assessed by DNA microarray
technique.
Neurosci. Lett. 298-
191- 2001
Ibarrola N. , Pandey
A.
Integrating DNA and tissue microarrays for cancer profiling.
Trends Biochem. Sci. 26- 589- 2001
Ivanov I.. Schaab C. et al.
DNA microarray technology and antimicrobial drug discovery.
Pharmacogenomics 1- 169- 2000.
Jain K. K.
Application of biochip and microarray systems in pharmacogenomics.
Pharmacogenomics 1- 289- 2000
Kallioniemi O.P.
Biochip technology in cancer research.
Ann. Med. 33- 142- 2001
Kallioniemi O. P., Wagner U. et al.
Tissue microarray technology for high throughput molecular profiling of
cancer.
Hum. Mol. Genet. 10- 657- 2001
Kanamaru R.
Cancer diagnosis using microarray technologies.
Gan. To Kagaku Ryobo 27- 949- 2000
Kauraniemi P., Barlund M. et al.
New amplified and highly expressed genes discovered in the ERBB 2
amplicon in breast by cDNA microarray.
Cancer Res. 61- 8135- 2001
Kehoe D. M. , Villand P. et al.
DNA microarray for studies of higher plants and other photosynthetic
organisms.
Trends Plant Sci. 4-38- 1999
Kihara C. , Tsunoda T. et aI.
Prediction of sensitivity of esophageal tumors to adjuvant chemotherapy
by cDNA mic analysis of gene expression profiles.
Cancer Res. 61- 6474- 200 1
Knezevic V. , Leethanakul C. et at.
Proteomic profiling of the cancer microenvironment by antibody arrays.
Proteomics 1- 1271- 2001
Kricka L. J.
Microchips, microarrays, biochips and nanochips. Personal laboratories
for the
Clin. Chim. Acta 307- 219- 2001
Kuipers O. P., de Jong A et al.
DNA microarrays and food biotechnology
Antonie Van Leuwenhoeck 76- 353- 1999
Kurella M. , Hsian L.L. et aI.
DNA microarray analysis of complex biologic processes.
J. Am. Soc. Nephrol 12- 1072- 2001
Lewohl J. M , Dodd P.R. et al.
Application of DNA microarrays to study human alcoholism.
J. Biomed. Sci. 8- 28- 2001
Macoska J. A.
The progressing clinical utility of DNA microarrays.
CA Cancer J. Clin 52- 50- 2002
McCormack G. W.
Subcellular micromolecular pharmacotherapy using computer assisted
microarray analysis.
J. Natl. Cancer Inst. 95-1350- 2000
McMichael T.
Malattia, uomo e
ambiente. La storia ed il futuro
Edizioni Ambiente 2002.
McMeldrum D.
Automation for genomics, part two: sequencers, microarrays, and future
trends.
Genome Res. 10- 1288- 2000
Schmitz G., Aslanidis C., Lackner K. J.
Pharmacogenetics: Implications for Laboratory Medicine.
Clinica Chimica Acta 308-43- 2001
Mimics K. , Middleeton F. A. et aI.
Molecular characterization of schizophrenia viewed by microarray
analysis of gene expression in prefrontal cortex.
Neuron 25- 53- 2000
Miyachi H.
The present status and future prospect of the molecular diagnostic
tests.
Rinsho Byori 49- 139- 2001
Moch H. , Kononen T. et al.
Tissue microarrays. What will they brig to molecular and anatomic
pathology ?
Adv. Anat. Pathol. 8- 14- 2001
Nelson N.
Microarrays pave the way to
J. Nat!. Cancer Inst. 88- 1803- 1996
Nguyen D. V., Roch D. M. et al.
Tumor classification by partial least squares using microarray gene
expression data.
Bioinformatics 18- 39- 2002
Pasinetti G. M
Use of cDNA microarray in the search for molecular markers involved in
the onset of Alzheimer disease dementia.
J. Neurosci. 65- 471- 2001
Paweletz C.P., Charboneau I. et at.
Reverse phase protein microarrays witch capture disease progression show
activation of pro survival pathways at the cancer invasion front.
Oncogene 20- 1981- 2001
Petrik J.
Microarray technology. The future of blood testing?
Vox Sang. 80- 1- 2001
TsangW. M.
Surveys on the use of cardiac markers in the UK
Ann.Clin. Biochem. 40- 138- 2003
Richmond T. , Somerville S.
Chasing the dream. Plant EST microarrays.
Curro Opin. Plant Bioi. 3- 108- 2000
Rockett J. C., Dix D. J.
Application of DNA arrays to toxicology.
Environ. Health Pespect. 107- 681- 1999.
Rowland O. , Jones J. D.
Unraveling regulatory networks in plant defense using microarrays.
Genome BioI. 2- 200 1
Schaffer R., Landgraf
J. et al.
Microarray analysis of diurnal and circadian- regulated genes in
arabidopsis .
Plant Cell 13- 113- 2001
SchneiderM. D., SchwartzR. J.
Chips ahoy: Gene expression of falling hearts surveyed by high density
microarrays.
Circulation 102- 3026- 2000
Sinclair D.A.
Toward a unified theory of caloric restriction and longevity regulation.
Mechanisms of ageing and development
126-987- 2005
Srivastava M. ,
Edelman O. et al.
Pharmacogenomics of the cystic fibrosis transmembrane conductance
regulator ( CFTR ) and the cystic fibrosis drug CPX using genome microarray
analysis.
Mol. Med 5- 753- 1999
Steinman I.
Gene microarrays and experimental demyelinating disease. A tool to
enhance serendipity.
Brain 124- 1897- 2001.
Tannapfel A, Geissler F. et al.
Analysis of liver allograft rejection related genes using cDNA
microarrays in liver allograft specimen.
Traspl. Proc.33-3283-2001
Thomas R. S. , Rank D. R. et al.
Identification of toxicologically predictive gene sects using cDNA
microarrays.
Mol. Pharmacol. 60- 1189- 2001
Thusher V. G. ,Tibshirani R. etal
Significance analysis of microarrays applied to the ionizing radiation
response.
Proc. Nat. Acad. Sci.
USA 98- 5 I 16- 200 I
Unger M..A. Rishi M. et al.
Characterization of adjacent breast tumors using oligonucleotide
microarrays.
Breast Cancer Res. 3- 336- 2001
Van't Ver L. J. , De Jong D. et al.
The microarray way to tailored cancer treatment
Nat. Med. 8- 13- 2002
VawterM. F. , Barret T. et al.
Application of cDNA microarrays to examine gene expression differences
in schizophrenia.
Brain Res. Bull. 55- 641- 2001
WangH. WangH. etal.
Tissue microarrays: Applications in neuropathology research, diagnosis
and education.
Brain Pathol. 12- 95- 2002
Wiltshire S. , 0' Mailey S. et al.
Detection of multiple allergen specific IgEs on microarrays by
immunoassay with rolling circle amplification
Clin .Chern. 46- 1990- 2000
Witowski N. E. , Leiendecker-Foster C. et al.
Microarray - based detection of select cardiovascular disease markers.
Biotecniques 29- 936- 2000
Yano K, Miki Y.
Perspectives of postgenome medicine.
Cancer Nippon Rinsho 59- 31 ~ 2001
Zanders E. D.
Gene expression analysis as an aid to the identification of drug
targets.
Pharmacogenomics 1-
375- 2000
Church G.
Let us go forth and safety multiply.
Nature 438-449-2005
Endy D.
Foundation for engineering biology
Nature 438-449 2005
Jensen K.,Murray F.
Intellectual Property Landscape of the human genome.
Science 310-239-2005
Rampal J. B. .
DNA Arrays. Methods and Protocols
Ed. Humana Press 2001
Schena M.
Microarray analysis.
Ed .Wiley.Liss 2002
Shendure J.,Mitra R .D. et al.
Advanced sequencing technologies:Methods and goals.
Nature Reviews Genetics 5-335-2004
Spellman P. T.
The future of publishing microarray data.
Brief Bioinform. 2- 316- 2001
Sreekumar A. , Nyan M. K. et aI.
Profiling of cancer cells using protein microarrays. Discovery of novel
radiation- regulated proteins.
Cancer Res. 61- 7585- 2001