MICROARRAY

 

Per lo studio delle basi chimiche della vita

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

AUTORI:   Diego Balducci

                   Isabella Solinas

                            


 

 

 

INDICE                                                                                     Download formato libro

INDICE. 2

INTRODUZIONE. 4

CAPITOLO UNO.. 6

LE BASI CHIMICHE DELLA VITA.. 6

NUCLEOTIDI 6

AMINOACIDI 6

MONOSACCARIDI 7

DNA.. 7

RNA.. 8

PROTEINE. 8

CAPITOLO DUE. 10

EREDITÁ E RETI DINAMICHE. 10

GENI 10

GENOMA.. 10

EREDITÁ.. 12

PROTEOMA.. 13

LE RETI DINAMICHE. 14

CAPITOLO TRE. 15

PREMESSE OPERATIVE. 15

COSA SONO I MICROARRAY.. 15

DAL GENOMA AL PROTEOMA.. 16

PROPRIETA' DELLE SUPERFICI 17

CHIMICA DELLE SUPERFICI 18

DEFINIZIONI DA CHIARIRE. 18

MICROARRAY CON ACIDI NUCLEICI 18

MICROARRAY CON PROTEINE. 19

MICROARRAY CON CELLULE. 20

TAMPONI 21

TARGET.. 21

AMBIENTI 23

CONTAMINAZIONE. 23

CONTROLLO AMBIENTALE. 25

CAPITOLO QUATTRO.. 26

STRUMENTI PER PRODUZIONE E LETTURA.. 26

CONSIDERAZIONI PRELIMINARI 26

MACCHINE PER LA PRODUZIONE. 27

CONTROLLO  DI  QUALITA’  DEGLI  SPOTS. 28

MACCHINE  PER  L’AUTOMAZIONE DELL’IBRIDAZIONE. 28

STRUMENTI PER LA LETTURA.. 29

SEGNALE E RUMORE. 31

LA FLUORESCENZA.. 32

COLORI FLUORESCENTI 33

SCANNERS. 33

IMMAGERS. 34

ANALISI DEL SEGNALE. 35

ALTERNATIVE TECNOLOGICHE. 35

REGOLE E PROCEDURE D'USO.. 37

LA RACCOLTA DEI CAMPIONI BIOLOGICI 38

BIOINFORMATICA.. 39

IL CALCOLO STATISTICO.. 41

NORMALIZZAZIONE E TRASFORMAZIONE. 41

CAPITOLO CINQUE. 43

PROTOCOLLI OPERATIVI 43

LIFE LINE LAB.. 43

NOVAGEN.. 47

VBC GENOMICS. 51

CAPITOLO SEI 56

LE APPLICAZIONI DEI MICROARRAY.. 56

IL SEQUENZIAMENTO MEDIANTE IBRIDAZIONE. 56

LA MEDICINA MOLECOLARE. 56

MUTAZIONI DINAMICHE. 59

GENI E SUSCETTIBILITA’ 59

MICROBIOLOGIA.. 60

INFEZIONI BATTERICHE. 61

INFEZIONI VIRALI 62

EZIOPATOGENESI DEI TUMORI 63

GLI ONCOGENI 64

I GENI ONCOSOPPRESSORI 64

LE TRASLOCAZIONI CROMOSOMICHE. 65

LE SINDROMI NEOPLASTICHE EREDITARIE. 65

MARCATORI TUMORALI 65

CAPITOLO SETTE. 67

FUTURI SVILUPPI 67

RISPOSTE RAPIDE PER MALATTIE COMPLESSE. 67

LA COMPONENTE GENETICA DELLE MALATTIE. 67

ONCOLOGIA.. 68

ALLERGIA.. 69

INFARTO DEL MIOCARDIO.. 71

NEUROPSICHIATRIA.. 72

MALATTIE  MIGRANTI 73

MEDICINA FORENSE. 74

PRESERVARE IL BENESSERE. 75

LE CHIAVI DELLA LONGEVITA’ 75

STUDIO DEI PROCESSI  EVOLUTIVI 78

FARMACOGENETICA E FARMACOGENOMICA.. 78

L'AGRICOLTURA MOLECOLARE. 80

CAPITOLO OTTO.. 81

CONSIDERAZIONI  CONCLUSIVE. 81

LA BIOLOGIA SINTETICA.. 81

LE BIOFABBRICHE. 81

IL PROGETTO GENOMA PERSONALE. 82

CAPITOLO 9. 84

PROSPETTIVE BREVETTUALI E COMMERCIALI 84

I BREVETTI 84

AZIENDE E MERCATI 86

COLLABORAZIONI E FINANZIAMENTI 87

NUOVO EQUILIBRIO DEL SAPERE. 88

BIBLIOGRAFIA.. 90

CAPITOLO UNO.. 90

CAPITOLO DUE. 90

CAPITOLO TRE. 90

CAPITOLO QUATTRO.. 92

CAPITOLO CINQUE. 94

CAPITOLO SEI 95

CAPITOLO SETTE. 98

CAPITOLO OTTO.. 101

CAPITOLO NOVE. 102


 

INTRODUZIONE

I microarray o biochips sono un piccolo supporto per analisi costituito, nella forma più tradizionale, da un vetrino portaoggetti o anche altri tipi di supporto su cui sono fissati, su linee parallele, decine, centinaia o anche migliaia di puntini (spots) che sono piccoli o addirittura piccolissimi ammassi di acidi nucleici, proteine o cellule e che quindi, funzionando da veri e propri biosensori, rendono possibile, con l'aiuto del computer, la valutazione di qualsiasi tipo di fenomeno vitale con una velocità e una precisione mai realizzate in precedenza in tutta la storia della biologia. Un biosensore, infatti, è un sensore chimico che sfrutta l'elevata specificità e sensibilità delle molecole biologiche per trasformare un segnale biochimico ( in genere un evento di riconoscimento specifico ) in un segnale quantificabile.

Praticamente il microarray è un miniaturizzato sistema di analisi che si basa sulla utilizzazione di supporti di vario genere, i più comuni sono in vetro, su cui sono allineate microscopiche aree costituite da un numero anche notevole di molecole di cattura, disposte secondo specifici criteri, che rendono possibile, per mezzo di indicatori fluorescenti o di altro genere, determinare in parallelo, e nello stesso tempo, anche migliaia di eventi biologici che, letti da uno scanner in parallelo e contemporaneamente o da altro apparecchio in grado di assolvere alla stessa funzione, sono resi evidenti sullo schermo di un computer, che tra l' altro, in base ai risultati, può anche dare una risposta numerica che è espressione della elaborazione complessiva del fenomeno preso in esame.

La utilizzazione di tali piccolissime quantità di molecole di cattura, e di altrettanto piccole quantità dei campioni, rende il metodo molto più sensibile di altri che utilizzano volumi centinaia di volte maggiori.

Pertanto, proprio per le sue peculiari caratteristiche, l'uso dei microarray ha trovato immediata larga applicazione nello studio del genoma in quanto è stato possibile utilizzare vetrini su cui erano stati fissati anche decine di migliaia di oligonucleotidi per centimetro quadrato e che quindi, in base a specifici fenomeni di ibridazione, permettevano di mettere insieme rapidamente, ed in parallelo, una enorme quantità di dati sull' espressione dei singoli geni.

La prima intuizione di tale nuovo metodo di analisi la si deve a Mark Schena dell’università di Stanford, che ne ha fatto cenno ad Amsterdam nel 1994 nel corso del quarto congresso internazionale di Biologia Molecolare delle Piante, ma la prima pubblicazione riguardante questa nuova tecnica è dell'anno seguente (Schena et al. 1995). Presso l'università di Stanford, che ha una lunga tradizione negli studi sugli acidi nucleici, e presso i contigui Laboratori Davis, sono state infatti affrontate le prime problematiche su come fissare sui vetrini microscopiche linee di sequenze di geni delle piante e su come studiarne l'espressione utilizzando campioni di mRNA isolati dalle cellule e coniugati ad un enzima per poter evidenziare poi l'avvenuta reazione con la comparsa di fluorescenza di intensità variabile e quindi misurabile.

Quindi i microarray, come i microprocessori, sono nati nella Silicon Valley. Parallelismo, miniaturizzazione ed automazione sono tre aspetti che mettono in luce una certa similarità fra le due tecnologie. I microprocessori hanno rivoluzionato i rapporti umani ed hanno reso possibile favorire gli interscambi ed eseguire milioni di calcoli per secondo. Abbiamo il convincimento che i microarray potranno generare una rivoluzione tecnologica di inimmaginabile portata, perché in grado di chiarire tantissimi problemi che sono alla base dei processi che riguardano tutte le forme di vita sia vegetale che animale.

Infatti si è sviluppato rapidamente un enorme interesse sulle prospettive di utilizzazione di tale nuova tecnologia perché utilizzabile non solo per studiare le piante, gli animali e l' uomo, ma anche i lieviti, i batteri, i virus. Ne consegue che si intravede un' esplosiva applicazione non solo in medicina ma in tutta la biologia, agricoltura compresa.

Per avere un' idea di quello che può rappresentare in campo medico basti pensare che l'espressione dei singoli geni è sempre strettamente correlata a quasi tutti i fenomeni della crescita, dello sviluppo, dell'invecchiamento, all'azione delle droghe, degli ormoni, alle malattie mentali e ad una infinità di malattie in cui la sequenza genica del singolo individuo gioca un ruolo importante.

Ci si è subito resi conto che, con questo nuovo mezzo d'indagine, sarebbe stato possibile non solo fare diagnosi molto più precise e documentate, ma anche sarebbe stato possibile arrivare alla individuazione dei farmaci più adatti da utilizzare di volta in volta per i singoli pazienti.

Siamo quindi alla vigilia di un modo nuovo di fare la medicina su basi biologiche molto più complete e profonde perché potremo valutare rapidamente, grazie all'uso dei microarray e dei computer, non solo il comportamento dei singoli organi o distretti, ma anche essere informati di quello che è in atto in base alla valutazione dell'attività di migliaia di singoli componenti cellulari, inclusi i geni che ci daranno la possibilità di fare diagnosi esatte, anche in corso di manifestazioni patologiche di difficile interpretazione, compresi i tumori.

Dato che nel genoma di ciascuno di noi c'è scritto chi siamo e quello che possiamo o non possiamo fare, e dato che la nostra vita è espressione delle interreazioni che, specialmente attraverso le proteine, che derivano dai geni, avvengono fra le nostre cellule, con i microarray, sapremo dare risposte precise a tante domande a cui oggi non è possibile rispondere.

Ma questa nuova tecnologia, se da un lato si va diffondendo perché permette di realizzare tecniche diagnostiche  finora improponibili, è ancora abbastanza complessa perché, per lo meno sotto certi apetti, alcune fasi non hanno ancora raggiunto l’optimum di standardizzazione e di automazione. I problemi che si possono affrontare sono tali e tanti che non ci si deve meravigliare se alcuni aspetti o alcuni tipi di soluzioni  che sono prospettati possono far sorgere dei dubbi.

Lo scopo di questa monografia è pertanto sia quello di descrivere  le tecniche fondamentali e le possibili applicazioni ma anche di illustrare tutti gli aspetti riguardanti i controlli di qualità che in tipo di lavoro così complesso, che è ancora in gran parte di tipo artigianale e molto capillarizzato assumono più che mai un’importanza determinante per ottenere consistenza e ripetibilità di risultati.


Torna all'indice

CAPITOLO UNO

LE BASI CHIMICHE DELLA VITA

 

L'essenza della vita è un colossale ed apparentemente disordinato rimescolamento di molecole che interagiscono in rete per effetto degli stimoli dell’ambiente con diversi gradi di connettività e differenti stati di sensibilità alle perturbazioni.

Le molecole sono sostanze formate da due o più atomi combinati in vario modo. Atomi della stessa specie e della stessa massa formano la tavola periodica dei 118 elementi che è praticamente l'alfabeto chimico. Gli elementi sono quindi atomi che, con le normali reazioni chimiche non possono essere frazionati in strutture più semplici.

I vari elementi sono identificati usando o l'intero nome o lettere singole: Carbonio (C), azoto (N), ossigeno (O), fosforo (P) e zolfo (S) sono gli elementi che più di frequente si trovano nelle biomolecole.

Lo studio delle basi chimiche della vita si articola nella biochimica, disciplina scientifica sviluppatasi negli ultimi 200 anni, che ha svelato, con una impressionante serie di progressive scoperte, il funzionamento delle più importanti molecole che giocano un ruolo fondamentale nei meccanismi vitali e che sono il DNA, RNA, le proteine ed i carboidrati.

Queste sono strutture allungate,conosciute anche come biopolimeri, e che sono composte da catene di molecole più piccole o monomeri. I più importanti monomeri, su cui si articolano i meccanismi fondamentali della vita, sono i nucleotidi, gli aminoacidi ed i monosaccaridi.

Cerchiamo di ricapitolare brevemente le caratteristiche fondamentali di ciascuno di essi.

NUCLEOTIDI

Sono i monomeri o molecole costituenti le catene degli acidi nucleici sia tipo DNA che RNA, e consistono, a loro volta di tre differenti componenti: una base azotata, un gruppo fosfato ed una molecola di zucchero o monosaccaride.

Le basi azotate sono strutture eterocicliche contenenti più atomi di azoto ed una delle cinque basi azotate che sono note come adenina ( A ), guanina ( G ), citosina ( C ), timina ( T ) ed uracile ( U). Sono appunto dette basi perché in soluzione hanno reazione basica. Come vedremo, le prime quattro entrano nella struttura del DNA o acido desossiribonucleico, mentre l'uracile, invece della timina, entra nella struttura del RNA o acido ribonucleico.

Oltre alle basi, la molecola del nucleotide è composta anche da una molecola di un monosaccaride a 5 atomi di carbonio detto appunto pentosio. Le molecole del monosaccaride dei nucleotidi del DNA e quelle del RNA sono praticamente identiche tranne che in posizione 2' dell'anello che contiene, per il DNA, un atomo di idrogeno e quindi H, invece dell'ossidrile OH che è nella stessa posizione del RNA. Da ciò derivano pertanto le denominazioni desossiribosio e ribosio.

I nucleotidi che compongono la molecola di DNA e RNA contengono una sola molecola di fosfato mentre quelli utilizzati per la sintesi enzimatica sempre del DNA e RNA ne contengono tre.

AMINOACIDI

Sono i componenti essenziali delle proteine e, come tali, indispensabili alla vita. Svolgono un ruolo importantissimo in vari processi chimici naturali.

Gli aminoacidi sono 20 e tutti hanno come componenti caratteristici della struttura sia una gruppo amminico ( NH3 ) che un gruppo carbossilico ( COO ) acido da cui deriva il nome. Riportiamo nella seguente tavola come vengono contrassegnati in modo abbreviato con tre lettere o con una singola lettera.

TAVOLA DEGLI AMINOACIDI


 

Aminoacidi

Abbreviazione a tre lettere

Abbreviazione a lettera singola

Alanina

ala

A

Arginina

arg

R

Asparagina

asn

N

Aspartato

asp

D

Cisteina

cys

C

Glutamina

gin

Q

Glutammato

glu

E

Glicina

gly

G

Istidina

his

H

Isoleucina

ile

I

Leucina

leu

L

Lisina

lys

K

Metionina

met

M

Fenilalanina

phe

F

Prolina

pro

P

Serina

ser

S

Treonina

thr

T

Triptofano

trp

W

Tirosina

tyr

Y

Valina

val

V

 

 

Si sospetta che nelle prime forme di vita, gli archeobatteri, il codice usato non arrivasse a specificare tutti e 20 questi elencati ma ce ne fossero altri due: la selenocisteina e la pirrolisina, che sono simili alla serina. Questo ci fa pensare che il codice genetico, non sia stato sempre uguale ma che tenda ad evolvere e ad espandersi dando origine a nuovi aminoacidi.

MONOSACCARIDI

Sono composti biochimici noti anche come zuccheri. altamente solubili, contenenti atomi di carbonio, idrogeno e ossigeno in rapporto 1: 2 : 1. E' una famiglia di molecole molto estesa che include glucosio, fruttosio, mannosio, galattosio ecc.

Le catene di monosaccaridi contenenti due o più di tali molecole sono conosciuti come polisaccaridi o carboidrati.

DNA

Il DNA o acido desossiribonucleico è presente nel nucleo di ogni cellula del nostro corpo. E’ la molecola di cui sono composti i geni e che codifica le informazioni per la sintesi sia dell’ RNA che delle proteine. E’ composta da tre componenti: uno zucchero,un fosfato, ed una base. La molecola del DNA è lineare e si forma per un’ azione enzimatica che lega il gruppo idrossilico 3' di un nucleotide al gruppo S' del fosfato di un altro nucleotide. Due nucleotidi riuniti insieme in questo modo formano un dinucleotide, ma le molecole di DNA sono formate da un gran numero di nucleotidi. Risultano essere, quindi, sottili e lunghissime scale a chiocciola ma avvolte e superavvolte in un'intelaiatura proteica, così che il tutto assume la forma di un bastoncello microscopico che prende il nome di cromosoma, che, come vedremo è composto da un insieme di segmenti funzionali, detti geni.

Un tipico gene umano contiene spesso circa 10.000 nucleotidi, mentre un cromosoma ne contiene anche 1.000.000.

La catena del DNA ha una polarità e viene letta andando da sinistra, o parte alta, verso destra che è la parte terminale. La parte alta contiene il fosfato legato all'atomo S' di carbonio del desossiribosio, mentre l'estremo terminale contiene il gruppo idrossilico legato all' atomo 3' di carbonio del desossiribosio.

Le molecole di DNA si possono sintetizzare usando particolari macchine che, appunto, prendono il nome di sintetizzatori di DNA. Si possono così realizzare delle catene di 10-100 nucleotidi a catena singola, noti come oligonucleotidi sintetici, largamente utilizzati anche nella produzione dei microarray.

Le molecole di DNA naturale, essendo le catene singole instabili, sono bicatenarie e le singole catene, distanti l'una dall'altra 20 Å, sono tenute insieme da ponti idrogeno che gli danno un andamento a spirale come in una scala a chiocciola e con le singole volute corrispondenti a 10 basi. Una catena va dal 5' al 3' e l'altra, che è complementare dal 3' al 5'. L'accoppiamento delle due catene si realizza sempre con collegamenti esclusivi, nel senso che all'adenina (A) si lega alla timina (T), e la guanina (G) si lega alla citosina (C). Questo processo di interreazione fra le due catene complementari prende il nome di ibridazione.

L’unità fondamentale del codice genetico è il codone  che è composto da tre nucleotidi.

Le molecole di DNA, come dimostrato da Watson e Crick, sono costituite da un doppio filamento di nucleotidi  appaiati perfettamente complementari. Si tratta di molecole filiformi e lunghissime, avvolte a gomitolo e quindi tridimensionali, di carica negativa, facilmente solubili in acqua, grazie alla presenza del fosfato e dello zucchero che sono altamente idrofilici.

Si tratta perciò di molecole con cui è relativamente facile lavorare in laboratorio. La carica negativa, conferita dal fosfato, ne facilita il legame sulle superfici dei microarray quando queste sono rese di carica positiva trattandole per es. con derivati amminici ( R-NH 3+ ).

RNA

Le molecole di RNA sono molecole intermediarie perché, come mRNA, ovvero RNA messaggero, trasferiscono l'informazione genetica dal DNA alle proteine che devono essere sintetizzate, e come t RNA, ovvero RNA trasportatore, raccolgono nel citoplasma e mettono in fila, presso i ribosomi, i vari aminoacidi in modo che formino la sequenza proteica prevista in base al segnale che arriva dal DNA.  Sono molecole simili a quelle del DNA ma hanno alcune particolarità, perché sono a catena singola, contengono la base uracile ( U ) invece che la timina ( T ) ed hanno come molecola di zucchero il ribosio invece che il desossiribosio.

Le catene di RNA, oltre che essere singole, sono molto più corte nel senso che non superano mai i 10.000 nucleotidi. Anche queste molecole sono dotate di carica negativa, facilmente solubili ma molto più instabili rispetto a quelle del DNA, perché facilmente attaccate dalle ribonucleasi che sono enzimi molto diffusi nell' ambiente e sulle superfici del nostro corpo per cui, quando ci si lavora bisogna prendere particolari precauzioni ed indossare guanti di gomma sintetica.

La maggior parte dei ricercatori riconoscono tre tipi di RNA cellulari: messaggero ( m RNA ), ribosomiale ( r RNA ) e di trasferimento ( t RNA ). Le molecole di m RNA,che sono appunto quelle devolute al trasferimento dell'informazione genetica, non superano il 5% del RNA totale cellulare, ma, sotto il profilo funzionale, sono le più importanti, perché ciascuna molecola di m RNA corrisponde, come sequenza di basi, ad uno specifico gene. Pertanto siccome i geni umani sono circa 30.000, ci sono 30.000 differenti molecole di mRNA nelle nostre cellule, ciascuna formata da una catena di 1000-10.000 ribonucleotidi.

Sono le molecole di r RNA le più abbondanti ( fino al 85% del totale ), ciascuna comprendente 100-5000 ribonucleotidi, che sono quelle che coordinano direttamente la sintesi delle proteine che avviene proprio a livello dei ribosomi, che sono larghe strutture citoplasmatiche devolute a questa funzione.

Le t RNA, che costituiscono circa il 10% del totale, hanno la funzione di legare i singoli aminoacidi al m RNA per rendere possibile poi il trasferimento ai ribosomi e favorire così la sintesi delle proteine.

Ma si va facendo strada il sospetto che esista un quarto tipo di RNA, che si potrebbe chiamare RNA attivo, cosi chiamato perché sembra che simuli proprio la funzione dei geni, tanto che qualcuno comincia a parlare di geni di solo RNA ( Eddy 200 l; Storz 2002 ), le cui funzioni, ancora parzialmente definite, cercheremo di chiarire più in avanti.

 

PROTEINE

Il dogma centrale su cui si è basata la genetica molecolare, a partire dagli anni cinquanta, è molto semplice: Il DNA fa l' RNA, l' RNA fa le proteine e le proteine svolgono quasi tutto il lavoro biologico vero e proprio.Più esattamente possiamo dire che i geni sono codificati nel DNA del nucleo delle cellule. Qui è prodotto ( trascritto) lo RNA messaggero ( m RNA ) che si trasferisce nel citoplasma, elimina gli introni , subisce una serie di modificazioni  e, poi, con l’aiuto dei ribosomi, ciascuno viene tradotto nella relativa proteina.

Le proteine sono composte da lunghe catene di centinaia o migliaia di aminoacidi , legati insieme con legami covalenti fra il gruppo carbossilico di un aminoacido ed il gruppo amminico del contiguo.

Abbiamo visto che esistono 20 aminoacidi con formule chimiche diverse, e, quindi, una serie di componenti elementari molto più numerosi dei quattro nucleotidi che formano le molecole del DNA e del RNA. Ne deriva che, legandosi in vario modo possono dar luogo a lunghissime catene diverse che costituiscono poi la struttura di tutto il mondo biologico sia vegetale che animale.

Quando una proteina si forma si ripiega in una struttura tridimensionale che è per lo più determinata dall'affinità degli aminoacidi per l'acqua. Gli aminoacidi idrofobi tendono a ripiegarsi all'interno della molecola, lasciando le loro controparti idrofile, come per esempio il glutammato nella molecola dell' emoglobina, a contatto con il citoplasma acquoso della cellula.

Nelle cellule la trasmissione del messaggio dal DNA al RNA e poi alla proteina, avviene in modo collineare sequenziale:

5' -CAC-TTT-GTA-3' DNA

5' -CAC -UUU -GUA -3' RNA

H3N -his -phe -val -COO Proteina

 

Ognuno dei circa 30.000 geni umani dovrebbe codificare una sola proteina e, quindi, nelle nostre cellule ci dovrebbero essere circa 30.000 proteine diverse. Invece la realtà è molto più complessa perché si  è visto che ciascun gene può codificare fino a 20 proteine diverse e che di molte proteine si conoscono più varianti, simili ma diverse o per la sostituzione di qualche aminoacido o per una diversa configurazione della forma terziaria derivante dal ripiegamento. Le proteine sono quindi una vastissima famiglia di molecole comprendenti enzimi, anticorpi, ricettori, trasportatori, ormoni ecc. Pertanto oggi si ritiene che il proteoma umano comprenda non meno di un milione di molecole diverse.

Gli enzimi, come è noto, sovrintendono a tutte le attività biologiche quali la sintesi del DNA, la sintesi del RNA, la sintesi delle proteine, il metabolismo cellulare in tutte le sue forme, la degradazione del RNA, la degradazione delle proteine ecc.

Si sa che nel nostro organismo i vari enzimi catalizzano, nelle cellule, centinaia e anche migliaia di reazioni biochimiche al secondo.

Gli anticorpi sono invece molecole di difesa che servono a proteggerci dall’invasione di virus, batteri, e da molti tipi di molecole estranee che penetrano nei nostri tessuti, che prendono il nome di antigeni.

Gli anticorpi sono globuline che, in base al peso molecolare si dividono in due grandi categorie: quelli di peso molecolare compreso fra 150.000 e 190.000 e quelli di peso molecolare intorno a 900.000- Alla prima categoria appartengono quattro classi IgA, IgD, IgE ed IgG. Alla seconda soltanto le IgM.

Già alla nascita sono presenti nei nostri tessuti anticorpi di origine materna, trasmessi attraverso la placenta e, nei primi giorni di vita, attraverso il colostro. Col tempo compaiono poi gli anticorpi che poi, in ciascuno di noi, si formano come risposta ad antigeni ambientali o ad infezioni o per effetto di immunizzazioni indotte da vaccini. Caratteristica fondamentale degli anticorpi è quella di reagire in modo specifico con l' antigene che ne ha determinato la formazione. Sono pertanto noti anche come immunoglobuline.


Torna all'indice

CAPITOLO DUE

EREDITÁ E RETI DINAMICHE

GENI

Il gene è un segmento del DNA genomico ed è quindi l'unità morfologica funzionale dell'intero organismo. Il luogo fisico dove ciascun gene è posizionato è detto locus. In ogni locus possono esistere forme diverse dei geni, perché, eccetto per i cromosomi del sesso, ogni individuo ha due alleli per ciascun locus.Tali alleli sono analoghi ai “ fattori “ descritti da Mendel. Gli individui sono omozigoti, per ogni aspetto morfologico o funzionale, se i due alleli sono identici e, quindi, indistinguibili l’uno dall’altro. Gli eterozigoti hanno invece alleli diversi. I maschi sono emizigoti perché hanno una sola copia del cromosoma X.

La differenza fra i due alleli può essere minima, ossia riguardare una sola coppia di basi. Alcune volte la non corrispondenza degli alleli non ha conseguenze funzionali mentre altre volte, come vedremo, anche la diversità di una sola base, può avere effetti deleteri, come nel caso dell’anemia a cellule falciformi dovuta ad un’accoppiamento timina-alanina  che porta  all’alterazione della ctena B  dell’emoglobina A, perché la sostituzione di un’aminoacido idrofilo con uno idrofobo fa cambiare la struttura terziaria. Quando gli alleli sono diversi, in genere, uno prevale sull’altro, e pertanto è detto dominante.

Ciascun gene codifica un solo tipo di m RNA ed una sola proteina, seppure con diverse varianti strutturali, ed, attraverso di essi impartisce istruzioni al funzionamento della cellula. Gruppi di geni adiacenti svolgono spesso funzioni correlate. Ma i geni non funzionano tutti nello stesso tempo. Ad esempio i geni che controllano il metabolismo del lattosio funzionano solo quando una cellula cresce in un terreno contenente, come zucchero essenziale, il lattosio. In assenza di lattosio non hanno bisogno di lavorare.

Ogni gene è composto da circa 10.000 nucleotidi, ovvero l0 kb o chilobasi, che sono disposti in modo da formare la doppia elica di acido desossiribonucleico ( DNA ).

I geni degli eucarioti, e quindi anche delle cellule umane, contengono un certo numero di esoni e di introni.

Gli esoni sono segmenti di gene che vengono copiati sul corrispondente m RNA e sono composti da sequenze di codoni ovvero da sequenze delle 64 triplette di nucleotidi contenenti le quattro basi A T C G, ciascuna riferentesi ad uno dei 20 aminoacidi utilizzati per la sintesi delle proteine. Ma, con eccezione per metionina e triptofano, anche triplette diverse possono codificare per lo stesso aminoacido, per esempio quattro codoni codificano la leucina ( CTT, CTC, CT A, CTG ), e due la lisina ( AAA, AAC ).

Introni sono invece segmenti di geni che non vengono trasferiti nel m RNA e che quindi non codificano la sintesi delle proteine. Queste porzioni di sequenze non codificanti, che costituiscono oltre l’80% del genoma umano, non sono tuttavia inutili, come si è creduto per molti anni, perché, come vedremo, danno origine a RNA sorprendentemente attivi, in grado di silenziare o regolare i geni.

Un tipico gene umano è costituito da 6-8 esoni ed introni, ciascuno lungo 100-1000 paia di basi e, quindi, 0,1-1 kb. Ma la lunghezza e la struttura dei geni varia considerevolmente. Per esempio il gene che determina la fibrosi cistica, malattia che, in alcune aree, colpisce 1 neonato ogni 3000, contiene 25 esoni e ben 250 kb che codificano una proteina patologica di ben 1480 aminoacidi.

Il più grande gene umano noto è quello che determina la distrofia muscolare di Duchenne: contiene 75 esoni e 2,4 milioni di paia di basi.

E' interessante il punto di vista dello zoologo inglese Richard Dawkins che, nel riconsiderare i concetti di gene, individuo e specie ha affermato che l'organismo deve essere visto nella sua interezza come una macchina le cui parti concorrono a realizzare un unico fine che consiste nella replicazione di tutti i geni dell'organismo. Ogni organismo si è sviluppato grazie ad un patto stabilito fra loro dai geni che sono sopravvissuti proprio in virtù della propria capacità di collaborare nel pool genetico per creare organismi individuali dello stesso tipo. In quest'ottica i geni rappresentano i veri replicatori, mentre l'organismo è semplicemente il veicolo per il replicatore e la specie è l'agglomerato nel quale i geni collaborano tra loro perché presentano le stesse aspettative. I replicatori sopravvivono attraverso il processo di selezione naturale in virtù della loro compatibilità con l'ambiente.

GENOMA

Si intende l'insieme di tutto il materiale genetico che costituisce il corredo ereditario di un organismo vivente. Ogni cellula di un organismo contiene nel proprio nucleo un insieme di coppie i di cromosomi costituiti da DNA e da proteine. Per esempio ogni cellula umana contiene nel proprio nucleo 46 cromosomi, 23 di origine paterna e 23 di origine materna e più precisamente 22 autosomi , che sono uguali nel maschio e nella femmina e poi X ed Y che sono i cromosomi del sesso che sono morfologicamente diversi.

Le cellule somatiche degli animali superiori sono dette diploidi perché hanno due copie di ciascun cromosoma che, come abbiamo visto, sono di origine diversa, una dal padre ed una dalla madre. Invece le cellule dell’uovo o dello sperma per ciascun cromosoma hanno un unico rappresentante e, quindi, sono dette aploidi.

Se si colorano le cellule in fase di divisione si possono vedere al microscopio i singoli cromosomi, che sonodistinguibili per la grandezza ed in base alla morfologia caratterizzata dalla posizione del centromero che è interposto fra le braccia corte ( p ) e le braccia lunghe ( q.).

All'interno dei cromosomi risiedono i geni distribuiti l'uno dopo l'altro in modo da formare un filamento attorcigliato lungo circa 2 metri e che, codificando la produzione delle proteine, nel loro complesso, determinano tutte le caratteristiche dell' organismo. Ogni specie di organismi ha un certo numero di cromosomi e di geni che sono caratteristici per la specie perchè ne differenziano l'aspetto, il metabolismo ed il comportamento rispetto a quelli di altre specie. Quindi ciascun organismo ha un'unica sequenza ed un'unica struttura del genoma che, entro certi limiti è abbastanza stabile, e che è caratteristica per ogni forma di vita e questo si verifica a tutti i livelli della scala biologica.

I geni degli organismi unicellulari primordiali e le cellule batteriche, che hanno preceduto di miliardi d'anni la comparsa dell'uomo sulla terra, avevano un genoma più semplice e privo di introni e i cui codoni sequenziavano un numero più ridotto di aminoacidi. Invece gli organismi unicellulari attuali come i lieviti, hanno nucleotidi ed aminoacidi simili a quelli umani, che, da un lato, confermano la teoria evolutiva degli esseri viventi, che va dai più semplici fino all'uomo, ma sono geni con strutture geniche più piccole e prive di introni.

Il genoma di molti virus e batteri consiste di un singolo cromosoma circolare, mentre gli organismi superiori hanno un genoma composto da numerosi cromosomi lineari.

Man mano che si sale nella scala biologica si vede che il numero dei geni e quello dei cromosomi aumenta e la struttura diventa più complessa. Quello che già si sospettava lo ha confermato la completa identificazione delle sequenze genomiche ormai completa per circa 1000 organismi diversi, che è stata estesa, negli ultimi anni anche all'uomo.

Gli obiettivi principali del Progetto Genoma Umano, che ha avuto fra i promotori James Watson e l'italiano Renato Dulbecco e che, con inzio nel 1984, ha coinvolto numerosi laboratori non solo in USA, ma anche in Francia, Inghilterra, Italia, Russia e Giappone, è stato quello di identificare la posizione di ciascun gene nei cromosomi umani e stabilire la sequenza con cui si succedono i nucleotidi dei singoli geni e quindi leggere per la prima volta l’intero libro d’istruzioni per costruire e far funzionare l’organismo umano contenute nel nostro DNA. Simultaneamente il Progetto ha dato la possibilità di confermare che l'evoluzione ha preservato in esseri viventi molto diversi fra loro, numerosi geni che hanno funzioni simili.

Comunque ogni specie di organismi ha un certo numero di cromosomi e di geni caratteristici e, poi, all'interno di ciascuna specie, ogni individuo ha un proprio genoma specifico.

Notiamo infatti che, per esempio, la mosca della frutta ( Drosophila melanogaster ) ha 5 cromosomi, 14.000 geni e 140.000.000 paia di basi; il topo ha 20 coppie di cromosomi, 30.000 geni e 3.000.000.000 paia di basi; l'uomo ha 3 coppie di cromosomi più del topo, ma, all'incirca, lo stesso numero di geni e di paia di basi.

E' stato messo in evidenza che il genoma di ogni essere umano è identico al 99,9%. Quindi solo una limitatissima percentuale di geni può variare da persona a persona.Abbiamo visto che ogni persona è portatrice di due alleli per ogni gene. Quando gli alleli sono uguali, si dice che quella persona, per quel gene, è omozigota. Se i due alleli sono diversi si dice che quella persona, per quel gene, è eterozigota. Negli eterozigoti, come abbiamo già riferito, uno dei due alleli è spesso dominante ed è espresso, l'altro è recessivo e può restare inattivo.

La presenza di due versioni per lo stesso gene risulta essere un naturale meccanismo protettivo, nel senso che, quando un allele risulta essere difettoso, può subentrare l'altro, che è in grado di compensare.

Per avere un'idea di come funzionino vediamo quello che succede per i gruppi sanguigni: ogni essere umano è classificato come gruppo A, B, AB oppure O. Questo perché il gene ABO ha tre alleli che sono A, B e O. Questi tre alleli hanno la struttura del DNA quasi identica perché, infatti, differiscono solo per pochissimi nucleotidi. Gli alleli A e B, che codificano rispettivamente per le proteine A e B, sono codominanti. Coloro che hanno gli alleli AA o AO, e quindi solo la proteina A, appartengono al gruppo sanguigno A. Coloro che hanno gli alleli BB o BO, e quindi solo la proteina B, appartengono al gruppo sanguigno B. Coloro che hanno ambedue gli alleli AB, appartengono al gruppo sanguigno AB. Coloro che sono 00, e quindi non hanno nessuna delle due proteine, appartengono al gruppo sanguigno O.

Come abbiamo già riferito le variazioni della struttura genomica fra un essere umano ed un altro sono limitatissime e riguardano praticamente singoli nucleotidi, nel senso che in una stessa posizione una persona può avere una G invece che una C, mentre un' altra può mancare di una T. Queste variazioni, meglio note come mutazioni e polimorfismi possono essere di vario genere e sono contraddistinte dalle denominazioni seguenti:

Sostituzione: una base invece di un’ altra.

Delezione: perdita di una base.

Inserzione: aggiunta di una base.

Inversione: una breve sequenza di basi è sostituita da un'altra che ha la stessa sequenza ma con direzione invertita.

Traslocazione: una breve sequenza di basi risulta rimossa e trasferita in un settore diverso.

I termini " mutazione " e " polimorfismo " sono spesso usati in modo intercambiabile, ma è più corretto considerare il polimorfismo una variazione di sequenza che si riscontra in almeno 1 % della popolazione e che, in genere, non produce effetti apprezzabili, mentre la mutazione è una variazione di sequenza più rara, ma che può essere dannosa.

EREDITÁ

Nel 1865 un monaco austriaco, Gregor Mendel, pubblicò il risultato delle sue osservazioni sulle modalità di trasmissione di tre caratteri dei piselli, ossia il colore dei semi, l’aspetto della superfice, liscia o rugosa, e l’altezza delle piante. Egli dimostrò come un certo “fattore” venisse trasmesso immodificato e con uguale frequenza da ciascuna generazione di piante alla seguente.

Le osservazioni di Mendel non furono prese in seria considerazione fino al 1902, quando Sir Archibald Garrod non dimostrò che l’alcaptonuria, una malattia umana, si trasmettesse in via ereditaria.

Sono dovuti trascorrere altri 90 anni dopo la prima osservazione di Mendel per capire che il fattore genetico individuato fosse il gene e come i caratteri ereditari si trasmettano fondamentalmente in base alle leggi di Mendel con il DNA, utilizzando un codice molto semplice, perché costituito da un alfabeto di 4 lettere, giustamene definito l’alfabeto della vita: adenina,citosina,guanina e timina. Tali quattro lettere poi si alternano in gruppi di tre creando 64 triplette o combinazioni, da cui derivano come vedremo, i 20 aminoacidi, che sono la base costituente di tutte le proteine, che sono a loro volta le più importanti molecole strutturali di tutti gli esseri viventi.

Appare sorprendente il fatto che tutti gli esseri viventi sia vegetali che animali si formino utilizzando lo stesso alfabeto e che sia possibile trasmettere geni anche da una specie ad un'altra ossia attuare il trasferimento genico che sta rivoluzionando tutta la biologia ed ha dato il via a non pochi dilemmi etici, perché la gente teme che gli organismi geneticamente modificati, possano, con il passar del tempo riservare delle sorprese.

Ogni uomo è formato da circa 100 miliardi di cellule e ciascuno di noi eredita un certo tipo di genoma, in cui sono presenti alcune variazioni che sono appunto dette ereditarie per distinguerle da quelle acquisite che possono comparire nel corso della vita per effetto di fattori tossici ambientali. Le mutazioni presenti nelle cellule somatiche  spesso dovuti alle interazioni con l’ambiente, vengono trasmesse solo alle identiche cellule figlie mentre quelle presenti nelle cellule della riproduzione o germinali sono ovviamente trasmesse anche alle generazioni seguenti.

Tutti gli organismi eucariotici, che includono i funghi, le piante, i roditori e i primati, compreso l'uomo hanno cellule somatiche diploidi, che significa che in ogni cellula hanno due copie dello stesso gene in una coppia di cromosomi analoghi, che sono quindi in totale 46 che, come sappiamo, 23 sono di origine paterna e 23 di origine materna. Le cellule germinali, conosciute anche come gameti, sono dette invece aploidi perché hanno una sola copia di ogni cromosoma, in totale 23, e quindi una sola copia di ogni singolo gene.

Durante la fertilizzazione, si ha l'incontro e la fusione della cellula germinale uovo con la cellula germinale spermatozoo, ciascuna portatrice di 23 cromosomi e si riforma la cellula somatica in cui si ritrovano, per ogni gene, la copia di origine maschile e quella di origine femminile. Quindi per ogni gene si può avere l'incontro di alleli omozigoti o di alleli eterozigoti, a secondo se le due copie sono, per quanto riguarda la sequenza dei nucleotidi, identiche o diverse. Ma non tutti i caratteri del fenotipo, come vedremo, sono trasmessi ai discendenti secondo le leggi di Mendel. Per cui c’è sempre una certa differenza tra il genotipo ed il fenotipo, sia perché i meccanismi di trasmissione ereditaria sono molto più complessi ma anche perché su tale espressione interferiscono tutti i componenti ambientali.

Tutte le alterazioni o mutazioni del codice genetico possono essere neutre, ovvero senza apparente effetto, oppure benefiche o deleterie. Naturalmente, in questo ultimo caso, portano ad alterazione di funzioni e quindi possono anche determinare una malattia.

Un individuo che per una certa malattia è eterozigote, può non manifestare i caratteri o i sintomi di quella forma morbosa ma, essendo portatore, essere sempre in grado di trasmettere quella variante o allele alla prole. Quando però, il carattere riferentesi a quella malattia è dominante sull'altro allele recessivo, allora, anche nell' eterozigote può evidenziarsi la sintomatologia della malattia.

Molte variazioni del genoma, qualora determinino scambi di aminoacidi fondamentalmente simili, non producono effetti apprezzabili a livello cellulare o producono anche effetti benefici. Su ciò si basa non solo la grande diversità biologica ma anche ci fa capire come mai l'evoluzione, condizionata dalle interferenze con l’ambiente, abbia portato quasi sempre a far prevalere il meglio.

Altre mutazioni possono essere dannose nel senso che possono essere causa diretta di malattia o aumentare la suscettibilità ad una data malattia che può condurre anche a morte. Per esempio una mutazione del gene p53, che codifica una proteina capace di bloccare la proliferazione cellulare, può anche determinare un'abnorme crescita cellulare fino alla formazione di tumori. Non c'è quindi da meravigliarsi se in soggetti in cui sia presente tale mutazione compaiano poi lesioni cancerose.

La maggior parte delle mutazioni che si ritrovano nel genoma umano derivanti dalla relativa instabilità del DNA,riguardano singoli nucleotidi e prendono il nome di polimorfismi in singoli nucleotidi (SNP s ). Di tali sequenze mutate, nei cromosomi umani se ne trova all'incirca 1 ogni 1000.

Comunque, come vedremo, ci sono malattie genetiche ben definite dovute alla mutazione anche di un solo gene, mentre la maggior parte delle malattie, per non dire tutte, hanno una base genetica che determina la suscettibilità individuale, ma sono multifattoriali perché sono espressione delle interazioni di più geni e dei singoli geni con l’ambientee.

Comunque lo studio sempre più approfondito del genoma ci sta chiarendo i rapporti fra struttura e funzioni dei geni. Il Progetto Genoma Umano ha definito le sequenze nucleotidiche di tutti i vari geni e, quindi di tutti i cromosomi. Alla fine di questa memorabile impresa Prancis S. Collins ha giustamente esclamato: “Siamo alla fine dell'inizio”.

Ora, infatti, dobbiamo capire il funzionamento di tutti questi geni. Le domande che attendono una risposta sono molte. Ne ricordiamo alcune:

Quali geni sono espressi nei vari tessuti?

Come l'espressione di un gene può essere influenzato da influenze extracellulari ?

Quali geni sono espressi durante lo sviluppo di un organismo?

Come cambia l'espressione di un gene in fase di sviluppo e di differenziazione ?

Quale effetto deriva dalla disregolamentazione di un gene ?

Quale tipo di espressione genica può essere causa di malattia o favorire l'aggravarsi di una malattia. ?

Quale tipo di espressione genica può influenzare la risposta ad un certo tipo di trattamento ?

Il diffondersi delle analisi eseguibili con i microarray permetterà di chiarire questi ed altri numerosissimi quesiti riguardanti tutta la biologia sia del mondo animale che vegetale.

PROTEOMA

Il termine proteoma è stato coniato circa dieci anni fa per introdurre un concetto simile a quello del genoma, ma a livello delle proteine. Per qualsiasi essere vivente, lo si può definire come l'insieme delle proteine che sono codificate dal suo genoma.

Il concetto di proteoma è molto più complesso del suo predecessore genoma per le seguenti ragioni:

  • I geni sono formati dalle 4 basi A T C G , mentre le proteine sono composte da 20 aminoacidi.
  • I geni sono entità fisse lineari e stabili mentre le proteine sono molto diverse costituiscono delle entità dinamiche, che assumono conformazioni che, in alcuni casi, sfuggono a ogni previsione.
  • Ciascun gene dovrebbe codificare una sola proteina. Ma questa regola è parzialmente valida soltanto per la struttura primaria della proteina. In realtà si è visto che per una serie di ragioni, ciascun gene codifica da 3 a 20 proteine. Si tratta di proteine simili, ma basta la sostituzione di qualche aminoacido con un altro per modificarne le funzioni. Ma più spesso succede che talune proteine, pur avendo la stessa struttura primaria, si combinino con molecole di zuccheri, che sono idrosolubili, o con molecole di acidi grassi, che sono idrofobe e questo fa si che questo cambi radicalmente la struttura terziaria. Infatti una molecola proteica che sia nel sangue o nel citoplasma cellulare ricco di acqua, tende a portare la parte della molecola idrofila verso l'esterno. Si superficializzano epitopi diversi, cambia la funzione e si modifica il rapporto con le molecole circostanti.
  • Da quanto su riferito ne deriva che il genoma umano è composto da circa 30.000 geni mentre il proteoma arriva a circa 1.000.000 di molecole proteiche sostanzialmente diverse.

 

Ne consegue che l'identificare la sequenza degli aminoacidi che compongono una proteina può essere di scarsa importanza se si desidera sapere, non solo come effettivamente la molecola è strutturata, ma anche come funziona sia in condizioni fisiologiche che patologiche.

C'è poi un altro aspetto, non di secondaria importanza, che riguarda le relazioni di ciascuna proteina con l'ambiente circostante per cui si può avere che la stessa proteina in cellule diverse ha un comportamento diverso e può assolvere a funzioni diverse. Poi occorre tener presente che le interazioni fra proteine sono eventi transitori e la cinetica, secondo le circostanze, può cambiare molto. Ogni condizione del nostro organismo, a seconda di quanto siamo malati o di quali farmaci prendiamo, determina radicali cambiamenti del proteoma.

Ma se pure il proteoma è molto più complicato da studiare di quanto lo sia stato il genoma, moltissime aziende biotech stanno cercando di capire quali siano gli strumenti e  le tecniche più adatti, non solo perché la proteomica è alla base della biologia ma perché si è convinti che tale approfondimento può aiutare molto lo sviluppo di nuovi farmaci.

Finora per capire quali siano le proteine presenti in determinate cellule o tessuti si sono utilizzate prevalentemente l' elettroforesi bidimensionale su gel, la spettrometria di massa e la cristallografia a raggi X.

Nell'elettroforesi bidimensionale si depone un piccolo campione della miscela di proteine sul bordo di un sottile strato di gel in grado di separare le proteine spostandole in due direzioni perpendicolari in base alla loro massa e alla loro carica elettrochimica. Pertanto ognuna diventa identificabile come una macchia distinta sul gel e quindi può essere prelevata e studiata con altre tecniche.

La spettrometria di massa utilizza magneti o campi elettrici per separare proteine differenti in base alla massa degli atomi che le costituiscono e i risultati appaiono come picchi di un grafico. Ma gli spettrometri di massa sono apparecchi molto costosi e non sempre si dimostrano utili nell'individuare le nuove proteine.

La cristallografia a raggi X consente di analizzare proteine preventivamente purificate e cristallizzate. Esaminando in che modo i raggi X vengano deviati dai singoli atomi di una proteina, si può capire come sia fatta la molecola ed intravedere la conformazione tridimensionale, che, come abbiamo già spiegato, per le proteine è importantissima.

Ma, con questi apparecchi, si riescono a catalogare le proteine presenti in un campione biologico ma non è questo l'unico obiettivo che si pongono gli studiosi del proteoma.

Per capire che cosa realmente facciano le proteine nel corpo e per sviluppare farmaci efficaci, dobbiamo sapere come varia la componente proteica da una cellula all'altra e, all'interno della cellula, con il mutare delle condizioni circostanti. Dobbiamo inoltre capire come le diverse proteine collaborino per portare a termine le varie attività della cellula.

Le proteine si combinano a formare reti funzionali e quindi è importante riuscire a capire con quali altre proteine una proteina, momento per momento, interagisca.

Servono quindi metodi nuovi e apparecchi nuovi. Siamo quindi certi che i microarray potranno dare un contributo fondamentale per la soluzione di tali problemi proprio perché adatti allo studio sistematico delle interazioni biologiche.

LE RETI DINAMICHE

Gli organismi viventi però non vivono nel vuoto ma, e tantomeno, in un ambiente statico, ma permanentemente coinvolti in continue e subentranti sfide ambientali che vanno da quelle dell’ambiente intracellulare a quelle dei singoli organi e sistemi interni all’ambiente esterno in cui ogni essere vivete compie giorno per giorno il suo ciclo di vita. Quindi, certamente, con la pubblicazione delle sequenze del genoma dei singoli esseri viventi fino quelli umani si sono create le basi di un sistema dinamico di vincoli che permettono alle cellule di agire in un certo modo. Ora ci si deve muovere verso una nuova frontiera e stabilira non solo le funzioni dei singoli geni ma anche scoprire i rapporti evolutivi e la logica che governa l’assemblaggio delle proteine coinvolte in complicate reti metaboliche che danno la possibilità a tutti gli esseri viventi di reagire in modo diverso a tutte le sollecitazioni sia dell’ambiente interno che esterno a cui si devono adattare.

L’elaborazione dell’informazione ereditaria rende possibile la costruzione di reti dinamiche d’interazione che caratterizzano le funzioni di tutti gli esseri viventi sia in condizioni fisiologiche che patologiche.

Ora, mentre conoscendo i genomi dei microrganismi è relativamente facile stabilire le funzioni dei singoli geni, lo stesso non si può dire quando si ha a che fare con genomi più complessi.

E’ ormai noto, infatti, che non tutta l’informazione biologica è racchiusa nelle sequenze del DNA che codificano le proteine, né che la funzione delle singole proteine derivi solo dalle sequenze degli aminoacidi che le compongono. Esistono certamente delle dinamiche interazionali che si esprimono a vari livelli delle attività cellulari e che, probabilmente, sono ancora sconosciute.


Torna all'indice

CAPITOLO TRE

PREMESSE OPERATIVE

COSA SONO I MICROARRAY

Un microarray è una linea ordinata di elementi microscopici su una superficie piana su cui è possibile immobilizzare sia acidi nucleici che proteine capaci di riconoscere e legarsi con molecole complementari. Permettono di eseguire, pertanto, sia reazioni di ibridazione, quando si tratti di acidi nucleici, o reazioni immunitarie, quando si tratti di antigeni o anticorpi. Ci si possono legare anche cellule vitali per realizzare ricerche di vario genere.

Microarray è una nuova parola scientifica composta da " micro ", che in greco significa " piccolo " e dal francese " arayer ", che significa " sistemare ".

I microarray, che qualcuno ha anche chiamato biochips o gene chips, contengono un insieme di piccoli elementi, detti anche spots, sistemati su file orizzontali e colonne verticali.

Un microarray può essere considerato un mezzo diagnostico se presenta quattro caratteristiche standard ossia essere ordinato, microscopico, planare e specifico.

Ordinato

Significa che gli elementi analitici, detti anche molecole probe o chip o spot, devono essere disposti in modo ordinato e preciso lungo file orizzontali diritte ed incolonnati anche su file verticali perfettamente perpendicolari. I vari elementi devono essere, ovviamente, di grandezza uniforme e separati da spazi uniformi.

E' assolutamente necessario che tali elementi siano disposti in maniera ordinata, sia su linnee orizzontali che verticali, perché questo ne facilita la produzione in automazione e, quindi a costi contenuti, ma, ancora più importante, ne facilita e accelera l'esame e l'interpretazione dei risultati.

Ogni elemento deve essere uniforme per non rendere ambigua la lettura. Non è ammissibile la se pur minima sbavatura che rischierebbe di contaminare la lettura dell'elemento vicino. Elementi di forma diversa o di diversa densità, anche se contenenti lo stesso numero di molecole, darebbero luogo ad un segnale di diversa intensità, compromettendo la precisione del risultato.

Inoltre, ovviamente ogni elemento deve avere una collocazione ben precisa, in base alle sequenze desiderate, di modo che, automaticamente, si sappia che il dato che la macchina legge corrisponda ad un unico e ben preciso probe o spot.

Microscopico

Microscopico è qualsiasi oggetto le cui dimensioni siano inferiori ad 1 mm ( 1000 micron ). I probes dei microarray possono avere dimensioni variabili e comunque compresi fra i 15 e 350 micron, ma quelli realizzati con estratti di tessuti possono arrivare anche a 600 micron. Sappiamo infatti che i vari elementi analitici o probe possono essere prodotti con materiali diversi: infatti possono essere geni interi, porzioni di geni, e quindi DNA, cDNA, mRNA, proteine, anticorpi ed anche porzioni di molecole e addirittura frammenti di tessuti cellulari. I materiali utilizzati includono molecole naturali ottenuti dalle fonti più diverse o anche materiali sintetici. Comunque per avere un'idea più completa si sappia che il tipico spot o probe di DNA contiene circa 1 miliardo di molecole.

Si tende tuttavia a realizzare probe quanto più piccoli, e questo sia perché così se ne possono concentrare anche fino a oltre 5000 per centimetro quadrato. sia perché quanto più piccolo è il probe o spot tanto più veloce è la cinetica della reazione realizzabile.

Per rendersi conto dell' enorme importanza della miniaturizzazione degli elementi, basti pensare che sono stati già realizzati microarray che comprendono l'intero genoma umano e, quindi con circa 35.000 spots.

Planare

il substrato di supporto dei probes può essere di vetro, plastica o silicio ma è importante che sia perfettamente piano. il materiale finora più usato è stato il vetro sia perché è più facile realizzare superfici senza imperfezioni sia perché ci si lavora meglio.

il materiale di supporto deve essere solido, rigido, planare ed impermeabile e perché solo se ha queste caratteristiche è possibile realizzare una produzione di alta qualità in automazione e rendere possibile anche la lettura dei risultati in automazione.

Comunque, anche se il vetro è stato preferito, sono allo studio anche altri materiali che forse potranno essere utilizzati per specifiche applicazioni.

Specifico

Ogni microarray ha la funzione di misurare in modo preciso il numero, la quantità o la concentrazione di molecole presenti nel campione. Quindi è fondamentale che le molecole presenti nel campione o target vengano legate dal probe in modo assolutamente specifico ed il segnale che ne deriva deve essere esattamente correlato alla quantità.

Ogni target deve legare solo una specie delle molecole presenti nel campione ed esprimere la più accurata misura del gene o del prodotto genico; inoltre il risultato deve essere riproducibile con un alto livello di confidenza.

L'assoluta specificità di legame fra il probe o spot che è sul vetrino ed un solo tipo di molecola fra quelle presenti nel campione o target è il criterio fondamentale per poter utilizzare un determinato microarray per fare analisi.

DAL GENOMA AL PROTEOMA

I microarrays per il DNA hanno reso possibile la convergenza di due aree scientifiche molto diverse: la genetica e l'elettronica. L'origine di tale nuova tecnologia va fatta risalire agli esperimenti di Southern che, nel 1975, dimostrò come fosse possibile fissare il DNA ad un supporto solido ed attrarre, in modo specifico, una catena complementare sempre di DNA. Tale processo, poi largamente utilizzato per scopi diagnostici, è noto come  “Southern blotting ".

Fu poi Fodor, che nel 1991, fabbricò i primi microarray, combinando il metodo fotolitografico, usato per i semiconduttori, per realizzarne i primi fissando degli oligonucleotidi su superfici di vetro. Avendo intuito l'importanza commerciale che tale tecnologia avrebbe potuto avere, fondò l'Affymetrix che ha avuto il merito di mettere sul mercato i GeneChip, che sono stati i primi vetrini con DNA utilizzabili per tests genetici.

Negli anni che sono seguiti i microarray con DNA hanno trovato una sempre più vasta applicazione in vari settori e con diversi fini. La tecnologia si è andata progressivamente affinando fino a produrre vetrini con decine di migliaia di microspots su pochi centimetri quadrati adatti per indagini molto complesse sulle modalità d'azione dei vari geni che prima non sarebbe stato possibile realizzare o avrebbero richiesto tempi molto lunghi.

Infatti solo con questa tecnologia è diventato possibile identificare, quantificare, e comparare in modo simultaneo l’espressione dei singoli geni. Quindi solo con questo approccio sarà possibile decifrare l’impianto regolativo delle reti geniche che controllano non solo i vari aspetti e funzioni del singolo fenotipo ma capire anche cosa effettivamente avviene in tante malattie la cui patologia rimane ancora in tutto o in parte oscura.

Oggi, che conosciamo la struttura dei singoli geni, dobbiamo capire se in un dato momento siano in funzione o meno, ma capire anche ed interpretare la dinamica delle migliaia di informazioni che ne derivano.

Infatti questo è il problema che interessa moltissimo non solo ai genetisti ma a tutti i medici, i biologi e tutti coloro che sono interessati a decifrare i più reconditi meccanismi e rapporti riguardanti tutti gli esseri viventi sia del mondo animale che vegetale. Ormai conosciamo esattamente la struttura dei geni di migliaia di piante e animali, uomo compreso, ma ora vogliamo capire come, quando e perché funzionano.

Abbiamo visto che, fino a qualche anno fa si credeva che ogni gene codificasse un solo tipo di m RNA e quindi, almeno teoricamente, una sola proteina ed attraverso di essa, impartisse istruzioni alle strutture cellulari e quindi al metabolismo. Oggi sappiamo invece che la realtà è molto più complessa perché ogni gene, con le varianti, può codificare fra 3 e 20 proteine. Quindi per capire come i geni funzionano bisogna arrivare alle proteine che essi esprimono e capire anche come le varie proteine interagiscono fra di loro. Ne deriva che se è stato molto importante studiare a fondo il genoma è ancora più importante studiare il proteoma, ossia lo sconfinato mondo delle proteine che è molto più complesso, anche perché non statico ma continuamente mutevole in un contesto di reti dinamiche per la continua serie di interazioni che avvengono fra diloro per effetto sia dei processi metabolici sia come risposta agli stimoli ambientali.

Infatti tutti gli acidi nucleici sono costituiti da quattro basi, sono sempre idrofilici e di carica negativa. Le proteine, invece, sono costituite da 20 aminoacidi, possono essere sia idrofiliche o idrofobiche, e sono alcune acide ed altre basiche. Ne consegue che, per poterci lavorare, si devono adoperare diversi tipi di soluzioni. Poi le proteine hanno una struttura terziaria con gruppi attivi che ne caratterizzano le funzioni individuali e, quindi, mentre il DNA è molto stabile, alcune proteine sono in genere molto delicate per cui possono essere denaturate da sbalzi di temperatura o umidità dell' ambiente. Solo gli anticorpi, che per fortuna sono largamente usati per la produzione dei microarray come molecole di cattura, sono molecole proteiche piuttosto robuste.

Queste maggiori difficoltà hanno reso piuttosto difficile il trasferimento delle tecnologie usate per produrre i microarray con DNA alla produzione dei microarray con spots di proteine.

C'è poi un altro aspetto che ha reso più difficile ancora tale trasferimento: mentre i geni umani, che sono il caso limite, sono circa 30.000, si ritiene, che nel corpo umano, dato che si possono trovare numerose varianti delle singole proteine, il numero complessivo di strutture proteiche diverse del proteoma possa arrivare a circa un milione.

Comunque l'interesse per allestire microarray per le proteine è enorme sia perché le varie attività cellulari sono prevalentemente realizzate attraverso interreazioni fra proteine sia perché la maggior parte dei farmaci esercitano i loro effetti reagendo con le proteine.

I primi esperimenti ben riusciti con le proteine sono quelli di Silzel ( 1998 ) che allestì, su un film di polistirene, degli spots di 200 micron con anticorpi monoclonali e dimostrò che le reazioni con le proteine del mieloma erano dose dipendenti.

PROPRIETA' DELLE SUPERFICI

La qualità delle superfici ha un' importanza enorme nella produzione di microarray che possano essere usati per eseguire delle analisi ed ottenere risultati riproducibili. Infatti le superfici dei vetrini che si adoperano giocano un ruolo importantissimo nel determinare non solo come le molecole probe ci si attaccano ma anche per far si che le reazioni che ci si svolgono, possano evolvere senza problemi o inconvenienti.

Riteniamo pertanto utile elencare le qualità essenziali che microarray ideali dovrebbero avere per poter operare bene:

Dimensione

L'ampiezza delle superfici operative dipendono ovviamente dalle dimensioni del supporto. Come già abbiamo accennato, attualmente si preferisce operare su vetrini portaoggetto le cui dimensioni ottimali sono in larghezza, lunghezza e spessore 25-76-0,94 mm.

Tale dimensione standard facilita sia l'automazione della produzione che tutte le fasi operative di utilizzazione che si concludono con la lettura dei risultati.

Liscia

La superficie di lettura deve essere omogenea e liscia. Non sono accettabili irregolarità in eccesso o in difetto superiori ai 10 micron. Infatti se la superficie non è omogenea il diametro e la fissazione dei probes o spots non può risultare uniforme né si riesce ad ottener una regolarità delle distanze fra un probe e quelli vicini. Irregolarità della superficie possono creare problemi anche in fase di lettura perché alcuni lettori hanno una profondità focale che non supera i 20-30 micron

Planare

Tutta la superficie di 25-76 mm deve essere assolutamente in piano. Dislivelli superiori a 10 micron, per le stesse ragioni riferite in precedenza compromettono sia la produzione che la corretta utilizzazione dei microarray. A riguardo bisogna anche curare il confezionamento degli stessi facendo in modo che vengano evitate manovre che possano determinare alterazioni da torsione.

Occorre rendersi conto che lo stesso numero di molecole se disposte su un vetrino che non sia perfettamente in piano o non sia liscio producono un segnale di intensità variabile.

Uniforme

L'uniformità dipende dalla regolarità sia atomica che molecolare del trattamento utilizzato per rendere la superficie reattiva. Una superficie si può considerare uniforme se le eventuali variazioni di densità dello strato reattivo non risultino superiori o inferiori del 25%

Lo strato. reattivo è costituito da un monostrato, di solito di organosilani, che sono molecole che stabiliscono un legame covalente con il supporto che, in genere è vetro. Su questo strato poi va creato un film di acrilamide, polilisina, o nitrocellulosa che sono molecole capaci di legare i singoli elementi analitici.

Nel complesso, quindi, l'uniformità della superficie è molto importante per poter avere microarray affidabili perché capaci di generare segnali che non varino d'intensità per ragioni che nulla hanno a che fare con la specificità della reazione.

Stabile

La produzione va curata in modo da ottenere prodotti che, nel periodo di validità che, secondo i tipi può essere variabile, decadano meno del 10%. Devono essere prodotti molto stabili, considerando anche che le tecniche di utilizzazione possono essere diversissime e che alcune utilizzano anche temperature elevate.

Inerte

Premesso che il tipo di vetro che si sceglie deve essere perfettamente trasparente, anche i trattamenti a cui lo si sottopone per poterci fissare poi sopra le molecole dello spot, non devono compromettere tale trasparenza più di un certo livello standard. Inoltre il tutto non deve presentare fluorescenza anomala né avere effetto deviante sulla luce.

Efficiente

La capacità di legame, che va misurata empiricamente da caso a caso, deve essere tale da rendere possibile la più bassa concentrazione possibile dei reagenti sia perché sono, di solito, molto cari sia perché cosi si ottiene la massima efficienza. Per esempio vediamo che, quando si adoperano oligonucleotidi quali molecole spot, la concentrazione ottimale è di 30 µM, e da tale concentrazione non è consigliabile derogare, in eccesso o in difetto, più del 30%.

CHIMICA DELLE SUPERFICI

I primi tentativi di fissare biomolecole su membrane di nylon o cellulosa, eseguiti nel trascorso decennio, puntando all' adsorbimento elettrostatico, hanno portato a risultati molto scadenti. Lo stesso è successo utilizzando superfici a base di poliacrilamide.

I primi risultati accettabili si sono avuti ricoprendo le superfici con del destrano carbossilmodificato.

I trattamenti chimici delle superfici attualmente più usati per gli acidi nucleici sono a base di:

Organosilani: sono composti che contengono atomi di silicio che si sono dimostrati molto validi per legare molecole organiche a superfici di vetro.

Esteri del silicio: sono una sottofamiglia dei precedenti caratterizzati dalla presenza di un atomo di ossigeno fra il silicio ed il carbonio. Uno dei più rappresentativi è il trietilmetoxil silano.

Amine primarie: nel gruppo amminico un atomo di azoto è legato direttamente ad un gruppo organico.

Amine alifatiche: il gruppo amminico è legato ad una catena di idrocarboni. n legame che si crea con le biomolecole, in questo caso, è di tipo elettrostatico e quindi si realizza un semplice assorbimento.

Aldeidi: permettono di realizzare un legame covalente, e quindi più stabile, ma disturbano la fluorescenza con un discreto rumore di fondo ovviamente aspecifico.

Le molecole utilizzate per fissare alle superfici gli acidi nucleici sono state utilizzate con discreto successo anche per le proteine. Ma oltre a queste, per poter realizzare un migliore e più regolare orientamento delle biomolecole da legare, che per le proteine è molto importante, sono stati utilizzati anche altri trattamenti di cui ricordiamo i seguenti:

Metalli come il nichel, adoperato per studiare il proteoma dei lieviti, ma che si dissociano facilmente, specialmente se si adoperano soluzioni che contengono EDTA.

Streptavidina: permette di creare il legame biotina-avidina, che è uno dei legami più stabili fra quelli non covalenti.

Ancora migliori si sono dimostrati i trattamenti delle superfici che creano anche un effetto da profondità che genera un legame migliore perché tridimensionale. Ricordiamo i seguenti:

Nitrocellulosa che praticamente è un polimero a base di glucosio nitrato.

Agarosio che funziona abbastanza bene ed è di facile preparazione.

Polimeri di vario genere.

DEFINIZIONI DA CHIARIRE

La pubblicazione che descrive le prime analisi eseguite con i microarray (Schena et al. 1995 ), usa il termine " target" per descrivere il DNA ( prodotto con la PCR ) attaccato al substrato, e il termine " probe " per descrivere il campione mRNA stratificato poi sopra ed in grado di interagire. Nella letteratura che è seguita, non tutta la comunità scientifica ha utilizzato gli stessi termini, anzi li ha invertiti, per cui ne è derivata una certa confusione. Molti, per esempio preferiscono il termine spot per indicare la molecola di cattura. Noi ci adegueremo alla tendenza attualmente più diffusa che è quella di chiamare probe o spot la molecola di cattura fissata al substrato che riveste la superficie del vetrino e target la molecola da catturare presente nel campione.

MICROARRAY CON ACIDI NUCLEICI

Gli acidi nucleici sono il tipo di probe più comune adoperato finora, ma, come riportiamo in seguito, molte altre molecole o materiali anche complessi, possono essere fissati sui vetrini per produrre microarray quali enzimi, anticorpi. carboidrati, lipidi. virus, batteri, cellule vegetali, cellule animali, estratti proteici, composti inorganici ecc. Spesso ci si legano materiali già preparati ma, in alcuni casi si preferisce realizzare delle molecole con sintesi attuate in loco. Praticamente ogni tipo di molecola, se già preparata, può essere usata come probe o microspot mentre, talora, si preferisce eseguire delle sintesi in loco solo per gli oligonucleotidi e per. taluni peptidi.

 

Prodotti da PCR ( Polymerase Chain Reaction ).

I primi esperimenti di analisi eseguite con i microarray sono stati realizzati usando probe preparati con la PCR noti come cDNAmicroarrays e long-oligoarrays quando si tratta di oligo di una certa lunghezza.. Mediante tale processo di sintesi automatizzata si possono produrre microgrammi di qualsiasi segmento di DNA che interessi e di qualsiasi tipo di organismo, inclusi batteri, funghi, piante e animali.Tali prodotti ottenuti con la PCR vanno poi purificati per allontanare i primers e gli enzimi che influirebbero negativamente sulle ibridazioni causando interferenza.

I prodotti da PCR sono generati utilizzando sia primers comuni sia primers specifici per determinati geni. Nella produzione dei microarray si utilizzano tutti e due i tipi.

Con una coppia di primers comuni è possibile amplificare migliaia di elementi target utilizzabili per la produzione di microarray. Infatti una coppia di primers comuni permette di amplificare diversi tipi di sequenze con lo stesso grado di efficienza, perché i primers sono ottimizzati per legarsi ad alta efficienza alle sequenze del vettore che è costituito da un plasmide o qualsiasi molecola trasportatrice di un inserto di DNA. All'uso di primers comuni consegue un piccolo inconveniente perché porta alla realizzazione di probe che sono contaminati da piccole quantità di sequenze del vettore. E' importante quindi la selezione dei primers, scegliendo quelli che interferiscano meno.

I primers gene specifici sono utilizzati per ottenere un unico elemento probe. Sono quindi preferibili perché non inseriscono sequenze contaminanti, ma tutta l'operazione costa molto di più. Per averne un' idea basti pensare che per amplificare i 6000 geni del Saccaromyces cerevisiae ne occorrono 12000.

I prodotti da PCR hanno il vantaggio di essere di dimensioni relativamente grandi ( 500-5000 paia di basi) e quindi forniscono un materiale ampiamente complementare per la successiva ibridazione, generando un materiale in grado di emettere un apprezzabile segnale fluorescente praticamente in ogni tipo di esperimento. Quindi questa tecnologia è largamente utilizzata in ogni tipo di laboratorio convenzionale anche perché il costo del materiale che se ne ottiene è di gran lunga inferiore rispetto a quello che deriva da sintesi di oligonucleotidi.

Lo svantaggio dei prodotti da PCR è dato dal fatto che sono a doppia elica e quindi per poter essere utilizzati in reazioni di ibridazione sui microarray devono esser prima denaturati mediante ebollizione per qualche minuto. Ne deriva il fatto che, siccome le due catene tendono a fondersi di nuovo, si realizza sempre un materiale contaminato da molecole che non possono ibridizzare e questo disturba l'espletamento della reazione, riducendo il segnale.

Un secondo inconveniente è dato dal fatto che danno luogo a spots di dimensioni notevoli e quindi possono generare l'inconveniente di causare ibridazioni crociate quando si studino geni che abbiano considerevoli identità di sequenze ( oltre il 70% pari a migliaia di  nucleotidi ).

 

Oligonucleotidi

Gli oligonucleotidi sono corte catene singole di DNA o di RNA. e presentano dei vantaggi per la produzione dei microarray rispetto a quelli realizzati con DNA in quanto non richiedono né l’uso di batteri né l’amplificazione del clone.

Ne risulta che, essendo ridotti i problemi di contaminazione, non risulta essere necessario il controllo delle sequenze. Sono utilizzati largamente, come molecole di cattura, anche nella produzione dei microarray sia prodotti a parte, e poi legati sul supporto, sia sintetizzati direttamente in loco con la fosforamidite. La sintesi in loco è da taluni preferita per produrre probe con non più di 25 nucleotidi, mentre, se prodotti a parte, si può arrivare anche a 120 nucleotidi.

Per quanto riguarda il genoma umano oggi è possibile acquisire facilmente la serie completa delle sequenze del DNA ( www,nebi.nlm.nih.gov/ ) e quindi ci si può produrre, in maniera molto specifica, qualsiasi tipo di sequenza e questo ovviamente determina un indubbio vantaggio per la produzione di probe rispetto a quelli ottenibili utilizzando i prodotti da PCR. C'è lo svantaggio, con gli oligonucleotidi, che, almeno con certi tipi di campioni, si ha un segnale fluorescente più debole. E, comunque, quando, non sono note le sequenze, non conviene utilizzarli.

MICROARRAY CON PROTEINE

Le proteine sono considerate le più importanti strutture cellulari per il continuo ed intenso lavoro che svolgono sia in stato di benessere che in corso di malattia. A differenza del genoma che è costituito da un numero fisso di geni, il livello a cui le proteine cellulari operano è molto dinamico perché le proteine, direttamente sottoposte a tutti gli stimoli dell'ambiente vanno incontro a continue variazioni di adattamento e risposta. Ecco perché è molto difficile determinarne accuratamente l'esatto numero o le quantità presenti nelle cellule viventi. Inoltre le varie famiglie di proteine sono estremamente diverse fra loro sia per le dimensioni delle molecole, sia per la struttura, che per le caratteristiche chimiche e le funzioni.

Negli ultimi anni, la tecnologia dei microarray, messa a punto per studiare gli acidi nucleici, si è andata espandendo per analizzare meglio il proteoma delle cellule e le interreazioni che avvengono fra le diverse proteine e fra queste e l' ambiente esterno, che sono molto importanti nel determinismo delle malattie e le cui conoscenze certamente faciliteranno la messa a punto di nuovi farmaci.

Abbiamo già riferito che il primo tentativo ben riuscito di allestimento di microarray con proteine è stato realizzato utilizzando degli anticorpi. Ebbene riteniamo che l'uso dei microarray con anticorpi permetterà, nei prossimi anni di mettere a punto numerosi nuovi farmaci dato che, ormai, nel mondo sono allo studio alcune decine di anticorpi monoclonali umanizzati che potrebbero superare sia la sperimentazione di laboratorio che, almeno alcuni, le prove cliniche.

Poi il sequenziamento di tutto il genoma umano ha aumentato enormemente il numero di molecole che oggi sono considerate determinanti nella patogenesi di varie forme morbose. Siamo pertanto convinti che certamente, alcune di queste, diventeranno bersaglio di nuovi farmaci la cui individuazione e dosaggio sarà certamente agevolata studiando tali interreazioni con i microarray.

Comunque i microarray con proteine, oltre che in campo terapeutico, possono trovare sempre più ampia applicazione in campo diagnostico specialmente per le malattie infettive di origine virale. Infatti attualmente i metodi più largamente usati per individuare agenti patogeni virali in campioni biologici, sono quelli che si basano sull'immunoenzimatica eseguita in piastrine o su la PCR. Ma i primi hanno una sensibilità che oscilla fra il 70 e 90% ed i secondi hanno un costo elevato che ne limita la diffusione su larga scala specialmente in nazioni del terzo mondo che poi sarebbero quelle che ne avrebbero più necessità.

Si ritiene pertanto che, probabilmente, i microarray potranno assolvere meglio a tale funzione perché, dato i ridottissimi volumi necessari dei reattivi, alla fine dovranno costare meno. Le stesse considerazioni valgono per altri settori della diagnostica quali l'allergia, le malattie autoimmuni, i markers tumorali ecc.

Per la preparazione di microarray dedicati specificamente, le proteine da usare come probe, che qualcuno preferisce chiamare " protein chip " o semplicemente " chip ", possono essere derivate da estratti cellulari oppure sintetizzate mettendo insieme dei peptidi sintetici. Le proteine possono anche essere prodotte in colture di batteri, lieviti, cellule ingegnerizzate di insetti. Tali proteine ricombinanti, sono poi purificate con tecniche diverse e possono diventare un ottimo materiale da immobilizzare sui vetrini come molecole di cattura.

I metodi per fissare le proteine sui supporti sono fondamentalmente simili a quelli utilizzati per gli acidi nucleici. Come vedremo, però, produrre microarray con le proteine offre qualche difficoltà in più. Infatti, come primo inconveniente c'è il problema che le proteine sono molto meno stabili degli acidi nucleici perché vanno incontro spesso a processi di ossidazione e di denaturazione. Poi le proteine, quando sono rimosse dal loro ambiente naturale, modificano la loro struttura nativa e quindi anche la forma, talvolta esponendo all'esterno aminoacidi diversi da quelli della forma nativa. Ne deriva che, quando le si va a far reagire, questi aminoacidi esterni, che costituiscono gli epitopi più esposti, possono pregiudicare il risultato della reazione.

Comunque sono stati studiati diversi tipi di microarray per le proteine che Dev Kambhampati, nella sua interessantissima monografia (2004), suddivide così:

  • Array con anticorpi: Sono stati utilizzati sia anticorpi policlonali che monoclonali per titolare proteine specifiche in campioni biologici. Si possono considerare dei tests immunologici in miniatura.
  • Array con antigeni: E' l'inverso del precedente, perché in questo caso è fissato un antigene sul supporto per titolare il corrispondente anticorpo presente nel campione biologico.
  • Array funzionali: Proteine purificate sono fissate sul supporto per legare altre proteine o DNA o interagire con altre piccole molecole.
  • Array di cattura: Molecole non proteiche ma capaci di legarsi alle proteine sono ancorate alla fase solida. Esempio il Ciphergen Protein Chip.
  • Array in sospensione: E’ un caso particolare che utilizza come fase solida delle microparticelle fornite di qualcosa di simile ad un codice a barre.

MICROARRAY CON CELLULE

Le cellule sono le unità fondamentali dei tessuti di tutti gli organismi viventi sia da un punto di vista strutturale che funzionale. La cellula è una entità microscopica ma estremamente complessa che contiene una mescolanza eterogenea di sostanze essenziali per la vita.

Nella cellula troviamo una serie di strutture e di compartimenti, di cui il più importante, difatti è il più protetto, è il nucleo. Una membrana infatti avvolge il nucleo in modo che resti immerso ma separato dal citoplasma, che costituisce il resto e la parte più esterna della cellula e che, a sua volta è avvolto dalla membrana cellulare. Il nucleo contiene il lunghissimo filamento di DNA, su cui sono dislocati i geni, che nella cellula agiscono come il programma di un computer.

Ora, con l'aiuto dei microarray, è da poco iniziato lo studio riguardante le modalità di espressione dei geni nei diversi tessuti a cominciare, per l'uomo, dalle strutture del cervello, fegato, prostata, polmoni ecc. Si cerca di integrare quello che già riusciamo a sapere grazie all'istologia e la biochimica con la comprensione di come e quando i vari geni si attivino nei diversi organi e tessuti sia in condizioni di normale attività che nel corso di vari processi patologici.

E' merito della Cellomics Inc. di Pittsburgh di aver messo in commercio i primi microarray, The Cell Chip, allestiti anche con cellule viventi.

TAMPONI

Sono molto importanti per la preparazione dei probes sia per gli acidi nucleici che per le proteine perché devono rendere possibile un efficiente ancoraggio delle molecole di cattura o microspot stabili ed uniformi, senza nessuna sbavatura ed esaltare la visibilità dello spot. Inoltre, quando si tratta di proteine, ridurre le conseguenze dell'essiccamento ed evitare la denaturazione.

I tamponi hanno, quindi, una notevole importanza nel determinare l'efficienza di deposizione del probe sul supporto solido. Si deve formare un microscopico menisco omogeneo nella forma, a contorni netti e perfettamente aderente. Per aumentare l'efficienza di contatto si cerca di utilizzare miscele saline piuttosto viscose perché la viscosità aumenta le forze di contatto.

I tamponi hanno anche una grande influenza nel determinare l'intensità del segnale, che deve essere colorato, fluorescente o chemiluminescente, ma senza interferenze da parte dei cristalli della soluzione salina..

Nelle soluzioni acquose, il cui principale ingrediente è ovviamente l’acqua. le forze coesive di legame sono dovute all'idrogeno. I tamponi con molti legami idrogeno producono goccioline o spot più piccoli. Soluzioni contenenti basi, alcool o solventi hanno legami idrogeno più deboli e quindi portano alla formazione di goccioline o spot più larghi che possono più facilmente causare fusioni di spot da sbavature.

La forma e la grandezza dello spot sono anche determinate però dalle caratteristiche della superficie del supporto solido. Infatti superfici idrofobiche, che si realizzano in presenza per es. di aldeidi, producono spot più piccoli di quelli che si formano su superfici idrofiliche per la presenza di amine.

Un buon tampone deve anche accrescere la stabilità delle molecole del probe. Tale qualità è particolarmente importante per i microarray di proteine perché i relativi polipeptidi sono piuttosto instabili.

Pertanto i tamponi per la preparazione dei microarray di proteine talvolta contengono il glicerolo o altri additivi in grado di accrescere la stabilità del prodotto finale perché evitano la disidratazione totale.

Per la stessa funzione i tamponi per i microarray per gli acidi nucleici contengono DMSO (dimetilsulfossido ).

TARGET

I targets sono i campioni da fare interagire. Anche questi devono essere in qualche modo preparati. Per quanto riguarda gli acidi nucleici, spesso occorre fare in modo che il segnale venga amplificato. In tutti i casi, sia per gli acidi nucleici come per le proteine poi è necessario legarli ad una molecola rivelatrice che, per lo più, finora è stato un colore fluorescente.

Il legame con la molecola fluorescente può essere covalente e diretto oppure non covalente ed indiretto, quando si usano anticorpi, dendrimeri o altre molecole interposte.

Campioni con acidi nucleici

La preparazione dei campioni con acidi nucleici utilizza procedure diverse, che variano secondo i casi. Sono tutte abbastanza complesse per cui preferiamo tabularle cosi come sono riferite da Schena ( 2002 ).

 

Criteri

Trascrizione Inversa

RNA Polimerasi

Procedura Eberwine

TSA

Dendrimeri

Tipo indiretta

diretta

diret. o indiret

diretta indiretta

 

 

Template -DNA

RNA

DNA doppia elica e promotore

DNA doppia elica e promot

RNA o DNA con piccola molecola di legame

RNA o DNA in dendrimeri

Prodotto oligonucleotide

T3 o T7 nucleotide

T7 RNA polim nucleotide

nucleotide

nucleotide

nucleotide

Reattivo oligonucleotide fluorescente modificato

modificato

modificato o anticorpo coniugato TSA

modificato

modificato

modificato o dendrimero

Interazione

Ibridazione

Ibridazione o piccolo anticorpo

Ibridazione

piccolo anticorpo

Ibridazione

Amplificazione

nessuna

 

100-1.000.000

100

10-350

Tipo di amplific

nulla

nulla, enzim o passiva

passiva aumento quantità RNA

enzimatica

passiva

Colore fluorescente

Cianina

Cianina

qualsiasi

Cianina

Cianina

BIODIP

Alexa

 

 

 

Alexa

Processo

nulla

fino a 3 ore

nulla ma l'amplificazione del RNA diversi giorni

3 ore

3 ore

 

 

Riteniamo utile completare quanto riferito nella su esposta tabella con qualche altro dato che può risultare utile per interpretarla:

 

Trascrizione inversa

E' stato il metodo utilizzato nei primi esperimenti con i microarray. Da questo metodo base sono poi derivate numerose varianti. usando sia RNA cellulari, che sono molto più facili da ottenere, che mRNA. Sono state anche utilizzati diversi tipi di trascriptasi inverse e diversi metodi di purificazione dei campioni.

Il principale vantaggio di questo metodo è dato dalla coniugazione diretta che elimina i trattamenti da fare dopo l'ibridazione, che sono sempre ardui e richiedono molto tempo per essere espletati.

Lo svantaggio maggiore è data dal fatto che si ottiene un segnale molto meno evidente di quello che si ha con l'approccio indiretto che si giova dell' effetto dell' amplificazione.

RNA polimerasi

Questo, oltre alle trascriptasi inverse è un altro gruppo di enzimi largamente usati per preparare campioni per microarray. Si tratta di una famiglia di enzimi estratti da virus batterici ( T3 e T7 ), che catalizzano la sintesi del RNA partendo da un DNA a doppia elica, grazie all'azione di promotori specifici. Si tratta di un processo robusto e ad alta resa che da la possibilità di produrre quantità notevoli di RNA, che poi può essere diviso facilmente in piccoli frammenti a livello di oligonucleotidi con possibilità di amplificazione del segnale anche di 100 volte.

Bisogna solo stare molto attenti ad evitare l'azione delle ribonucleasi che attaccano facilmente le molecole di RNA. Si consiglia quindi di operare in stanze molto ben pulite, utilizzare guanti di gomma sintetica e, ovviamente, essere certi che reattivi e tamponi siano assolutamente privi di ribonucleasi.

Procedura Eberwine

Si tratta di un metodo molto ingegnoso che si basa sull'uso della RNA polimerasi da T7, che converte mRNA in cDNA con amplificazione, che per ogni procedura è di circa 100 volte e che, alla fine, può arrivare fino a 1.000.000 volte rispetto al materiale di partenza. Pertanto questo è il metodo preferito quando si devono risolvere particolari problemi biologici che non si possono risolvere con altri metodi.

Lo svantaggio di questo metodo è che è piuttosto arduo e lungo. Infatti occorrono 2-3 giorni per completarlo e poi si attua attraverso manipolazioni durante le quali non si riesce a seguire cosa stia succedendo, per cui, se ci sono interferenze da reagenti inattivi o da contaminazioni da ribonucleasi, lo si capisce solo alla fine, di fronte a risultati inattesi.

Amplificazione del segnale da tiramide ( TSA )

La tiramide, in questa procedura, ha la funzione di potenziare il segnale di varie sostanze fluorescenti, come la fluoresceina, la cianina 3 o la cianina 5, per cui si possono realizzare reazioni che portano alla formazione di colori diversi.

La trascriptasi inversa è usata per incorporare la biotina o il dinitrofenolo al cDNA, che poi viene ibridizzato su un microarray ed incubato con un anticorpo coniugato alla perossidasi. Il chip, così composto, è trattato con acqua ossigenata per cui la perossidasi ossida il segnale fluorescente della tiramide. Ne deriva un segnale fluorescente molto intenso, fino a 100 volte. E' un segnale, però, che ha un'emivita molto breve.

Dendrimeri

Il termine dendrimero deriva dalle parole greche “dendron” e “meros” che significano rispettivamente “albero” e “parte”. Infatti sono costituiti da ordinati grovigli di monomeri di oligonucleotidi che ricordano la chioma di alberi e che si formano, per processi di sintesi progressivi, anellandosi gli uni agli altri attraverso cicli progressivi che possono arrivare a formare anche molecole di DNA aventi un PM di 12000 e contenenti 36000 basi. Le singole molecole fluorescenti attaccate alle numerose estremità sporgenti o braccia del polimero determinano la comparsa di un segnale fluorescente molto intenso. Un polimero con 300 molecole di colore produce un segnale 300 volte più intenso. Ne deriva che polimeri aventi un diametro di 0,2 micron si vedono anche ad occhio nudo. Nel complesso è una tecnica che, anche se non facile da eseguire, presenta molti vantaggi.

Campioni con proteine

Le proteine, usate come targets, hanno una storia più recente e, quindi, si può dire, che si tratta di una tecnologia che è ancora agli albori, ma le prospettive sono enormi perché nella maggior parte delle malattie si verifica un'alterazione delle proteine e delle reazioni proteine-proteine. Inoltre la maggior parte dei farmaci interagisce con le proteine cellulari. Quindi sono le proteine, non i geni, i veri obiettivi della medicina.

Pertanto, da qualche anno, si è cominciato a preparare targets con proteine fluorescenti per approfondire fondamentali problemi di biochimica delle proteine.

Il reattivo fluorescente finora più utilizzato è stato l'isotiocianato di fluoresceina, che si lega molto facilmente agli aminoacidi lisina ed arginina, che sono presenti sulla superficie della maggior parte delle proteine estratte da animali, piante e microrganismi. La coniugazione di 50 microgrammi di isotiocianato ad 1 mg di proteina da luogo ad un segnale fluorescente sufficientemente evidente.

I reattivi del gruppo della cianina, anche, si legano facilmente alla lisina ed alla arginina e , quindi, per lo stesso scopo vengono utilizzati con successo.

Un altro reattivo fluorescente usato per le proteine è la ficoeritrina. Il procedimento, in questo caso, è più indaginoso perché tale prodotto va pretrattato con la succinimide ed anche la proteina, prima della coniugazione va attivata con il ditiotereitolo, per creare gruppi sulfidrilici.

AMBIENTI

Lavorare con i microarray è un'attività fine e sofisticata che non si può svolgere dovunque. Pertanto, specialmente per la produzione, occorrono ambienti ad aria pressurizzata e a contaminazione controllata. Sono preferiti i filtri laminari verticali a soffitto che sono più funzionali e non tolgono spazio laterale.

Tale tecnologia ha le sue radici sia nell'uso che se ne è fatto in microbiologia sia nell'industria dei semiconduttori, che ha le stesse esigenze per la lavorazione delle lamine di silicio, utilizzate per la produzione dei computer.

Infatti ci sono cinque forme di contaminazione ambientale: contaminazione da particelle, biologica, chimica, termica ed elettrostatica.

CONTAMINAZIONE

Contaminazione da particelle

Si considera essere particella ogni forma di detrito esistente nell'aria il cui rapporto fra lunghezza e larghezza non sia superiore di 10: 1. Le particelle più comuni derivano da polvere, forfora, garza, spore, pollini, funghi e batteri. Sono considerati invece fibre i detriti più lunghi. La contaminazione può avere origine dalle strutture dell' ambiente o dalle attrezzature che si adoperano ma spesso c'è una notevole componente che ha origine umana e specialmente dalle persone che ci lavorano dentro.

Per quanto riguarda l'ambiente bisogna considerare almeno tre condizioni o fasi diverse: ambienti in fase di avvio. ambienti operativi, ambienti in fase di riposo.

Ambienti in fase di avvio

Riguarda la fase seguente la costruzione e dopo che sono stati introdotti tutti gli apparecchi, possibilmente nuovi, perché contaminano meno, e solo le attrezzature necessarie alla lavorazione. Non ci deve essere altro. Dato il grande movimento che c'è stato, certamente sarà presente una contaminazione di livello molto elevato. Prima di poter utilizzare un ambiente del genere bisogna, dopo le opportune pulizie e disinfezioni, far trascorrere almeno una settimana di continuo funzionamento dei sistemi di filtrazione dell'aria e di decontaminazione per poter sperare che la concentrazione delle particelle abbia raggiunto un livello accettabile.

In base agli standard federali americani, gli ambienti a contaminazione controllata sono stati suddivisi in classi, in base al numero di particelle presenti di diametro maggiore di 0,5 micron. La classifica degli ambienti può essere fatta in base alla seguente tabella:

 

Tipo

Numero di particelle per piede cubico

Classe 1

1

Classe 10

l0

Classe 100

100

Classe 1.000

1.000

Classe 10.000

10.000

Classe 100.000

100.000

Laboratori di ricerca 20.000

200.000

Aria di città 5.000.000

500.000.000

 

Quindi, dato che le particelle di polvere possono creare una fluorescenza di fondo sui vetrini, o comunque delle immagini alterate oltre che, come abbiamo accennato, alterare la composizione dello spot, per la presenza di enzimi, è vivamente raccomandato che gli ambiente in cui si trattano i vetrini con i substrati o si distribuiscono gli spots siano di classe 1000 o, ancora meglio, di classe 100.

Ambienti in fase operativa

Sono quelli in cui è stata avviata l'attività e si svolge il lavoro che implica ingresso e spostamenti di persone e cose che vengono dall' ambiente esterno e, quindi, portano nuova contaminazione nell'aria protetta e, in precedenza, decontaminata.

Anche in questi ambienti, ovviamente, la concentrazione delle particelle deve rientrare nei limiti surriferiti per poter fare un buon lavoro. Sorge il problema di decidere quando eseguire le misurazioni della concentrazione delle particelle. Attualmente prevale la tesi di eseguire le misurazioni sia durante l'attività che alla fine del lavoro, ossia quando gli ambienti sono in fase di riposo, e di farne poi la media. Le due conte dovrebbero dare risultati abbastanza simili ma, comunque, la contaminazione, in assenza di personale, dare una concentrazione più bassa perché, certamente, la contaminazione umana è una componente importante. Infatti si sa che ogni persona può generare 1.000.000 di particelle ogni ora, e quindi far si che rapidamente si creino le condizioni che portino a superare la concentrazione limite.

Per ovviare o ridurre tale grave componente di contaminazione, il personale addetto ad operare con i macroarray, specialmente se si tratta della produzione, è bene che faccia la doccia prima di entrare nell'ambiente di lavoro e lasci fuori gli effetti personali quali orologio, gioielli, cosmetici ecc. Deve poi, in una prestanza attrezzata, indossare camici completi nel senso che comprendano in un unico pezzo anche la copertura dei piedi, dopo aver lasciato le scarpe e indossato pantofole, e del capo, e siano di polietilene o di materiale, comunque, assolutamente, chimicamente inerte. Deve inoltre coprire la bocca ed il naso con una mascherina ed infilare guanti elastici monouso e del tipo di gomma sintetica e senza polvere.

Alcuni operatori, per abbassare al minimo la concentrazione di particelle, utilizzano negli ambienti in cui già entra, a pressione, solo aria opportunamente filtrata, anche altri superfiltri portatili supplementari dotati di lamine filtranti di tipo ULPA ( ultra high efficiency particulate air ), che hanno un'efficienza del 99.999%, invece dei soliti HEPA ( high efficiency particulate air ) che hanno un' efficienza del 99.97%.

Poi è buona regola che i pavimenti, almeno ogni 30 giorni, siano lavati molto accuratamente con adatti detersivi.

Contaminazione biologica

La contaminazione biologica deriva dall'unto delle mani, da impronte digitali, capelli, saliva, lacrime, o dal rinnovo delle cellule cutanee. Tutti questi contaminanti contengono macromolecole e contaminanti di vario genere che possono compromettere la qualità della risposta dei microarray. Notiamo specialmente la presenza di lipidi, DNA, ribonucleasi ecc.

Ribadiamo, quindi, che, appena entrati e prima di iniziare a lavorare, tutte e due le mani devono essere ricoperte con guanti che è bene siano di gomma sintetica perché quelli prodotti con gomma naturale contengono alte concentrazioni di proteine vegetali che possono inquinare sia il materiale dei substrati che gli spots. Se si fanno lavori che possano danneggiare i guanti, è bene infilare due paia di guanti, l'uno sopra l'altro.

Si deve evitare in questi ambienti di fare starnuti o colpi di tosse che causano l'emissione di un elevato numero di goccioline di muco o saliva. In caso di necessità è bene che il personale abbandoni l'area a contaminazione controllata e, prima di rientrare, per riprendere il lavoro, indossi un nuovo camice ed un nuovo paio di guanti.

Contaminazione chimica

Le più comuni fonti di contaminazione chimica derivano da pitture, colle, adesivi e materiali per imballaggio. Sono anche fortemente contaminanti apparecchiature che emettano gas o vapori. Infatti bisogna tener presente che molti composti organici sono fortemente reattivi ed alcuni sono anche altamente fluorescenti.

Per le stesse ragioni il personale che lavora in questi ambienti non deve fare uso di acqua di colonia, profumi, colluttori, tutti prodotti che tendono ad evaporare facilmente. Deve essere anche proibito di introdurre cibi o masticare gomme.

Contaminazione termica

La temperatura consigliata è di 20°C, con oscillazione in eccesso o in difetto non superiore a 3°C. Questa è la temperatura che determina le migliori condizioni di lavoro per il personale e garantisce il funzionamento ottimale degli apparecchi. Inoltre bisogna tener presente che fluttuazioni maggiori possono influire sull'andamento di alcune reazioni chimiche alterandone la cinetica.

Quindi i locali adibiti a tali attività non dovrebbero contenere apparecchi come i frigoriferi, i congelatori, le centrifughe, gli agitatori che sono fonti di calore a meno che, all'atto della costruzione degli ambienti destinati a tale attività, non se ne sia tenuto conto, calcolando un adeguato rinnovo d'aria oppure non si immettano dei condizionatori ausiliari al fine di mantenere costantemente la temperatura desiderata.

Contaminazione elettrostatica

La contaminazione elettrostatica è generata da squilibri fra cariche elettriche positive e negative. Le plastiche, le gomme, il cellofan ed altri prodotti possono creare tali squilibri che possono favorire l'intrappolamento di molecole contaminanti sui microarray in fase di produzione riducendone la qualità.

Siccome nella costruzione e l'allestimento di tali ambienti a contaminazione controllata è praticamente impossibile fare a meno di tali materiali, bisogna fare in modo che il grado di umidità relativa non superi mai il 35-45%, perché, fino a questi livelli, l'umidità assorbe tali cariche prevenendone l'accumulo. Bisogna anche raccomandare al personale di non strofinare l'un l'altro questi materiali, perché, se lo si fa, si crea squilibrio di cariche.

Bisogna poi curare che, sia i substrati che i microarray completi, siano subito impacchettati in appositi sacchetti di carta argentata anti contaminazione elettrostatica. Poi bisogna raccomandare che l'apertura di queste confezioni sia fatta lentamente, aiutandosi con le forbici e mai strappando.

CONTROLLO AMBIENTALE

Abbiamo elencato le varie forme di contaminazione ambientale, che vanno tenute sotto stretto controllo, ma, per quanto riguarda questi ambienti, ci sono altri aspetti strutturali ed organizzativi anche molto importanti quali la temperatura, l'umidità relativa, l'illuminazione e l'uniformità.

Temperatura

La temperatura ideale, come abbiamo già  riferito, è 20°C con oscillazioni, in più o in meno di 3°C.

Infatti questa è la temperatura più confortevole per il personale ed è il livello a cui lavorano meglio alcune apparecchiature come i robot. Il mantenere sempre la stessa temperatura è importante anche per impedire fluttuazioni nella cinetica delle reazioni chimiche.

Umidità relativa

La si valuta facendo il rapporto fra l'umidità dell'ambiente ad una data temperatura e l'umidità massima raggiungibile in quell'ambiente a quella temperatura ed a un certo livello di pressione. Per tali lavorazioni è consigliata un'umidità relativa del 40% con oscillazioni non superiori al 5%. Infatti livelli più elevati di umidità possono influire sulla cinetica di alcuni processi che richiedono una graduale disidratazione. Una fase particolare della produzione dei microarray è quella che riguarda la distribuzione per contatto delle goccioline degli spots che è bene si svolga ad un livello di umidità relativa del 55%. Per tale ragione l'area in cui si svolge tale processo, e solo quella, deve essere chiusa e condizionata per realizzare in loco le condizioni ottimali desiderate.

Una condizione opposta si deve creare quando si deve legare il DNA alle amine o alle aldeidi. Sono queste reazioni che è bene che si attuino ad un'umidità relativa inferiore al 20% e, quindi, facendo uso di una stufa a secco.

Illuminazione

Negli ambienti a contaminazione controllata bisogna anche controllare sia l'intensità che la qualità dell'illuminazione. E' consigliabile una sorgente luminosa da lampade fluorescenti sia perché producono meno calore dei bulbi incandescenti sia perché fanno una luce più bianca e fra queste bisogna preferire quelle a  spettro totale che hanno un tipo di luce molto simile a quella della luce solare. Infatti se si considera uguale a 100 l'indice che esprime l'insieme delle lunghezze d'onda della luce solare, le normali lampade fluorescenti, se calde hanno un indice di 50-60, se fredde lo hanno di 60-70, quelle a spettro totale hanno un indice uguale o maggiore di 95.

Le lampade, che devono essere completamente chiuse, vanno poi disposte in modo da dare un’ illuminazione uniforme che, come intensità, deve essere circa 4 W per piede quadrato.


Torna all'indice

CAPITOLO QUATTRO

STRUMENTI PER PRODUZIONE E LETTURA

CONSIDERAZIONI PRELIMINARI

La produzione dei microarray, per tutte le ragioni suesposte, è un tipo di lavorazione molto fine che fra l'altro utilizza materiali spesso costosi. Va, quindi, studiata molto bene per essere di qua1ità ed a costi contenuti perché possa essere utilizzata da un numero sempre maggiore di laboratori.

In linea di massima un vetrino con un gran numero di spots, ovviamente, vale di più di uno che ne contenga di meno. Oggi praticamente è possibile produrre anche singoli vetrini che contengono tutti i circa 30.000 geni umani, ma hanno, ovviamente, un costo notevole.

Si tenderà quindi a produrre microarray dedicati, nel senso che contengano solo alcune decine di spots, o anche centinaia, ma preparati per risolvere un ben preciso problema diagnostico o scientifico. Quindi la gamma dei tipi di prodotto che si potranno fare è praticamente illimitata.

Facciamo seguire le caratteristiche più importanti che tali prodotti devono avere per poi capire ed interpretare meglio i vari metodi di produzione.

Densità

E' il criterio che esprime la densità per unità di area ed è calcolata in base al numero di probes o spots per centimetro quadrato. Si misura in base alla distanza o spazio esistente fra due centri degli spots (center-to center spacing ), utilizzando la seguente formula:

 

D = 100x ( 1000/CTC ) 2

 

Questo significa che un microarray che abbia una distanza da centro a centro di 140 micron, ha una densità di 100 x ( 1000/ 140 ) 2 che è uguale a 5102 spots per cm quadrato. Così un microarray che ha 1000 targets o spots in un'area di 0,81 cm quadrati ha una densità di 1235. Comunque la densità è espressa in unità di migliaia nel senso che un vetrino o chip con 20.000 spots è riferito come 20k chip.

La densità è una caratteristica molto importante, perché, a parità di altri fattori, determina la quantità di dati che si riescono a conoscere per unità di area. Comunque ci sono microarray a bassa densità, che ovviamente sono più facili da produrre, costano meno e si leggono anche con scanner molto semplici. I microarray con densità più elevate, comprese fra 1000 e 10.000 possono essere prodotti e letti solo con macchine più sofisticate e, naturalmente, costose.

C'è poi un'altra considerazione da fare. Su molti vetrini o chips gli stessi spots sono ripetuti più volte, per poi fare la media dei risultati. Ora un 25k microarray con 1250 spots ripetuti in duplicato ha un valore maggiore di un 25k che ha 25 spots ripetuti 1000 volte.

Dimensione

E' il criterio che esprime la grandezza fisica del singolo elemento o spot il cui diametro sia espresso in micron. E' un criterio molto importante perché determina la densità.

La maggior parte delle apparecchiature, sia che lavorino a contatto o che lavorino non a contatto rilasciano elementi o spots il cui diametro medio è compreso fra 75 e 300 micron. Quelle invece, la cui tecnologia si basa sui semiconduttori, rilasciano elementi o spots di 10-40 micron. La distanza da centro a centro, per i microarray prodotti a stampo, è calcolata moltiplicando la dimensione media per un fattore 1.2-1.4. Per esempio la distanza di elementi da 110 micron è di 132-154 micron. Per i microarray preparati con fotolitografia o microspecchi gli elementi sono praticamente contigui per cui la dimensione e la distanza sono equivalenti.

Dato che più piccoli sono i singoli elementi e maggiore è la densità e quindi maggiore è il numero delle informazioni che ne possono derivare, la tecnologia è andata evolvendo verso la produzione dI microarray a più elevata densità che ha costretto a produrre lettori con poteri di risoluzione sempre più sofisticati.

Purezza.

Tale criterio si riferisce alla omogeneità delle molecole presenti in ogni spot o elemento; all'atto pratico non dovrebbe essere inferiore al 99%. La purezza è molto importante perché determina la specificità della rea:l;ione biochimica che ne deriva.

Deviazioni dal 100% possono essere causate sia da impurità sia da errori umani sia da difetti di distribuzione dovuti alle macchine. I contaminanti possono essere eliminati curando sia i metodi di purificazione sia adottando le migliori procedure di filtrazione dei materiali da usare per i target Insomma bisogna fare in modo da evitare che, al momento dell'utilizzo, le molecole del probe interagiscano con superfici imperfette, dando luogo a segnali aberranti.

Reattività

Un microarray ideale dovrebbe avere il 100% delle molecole dei probes in grado di reagire con le molecole dei targets praticamente, non è cosi. Per la maggior parte dei microarray è molto probabile che sia decisamente più bassa la percentuale delle molecole che reagiscano. Infatti la reattività può essere compromessa sia nel corso della produzione sia nelle fasi di successive manipolazioni.

Perdita di reattività dei microarray per le proteine o gli RNA può essere causata specialmente nel corso della fase di essiccamento. Le molecole di DNA risultano essere più resistenti.

Regolarità

Riguarda la regolarità delle linee e delle colonne degli elementi o spots. Si misura determinando la distanza di centro da centro ed è accettato un coefficiente di errore non superiore al 10%. Questo significa che, se per esempio la distanza di centro da centro è fissata a 140 micron, all'atto pratico ci potranno essere spots ad una distanza compresa fra 126 e 154 micron da quelli adiacenti. Queste oscillazioni, praticamente, si riverificano solo con le macchine che distribuiscono a stampo perché, quando si usano quelle che si basano sulla tecnologia dei semiconduttori, le linee e le colonne risultano essere molto regolari.

Deviazioni dalla regolarità sono in genere dovute ad irregolarità del substrato, derivanti da aree idrofobiche che determinano forze locali che causano migrazioni delle goccioline degli spots. Fenomeni analoghi, comunque, possono essere causati anche da vibrazioni delle macchine che distribuiscono gli spots o anche correnti d'aria nell' ambiente in cui operano.

Microarray irregolari rendono difficile la lettura da parte degli scanner e sono causa di grossolani errori.

Facilità d'uso

E' molto importante realizzare prodotti che siano facilmente utilizzabili sin dal primo momento anche da personale di laboratorio che non abbia ancora un'esperienza specifica. Si tratta di un aspetto pratico non trascurabile perché può avere un impatto commerciale tale da determinare il successo o meno del prodotto.

Rendimento

E', naturalmente un aspetto molto importante delle macchine addette alla produzione ed esprime la velocità, in un determinato tempo, con la quale queste riescono ad espletare tutti i passaggi che sono necessari per condurre a termine le varie fasi di produzione dei microarray sia anonimi che dedicati.

MACCHINE PER LA PRODUZIONE

Descrivere le macchine che si utilizzano per produrre i microarray esce un po' fuori dai limiti e dagli intendimenti di questa sintetica monografIa. Tuttavia riteniamo che possa essere utile averne un'idea. Se ne distinguono tre tipi: Macchine da contatto; macchine che non richiedono contatto e macchine fotolitografiche.

Macchine da contatto

E' questo il tipo di tecnologia più tradizionale ed è quello ancora più largamente utilizzato specialmente da parte dei ricercatori. Si tratta di un gruppo abbastanza articolato perché sono presenti sul mercato vari modelli che si differenziano principalmente per il tipo di gocciolatore o meglio di spillo o pin.

C'è il modello cosi detto " pin and ring " ossia spillo e anello, caratterizzato appunto da un pin che fuori esce da un microanello che lo circonda e dall'interspazio per capillarità scende lo spot che si deposita per contatto sul vetrino.

Un altro modello di pin, " il micro spotting "che è forse il più noto, è quello che contiene un sottilissimo canale verticale centrale che rende possibile la deposizione, per semplice tensione superficiale, di microgocce omogenee, il cui volume, in base al diametro del canale può essere regolato fra 0,25 e 0,60 microlitri e che hanno un coefficiente di variazione sempre inferiore al 10%.

Un altro modello ancora è lo " split pin" o spillo spaccato, che ha le caratteristiche di una pinzetta fra le cui branche il liquido si ferma per la formazione di un menisco e poi viene espulso sul vetrino.

Altre macchine ancora utilizzano dei semplici tubi capillari che rilasciano lo spot per semplice contatto. Questo sistema permette di fare un ottimo lavoro ma la pulizia e la manutenzione fra i cicli di lavoro risultano difficili da attuare.

Macchine che non richiedono contatto

Hanno qualcosa di simile alle stampanti a colori a getto d'inchiostro in quanto utilizzano un sistema piezoelettrico che si basa sulla proprietà che hanno dei cristalli di ceramica, inseriti in tubicini flessibili, di deformarsi per il passaggio della corrente, permettendo cosi la deposizione di goccioline calibrate.

Questa tecnologia è utilizzata anche quando si voglia realizzare direttamente sul vetrino la sintesi di oligonucleotidi. Si usano in questo caso macchine dotate di quattro dispensatori che lavorano in parallelo dispensando ognuno una delle quattro basi in base alla sequenza desiderata. Altre macchine dispensatrici di questo tipo usano lo stesso principio delle stampanti della giapponese Canon che, semplicemente innalzando la temperatura del liquido, lo rendono meno viscoso permettendone la discesa sul vetrino.

Fotolitografia

Utilizza un tipo di microtecnologia simile a quella che viene utilizzata per la produzione dei chip dei computer e permette di realizzare direttamente sul supporto solido la sintesi fotochimica ordinata e precisa di qualsiasi tipo di oligonucleotide di tipo corto, ossia non superiore a 30 nucleotidi. Particolari maschere fotolitografiche al cromo rendono possibile per frazioni di secondo il passaggio o meno di raggi ultravioletti che colpiscono le microaree dove si realizzano le sintesi. Si usano vetrini trattati sia con silani, che rendono la superficie attiva verso i gruppi amminici, che di un altro prodotto fotorimovibile noto come MeNOPC ossia 5’ ( alfa metil-6-nitropiperoniloxicarbonil ) che è neutralizzato selettivamente e temporaneamente appena esposto ai raggi ultravioletti. L'attivazione o meno rende possibile il legame progressivo fra i vari nucleotidi rendendo possibile la formazione progressiva del nascente oligonucleotide.

Ovviamente questa tecnologia può essere usata solo per monitorare l'espressione genica, l'analisi dei polimorfismi, l'analisi delle mutazioni geniche ed il sequenziamento del DNA.

CONTROLLO  DI  QUALITA’  DEGLI  SPOTS

La distribuzione degli spots è indubbiamente una delle fasi più delicate della produzione dei microarray per cui il controllo di qualità è una fase molto importante del processo. Le varie compagnie commerciali hanno risolto i problemi in vario modo, sfruttando l’esperienza accumulata negli ultimi anni. Ma, malgrado l’uso di robot, sempre più sofisticati, si ha un coefficiente di variabilità degli spots che oscilla fra  lo 0 ed il 22% ed un C.V. medio del 6,8%.

Quando si esgue la produzione dei microarray, e più esattamente, quando si utilizzano le macchine che fanno lo “ spots printing ”, ovvero si depositano sui vetrini le goccioline o spots dei probes, possono sorgere diversi problemi. Occasionalmente la morfologia degli spots può risultare decisamente alterata nel senso che si verificano delle sbavature perché il gocciolatore o pin è difettoso e lo si può constatare osservandolo al microscopio. Altri ricercatori hanno avuto problemi analoghi di alterata morfologia degli spots per disturbi di tensione che si possono verificare sulle superfici dei vetrini specialmente quando si adoperano tamponi a base di fosfati. Se si fa uso di tamponi  a base di SSC, tali inconvenienti non si verificano.

Altro aspetto della tecnologia che bisogna curare per avere degli spots omogenei, è un adeguato volume di campione presente nei pozzetti in cui il pin va a pescare prima di depositare sui vetrini le goccioline o spots.

Un altro inconveniente che, talvolta  si può verificare è che il DNA non si fissi bene sul vetrino per cui durante la fase di ibridazione, venga lavato via. Dopo aver esguito la distribuzione degli spots, un controllo molto semplice lo si può fare alitando sul vetrino in modo da formare sulla superfice un sottile strato di vapore. Gli spots dove il DNA si è legato appaiono più chiari. Altri preferiscono controllare il vetrino sotto il microscopio.

Ma un metodo tecnicamente più corretto per valutare il lavoro fatto, che è da molti adottato, è quello di colorare qualche vetrino con un colore fluorescente. Il più usato per tale genere di controllo è il SybrGold della Molecular Probes. Dop il lavaggio si fa il controllo con uno scanner al laser che permette di valutare sia la morfologia che la quantità di DNA degli spots. Il vantaggio di usare il SybrGold è dato dal fatto che, essendo un colorante non molto invasivo, i vetrini si possono riusare. Quando si deve valutare l’attività dei geni, si possono, a tal fine, inserire più geni per ogni singolo spot e poi, decodificando l’espressione con metodi matematici, capire se il processo di distribuzione è stato realizzato con una variabilità accettabile ( Khan et al. 2003).

MACCHINE  PER  L’AUTOMAZIONE DELL’IBRIDAZIONE

Il principio base dell’automazione sui microarray è lo stesso del Southern e del Nothern bllotting con la differenza che i probes sono immobilizzati sul vetrino mentre lo RNA cellulare è in fase liquida per cui alcuni hanno denominato i microarray “ reversed phase Southern or Northern blotting assays”.

Molti ricercatori eseguono ancora manualmente l’ibridazione ma è una manualità che richiede un buon livello tecnico e molta pazienza. Inoltre, dato che i volumi dei target sono molto piccoli così facendo, spesso succede che non si realizzi l’incontro con il probe o che, data la lentezza delle procedure si comincino ad asciugare i bordi, il che ha poi come conseguenza che si determini un aumento del rumore di fondo che poi disturba la lettura finale.

D’altro canto il numero dei potenziali utilizzatori dei vetrini da spottare è in rapido aumento, come sta crescendo, molto rapidamente, il numero delle possibili applicazioni.

Diverse aziende stanno quindi tentando di mettere a punto delle apparecchiature automatiche per l’ibridazione con la speranza di ottenere risultati migliori di quelli ottenibili manualmente. Le difficoltà da superare non sono poche e questo spiega perché non ci sembra che il problema sia stato convenientemente risolto. In base a quanto viene riportato dalla letteratura, uno dei tentativi meglio riusciti è la stazione d’ibridazione messa in commercio dalla Vantana Medical  Systems di Tucson ( Arizona).

STRUMENTI PER LA LETTURA

Schena, giustamente, sentenzia: Gli strumenti per la lettura dei microarray stanno rivoluzionando la biologia.

Infatti queste meravigliose macchine possono leggere, in pochi minuti, in automazione, una quantità tale di dati che le tecnologie usate prima avrebbero richiesto mesi o anni per fare lo stesso lavoro.

Quindi in questo capitolo passeremo in preliminare rassegna i sistemi, le tecnologie, i tipi di segnali, i criteri d'interpretazione e tutto quanto riguarda la lettura dei microarray.

Infatti è questa una fase altamente critica perché nel singolo microarray, attraverso l'immagine, che è praticamente una fotografia. bisogna discernere un gran numero di risultati. Vediamo quindi quali sono i criteri che ci permettono di valutare tutti gli aspetti che concorrono alla lettura e alla interpretazione dei dati.

Sistemi di lettura

Sono praticamente due i tipi di macchine più largamente utilizzate per la lettura dei microarray: gli scanners e gli imagers.

Gli scanners, attualmente più largamente usati, sono macchine che catturano l'intera immagine muovendo l'ottica o il vetrino con piccoli scatti regolari di 10 micron in orizzontale o in verticale. La maggior parte di queste macchine usa come fonte luminosa di eccitazione quella di un laser con appropriati filtri, ed un fotomoltiplicatore per catturare l'immagine.

Gli imagers leggono progressivamente, e con movimenti regolari, aree dei vetrini di 1 cm2 e poi combinano tutta l' immagine per esprimere l'insieme dei dati leggibili. Utilizzano luce bianca per l'eccitazione ed un CCD (charge-coupled device) per catturare l'immagine.

Velocità

E' la velocità alla quale il robot di lettura riesce a leggere l'area del vetrino ad un dato livello di risoluzione e si esprime in cm2 / minuto. I primi prototipi di scanner erano in grado di leggere un area di 50 mm2 /minuto ad una risoluzione di l0 micron. Gli scanner attuali riescono a leggere ad una velocità di 300, ed alcuni anche 500 mm2 / minuto, sempre ad una risoluzione di 10 micron.

Comunque, alla velocità di 300 mm2 / minuto, un intero vetrino di 20x 72 mm, che può contenere anche più di 10.000 geni, viene letto in 5 minuti.

Precisione

Un ideale mezzo di lettura dovrebbe essere in grado di leggere una stessa immagine di un microarray più volte con l'identico risultato. In genere, invece ci sono delle variazioni derivanti sia da imprecisioni meccaniche sia da fluttuazioni della forza di eccitazione della sorgente luminosa o del detector.

Il criterio della precisione esprime, appunto, l'ampiezza della deviazione della capacità di lettura che non dovrebbe superare il ± 10%

Ripetibilità

Esprime la capacità dello scanner a ripetere più volte la lettura di una stessa immagine senza deviare minimamente né in senso orizzontale né in senso verticale. E’ tollerata una possibilità di errore non superiore al 2%. Comunque bisogna tener presente che se la qualità del microarray lascia a desiderare, anche questo aspetto può compromettere la ripetibilità della lettura da parte degli scanner.

I sistemi di lettura con imagers, che utilizzano un posizionamento fisso del vetrino ed un'ottica fissa. sono, sotto questo profilo, più affidabili.

Risoluzione

Il potere di risoluzione si esprime in pixel, che è la misura bidimensionale di un’ immagine, conservata in formato digitale, riportata sullo schermo di un computer. Si tratta quindi di un'area quadrata misurata in micron. Maggiore è il numero dei pixel e maggiore è il potere di risoluzione ossia la capacità ad ingrandire un'immagine senza alterarla ovvero farla apparire granulosa.

I primi sistemi di lettura arrivavano al massimo ad un livello di risoluzione di 10-20 micron, quelli attuali arrivano a dare immagini nette anche a livello di 3 micron.

Un potere di risoluzione che arrivi a 10 micron corrisponde a 10.000 pixels ( 100x100 ) per mm2.

Ampiezza di segnale

L'ampiezza della capacità di segnale di un certo sistema di lettura è rappresentato dal quoziente fra il valore ottenibile più alto ed il più basso, che, in questo caso, in genere è di circa 1000 volte. Infatti a 16 bit l'ampiezza di segnale, in numeri assoluti va da 66 a 65,536. Riducendo il rumore di fondo alla metà, l'ampiezza può arrivare a 2000 volte, ossia passare da 33 a 65,536.

Ma dato che, in alcuni esperimenti l'ampiezza di espressione genica può arrivare anche a differenze di 100.000 volte, si cerca di potenziare l’ ampiezza di lettura dello strumento modificando il potere del laser o l'intensità della luce in modo da fare più letture a livelli diversi di sensibilità.

Sensibilità

Esprime la capacità di un sistema di lettura di convertire i fotoni fluorescenti del microarray in segnale elettronico. Può essere portata al massimo agendo sul fotomoltiplicatore.

Capacità di discernimento

Dato che molti geni umani hanno bassissimi livelli di espressione, è molto importante poter operare con sistemi di lettura in grado di apprezzare anche segnali tanto deboli che non sia facile apprezzante la differenza rispetto al rumore di fondo.

Dato che il più comune sistema, che si adopera, si basa sulla fluorescenza, che si esprime in numero di molecole fluorescenti ( fluors ) che si riesce ad apprezzare, anche la capacità di discernimento viene espressa in fluor per micron quadrato.

I primi sistemi di lettura avevano una capacità di discernimento di 1 fluor per micron quadrato ma i più moderni arrivano a 0.01 fluor per micron quadrato.

Dato che il rumore di fondo dipende in gran parte dal substrato, negli ultimi anni si è fatto molto lavoro per ridurre al massimo la fluorescenza di fondo che è aspecifica. Così si è riusciti ad apprezzare segnali specifici anche a concentrazioni 10 volte più basse.

Uniformità

La valutazione preliminare della uniformità di segnale in tutte le aree del vetrino ricoperto dal substrato è un criterio molto importante perché ci garantisce poi la specificità e la correttezza delle letture quando la partita verrà utilizzata per le analisi. Dato che non esistono substrati perfetti. è accettata una non uniformità che non ecceda il 10% per aree di 5x5 mm.

Per eseguire la misurazione dell'uniformità si esegue la prova dei 180 gradi: Si passa sotto lo scanner un'area di 10x22 mm e, se si nota l'esistenza di un gradiente, si rimuove il vetrino con il substrato da sotto allo scanner, lo si ruota di 180 gradi e si legge di nuovo la stessa area. Se il gradiente delle due letture ha la stessa forma, la non uniformità è dovuta allo scanner. Se invece il gradiente, nelle due misurazioni, prende forme opposte, la non uniformità è attribuibile al substrato.

Quando la non uniformità di lettura è dovuta allo scanner, questo può dipendere sia da variazione di eccitazione della sorgente luminosa che da problemi concernenti la distanza focale della lente.

Sono due difetti che, se sono presenti nel sistema, vanno corretti preventivamente.

Numero di canali

I primi scanner artigianali usati per la lettura dei microarray avevano un solo canale e quindi potevano leggere ad un'unica lunghezza d'onda. Poi sono stati costruiti strumenti che potevano leggere contemporaneamente due microarray, in cui uno funzionava da controllo. La maggior parte degli strumenti attuali hanno tre canali, di cui due sono utilizzati per leggere in parallelo due campioni diversi, mentre il terzo canale serve per leggere in simultanea il controllo.

Ci sono poi strumenti dedicati a particolari applicazioni anche a cinque canali per la lettura, per esempio del DNA . Di questi, quattro servono per leggere, ciascuno una delle quattro basi, mentre il quinto canale serve per il controllo.

Ci sono poi strumenti che hanno più canali per leggere a lunghezze d'onda diverse, nell'ambito dello spettro visibile, compreso fra 400 e 700 nm, con frequenze di emissione che devono essere di almeno 50 nm fra un livello di segnale e l'altro.

Sovrapposizioni

In alcuni strumenti, per questo aspetto difettosi, ed in particolari condizioni sperimentali, può succedere che il segnale fluorescente di un canale si mescoli con quello di un altro canale, fenomeno indesiderato che gli anglo-americani chiamano " Cross- Talk ".

E' un fenomeno che, naturalmente, porta a letture errate, perché succede che le letture di due canali si sommino, creando non pochi problemi di interpretazione. Per gli scanner tale fenomeno lo si riesce a minimizzare scegliendo bene il tipo di laser o intervenendo sui filtri di emissione. Per gli imagers, che utilizzano la luce bianca, la correzione risulta più problematica.

Degrado del campione

I campioni fluorescenti, nelle fasi di lettura, possono andare incontro a fenomeni di degrado in cui le molecole fluorescenti sono danneggiate da un'eccessiva esposizione alla luce, per cui letture. eseguite in tempi diversi, possono dare risultati non sovrapponibili.

Questo inconveniente, che era abbastanza frequente con i primi prototipi di scanner, in cui si arrivava a sbalzi anche del 200-300%, con gli strumenti moderni, raramente si arriva al 10%. Comunque. per minimizzare gli inconvenienti delle false letture, è buona regola leggere sempre con un livello di illuminazione il più basso possibile.

Ampiezza dell'area

Dato che ogni produttore stampa i vetrini o i supporti di misure diverse e con una diversa configurazione, è bene preferire sistemi di lettura che coprano simultaneamente un'area quanto più ampia. Raccomandabili sono gli scanners che leggono, in un unico insieme, un'area di 25x76 mm, che equivale all'intera superficie del vetrino portaoggetti standard.

Dimensioni

Le dimensioni complessive dei primi strumenti di lettura erano di circa 180x 90x30 cm e pesavano anche più di 200 kg. Quelli attuali sono circa 30x60x30cm e pesano 15-40 kg. Tanto che alcuni sono addirittura portatili.

Ovviamente si tende quindi a renderli sempre più maneggevoli

SEGNALE E RUMORE

In tutti gli esperimenti in cui si utilizzano microarray con acidi nucleici o proeine, in cui si è costretti a fissare materiali biologici su supporti solidi e cosguentemente ibridare o legare comunque altre molecole,bisogna essere in grado di gestire correttamente una grande quantità di fasi tecniche che si devono affrontare sia prima che dopo l’eperimento vero e proprio, Di particolare importanza è la gestione e interpretazione del segnale che  che può essere influenzato da moltissimi fattori. Intanto dobbiamo chiarire cosa intendiamo per segnale e cosa. invece è il rumore.

Il segnale è l'espressione numerica di lettura che corrisponde al vero dato sperimentale.

Il rumore, invece, è dato dalla somma delle interferenze aspecifiche, che disturbano la lettura del segnale, e che, come in seguito riportiamo, possono avere origini diverse. Il quoziente segnale/ rumore è molto importante. Infatti, in tutti gli esperimenti bisogna fare in modo, per ovvie ragioni, che sia quanto più alto.

Componenti del segnale

Sono tre le componenti determinanti del segnale che si evidenziano a conclusione di un' analisi: La componente intrinseca, la estrinseca e la quantità.

La componente intrinseca deriva direttamente dalle proprietà del tracciante fluorescente scelto da legare al target, dalla concentrazione e dal suo coefficiente di estinzione. L'accurata selezione del tracciante fluorescente ha quindi una grandissima importanza.

La componente estrinseca deriva da una serie di fattori legati allo strumento di lettura come il tipo di sorgente luminosa, la lunghezza d'onda, il tempo di esposizione ecc. Ma deriva anche da fattori ambientati come la polarità del solvente, il pH del tampone ecc. Si può avere anche un decadimento del segnale quando gli spots non sono perfettamente allineati per cui si può verificare un trasferimento di energia da uno all'altro (self- quenching).

Ovviamente il terzo determinante del segnale deriva dalla quantità ovvero dal numero delle molecole sia del target che del tracciante ma fra questi due componenti non c'è mai un rapporto 1:1. E' sempre compito del ricercatore trovare sperimentalmente il rapporto preciso che esalti al massimo il segnale.

Per quanto riguarda le proteine non si deve dimenticare che talvolta, trattandosi di molecole instabili si può arrivare a risultati in tutto o in parte inutilizzabili.

Componenti del rumore

Sono numerose anche le componenti del rumore che riguardano sia lo strumento di lettura che il vetrino o fase solida.

Rumore derivante dallo strumento

Lo strumento può creare problemi se si verificano cali di tensione ( dark current ) che sono causati prevalentemente da sorgenti di calore. Questa è la ragione per la quale la camera di lettura del CCD di molti imagers è tenuta a-50° C. Altra fonte di rumore può essere dovuta ad un disturbo elettronico del circuito, dell' amplificatore o del convertitore analogico-digitale.

Rumore può anche essere causato da inconvenienti del sistema ottico innescati da anomali riflessi di luce del substrato o da raggi cosmici.

Rumore derivante dal microarray

La maggior parte dei microarray hanno come fase solida il vetro e, quindi, questo stesso materiale, se non ben scelto, può essere fonte di rumore. Lo stesso fenomeno può derivare da non appropriati componenti del substrato stratificato sul vetro. Qualora la fase solida sia in plastica o abbia dei componenti metallici, il pericolo che si evidenzino interferenze da rumore è più probabile. Comunque trattamenti delle superfici con gel o nitrocellulosa sono causa di un rumore molto più accentuato di quello che si ha per trattamenti con organoamine o organoaldeidi di alta qualità.

Così anche alcune molecole del diluente del campione o lo stesso campione possono reagire in modo aspecifico con il substrato provocando interazioni che oscurano parzialmente il segnale. Questo tipo di rumore è ben noto come " rumore di fondo ". Molto lavoro è stato fatto negli ultimi anni per ridurre al minimo queste interferenze e, quindi, oggi i sistemi di lettura sono stati cosi perfezionati, che è possibile leggere agevolmente anche segnali di poche dozzine di molecole dei singoli spot.

Abbiamo anche già richiamato l’attenzione sul fatto che i microarray possono essere contaminati da particelle di polvere flottanti nell’aria per cui in fase di lettura si notano dei falsi spots molto chiari che rendono difficile la finale interpretazione dei risultati. E’ quidi di fondamentale importanza operare, sia in fase di produzione  che di utilizzazione in ambieti in cui la concentrazione delle particelle sia molto bassa e gli operatori indossino camici completi

LA FLUORESCENZA

La fluorescenza è il tipo di segnale luminoso più comunemente usato nella lettura dei microarray.

Vale quindi la pena di approfondire come si collochi lo spettro della luce visibile nell'ambito delle radiazioni elettromagnetiche.

Le radiazioni elettromagnetiche vanno da un minimo di lunghezza d'onda di 10-3 nm, dei raggi gamma ad un massimo di 10 12 nm delle onde radio, come riportato nello schema che segue: luce visibile.

 

raggi gamma

raggi x

ultravioletto

infrarosso

microonde

televisione

radio

10-3

10-2

10-1

10

10 1

10 2

10 3

10 4

10 5

10 6

10 7

10 8

10 9

10 10

10 11

10 12

 

lunghezze d'onda in nanometri

 

In questo ampissimo ambito, di ben 15 ordini di grandezza, in cui si inquadrano progressivamente, in base alla lunghezza d'onda, a partire dai raggi gamma a cui seguono i raggi x, i raggi ultravioletti, la luce visibile, i raggi infrarossi, le microonde, le onde per la televisione fino alle onde radio che arrivano ad ampiezza di metri, la luce visibile occupa uno spettro intermedio con lunghezze d'onda comprese fra i 400 e i 700 nm.

Ora bisogna dire che le radiazioni elettromagnetiche sono espresse in due modi diversi, ossia come onde o come particelle, per cui è possibile pensare alla luce come un insieme di particelle individuali detti fotoni.

C'è la seguente formula che fa capire le interrelazioni esistenti fra frequenza di oscillazione delle particelle, le lunghezze d'onda e l'energia:

C

V =     __________________

Lamda

 

Questa ci dice che V, ovvero la frequenza, che si esprime in Hz, è uguale a C, che rappresenta la velocità della luce in nm (3.0x 10 17 nm/sec. ) diviso lamda, che è la lunghezza d'onda.

Ne deriva, quindi, che C, ovvero il numero delle oscillazioni per secondo di un raggio di luce, aumenta man mano che la lunghezza d'onda diminuisce e viceversa.

Ora, la energia di una certa fonte di fotoni (E) è uguale alla costante di Plank (h= 6,6 x 10-34) moltiplicato la frequenza (V).

 

E=hxV

 

Pertanto i fotoni ad alta frequenza hanno di conseguenza alta energia ed i fotoni a bassa frequenza sono quelli a più elevata lunghezza d'onda.

Certe molecole, dette fluorofori, per la loro speciale configurazione di elettroni, sono capaci di adsorbire, ovvero catturare fotoni di luce, passando da uno stato di riposo ad uno di eccitamento, che dura frazioni di secondo. In questa transizione si verifica il fenomeno della fluorescenza dovuta al fatto che il fluoroforo eccitato libera un fotone di lunghezza d'onda leggermente più lunga rispetto a quella della luce di eccitazione e che quindi ha meno energia.

Tale differenza di lunghezza d'onda, nota come differenza di Shift, si misura in nanometri ed è una costante per ogni tipo di molecola fluorescente.

Il quantum di adsorbimento è dato dal rapporto fra i fotoni emessi ed i fotoni adsorbiti.

La fluorescenza è quindi direttamente proporzionale sia alla concentrazione del colore ma anche al quantum di adsorbimento ed al coefficiente molare di estinzione che dipende anche dall'ambiente.

La fluorescenza è il tipo di segnale standard scelto per le analisi con i microarray perché presenta numerosi vantaggi quali la facilità d'uso, può essere di diversi colori, è compatibile con gli enzimi, la si manovra facilmente, da risposta rapida ecc. Con gli strumenti moderni si arriva a leggere anche segnali emessi da poche centinaia di molecole e si riescono a distinguere anche nel caso di segnali deboli adiacenti a segnali molto più intensi. Questa caratteristica permette di arrivare ad altissime densità di probes o spots. Poi, specialmente per alcuni tipi di analisi del RNA si fa anche uso in parallelo di colori fluorescenti diversi che hanno ovviamente spettri di emissione differenti.

Comunque bisogna tener presente che è bene sempre operare con moderati livelli di luce di eccitazione perché solo così si riesce a ripetere anche più volte la lettura della medesima area senza inconvenienti.

Se invece si usa una sorgente di luce molto intensa, si può danneggiare il processo per cui si ha, per fotoinstabilità, un decadimento del fenomeno della fluorescenza ( photobleaching ).

COLORI FLUORESCENTI

I colori fluorescenti formano una interessante famiglia di composti che sono usati come traccianti per le analisi eseguibili con i microarray. Infatti ci sono centinaia di tali reagenti con struttura chimica simile caratterizzata dalla presenza di 4-6 anelli bezenici con doppi legami che sono capaci di adsorbire ed emettere la luce nello spettro del visibile e a diverse lunghezze d'onda.

Il tracciante più largamente usato per questo scopo è l'isotiocianato di fluoresceina che adsorbe ed emette luce rispettivamente a 494 e 518 nm che, quindi, all'occhio umano, appare come luce giallo- verde, che è un tipo di luce facilmente leggibile da parte di scanners al laser. E' stata poi creata una vasta famiglia di traccianti simili che includono la serie Alexia, JOE, Lissamina e Rodamina che hanno ognuno un diverso spettro di adsorbimento e di emissione per cui possono essere adoperati in parallelo nello stesso esperimento. Questi derivati rispetto all'isotiocianato di fluoresceina sono più solubili e più fotostabili. Il continuo perfezionamento dei processi di sintesi lascia ben sperare che, in futuro, si possano realizzare composti con caratteristiche ancora migliori.

Un altro gruppo importante di traccianti sono i derivati della cianina, specialmente il C3 ed il C5, con spettri di emissione compresi tra 570 e 670 nm, largamente utilizzati per i nucleotidi e gli oligonucleotidi. Anche questi risultano essere molto fotostabili.

Un terzo gruppo di traccianti molto importante è quello dei BODIPY, che hanno la caratteristica di coprire, con lo spettro di emissione tutta l'area del visibile.

SCANNERS

Gli scanners sono gli strumenti più comunemente usati per la lettura. Sono simili a dei microscopi in grado di scandagliare, ossia di leggere muovendosi rapidamente avanti e indietro in lungo ed in largo.

Sono strumenti abbastanza sofisticati i cui componenti sono quasi sempre i seguenti: il laser come sorgente luminosa, il filtro di emissione, il tubo fotomoltiplicatore, il convertitore analogico digitale ed il personal computer.

La luce del laser passa attraverso il filtro di eccitazione che permette il passaggio soltanto di un raggio che è della lunghezza d'onda che permette il massimo di eccitazione adatto a leggere nelle migliori condizioni il microarray presente. L'eccitazione delle molecole del fluoroforo emettono una luce fluorescente che è riflessa all'indietro verso l'obiettivo, che fa si che i vari fasci diventino paralleli, ossia attua quel processo detto collimazione. Un altro specchio riflette il fascio di luce fluorescente verso un altro filtro che fa passare solo la lunghezza d'onda desiderata, respingendo le altre lunghezze d'onda del rumore di fondo ed anche la stessa lunghezza d'onda della luce di eccitazione. Il fascio di luce collimata e filtrata viene messa a fuoco e fatta passare attraverso un piccolissimo foro per arrivare quindi ad un fotomoltiplicatore che dirige poi il segnale verso il convertitore che lo trasforma da analogico a digitale.

Gli scanners, per quanto riguarda il movimento, sono di due tipi; infatti alcuni hanno l'ottica mobile in modo da poter scorrere avanti e indietro o, lateralmente, in un senso o nel senso opposto, in modo da poter leggere tutta la superficie del vetrino. Altri, invece, e sono i più, hanno l'ottica fissa, ma sono fatti in modo che si muova in tutte le direzioni desiderate il portavetrino.

Si chiamano poi scanners sequenziali quelli che catturano in modo sequenziale le immagini di un canale per volta. Si chiamano simultanei gli scanners multicanali che leggono tutta insieme l'area da leggere ma, ovviamente, riportano separatamente i segnali dei singoli canali, minimizzando i possibili rischi di interferenze (cross- talk ). Questo aspetto è moto importante specialmente nella valutazione dell'espressione dei singoli geni perché si possono avere diversità di espressione di notevole ordine di grandezza di singoli geni adiacenti.

Per quanto riguarda il laser dobbiamo intanto chiarire che questo è un acronimo per " light amplification by stimulated emission of radiation " e si basa su una tecnologia descritta per la prima volta da Albert Einstein nel 1917, per cui gli fu conferito il premio Nobel, che è nota come " effetto fotoelettrico ".

Tale fenomeno si basa sul fatto che gli elettroni dell'anello più esterno di un atomo sono in genere in condizione di riposo ma, se stimolati dalla luce, possono passare ad uno stato di eccitazione e quindi ad un più alto livello di energia. Una volta eccitato l'elettrone può ritornare allo stato di riposo, emettendo un fotone, processo conosciuto come fluorescenza.

Se invece un elettrone, che è nella fase di eccitazione, viene esposto ad una fonte luminosa emette due fotoni della stessa energia e direzione e si ha quella che si chiama la " emissione stimolata ", che è il fenomeno fisico su cui si basano i lasers.

La tecnologia dei lasers è vastissima e ci sono lasers di varia potenza ma tutti si distinguono per la caratteristica comune di essere sorgenti luminose di luce monocromatica, coerente e collimata. Non c'è nulla di particolare da dire per quanto riguarda le lenti, mentre vale la pena di soffermarsi sul fotomoltiplicatore e sul convertitore analogico-digitale.

Il fotomoltiplicatore è un particolare tipo di detector, che è uno strumento capace di convertire i fotoni in corrente elettrica, ma ha qualcosa in più di un semplice detector, perché i fotoni emessi dal microarray colpiscono la superficie di un fotocatodo che li trasforma in elettroni che vengono incanalati in un tubo attraverso una serie di diodi in cui ogni elemento, e sono almeno 10, moltiplica il numero degli elettroni che lo colpiscono, per cui l'effetto della corrente viene progressivamente esaltato con un effetto di amplificazione anche di milioni di volte.

Il convertitore analogico-digitale appunto converte poi il flusso degli elettroni, che è fisicamente analogo alla sua intensità, nel segnale digitale, ossia in base al codice binario 1 o 0, che è quello che il computer sa leggere ed interpretare. Il flusso della corrente, che arriva dal fotomoltiplicatore, in base all'intensità del segnale fluorescente, può variare da 0 volt, che corrisponde a zero fluorescenza, fino ad un massimo di 100 volt in base al voltaggio in arrivo avviene la conversione in bit.

La maggior parte degli scanners utilizza un formato a 16 bit, che significa che può esprimere valori fino al limite che è di 2 alla 16, pari quindi ad un valore di 65.536. Dato che la conversione avviene in base al quoziente fra il voltaggio e questo numero, ossia 100/65.536, i convertitori a 16 bit sono preferibili perché sono molto più selettivi di quelli, per esempio ad 8 bit, che hanno un fattore di conversione più grossolano e, quindi, meno analitico.

IMMAGERS

Gli immagers costituiscono il secondo tipo di lettori di microarray . Pur avendo la stessa impostazione, sono molto diversi rispetto agli scanners perché sono praticamente delle macchine fotografiche che utilizzano normale luce bianca e fotografano larghe aree del microarray, per esempio 1 cm quadrato. Non hanno quindi la necessità di muoversi avanti e dietro o a destra e sinistra per scandagliare l'oggetto.

La luce bianca di eccitazione passa attraverso un filtro e colpisce la superficie fluorescente del microarray, causando l'eccitazione. Il raggio viene poi riflesso e diretto, attraverso una lente, verso una speciale camera che cattura l'immagine su uno speciale detector al silicio e poi la invia, attraverso un convertitore analogico-digitale,. al computer.

La sorgente luminosa, a luce bianca, e quindi policromatica, è costituita da una lampada allo xenon, che, in un bulbo di quarzo, contiene due elettrodi immersi in questo particolare gas alla pressione di 10-20 atmosfere, i cui atomi, quando vengono eccitati dalla corrente, perdono facilmente elettroni dell' orbita più esterna e poi, quando ritornano nello stato di riposo, rilasciano fotoni generando una luce molto intensa di tutte le lunghezze d'onda.

Per avere un'idea dell'intensità luminosa, bisogna sapere che molte sostanze, specialmente i metalli, emettono una luce la cui lunghezza d'onda, e quindi il colore cambia, in base all'intensità del riscaldamento. Questa correlazione fra temperatura e colore si esprime in gradi Kelvin che si ottengono aggiungendo 273 al grado della temperatura. Una superficie metallica surriscaldata può diventare rossa a 3500, arancione a 4500, gialla a 5000 e bianca a 6000. La temperatura della superficie del sole è 5000-6000 e, quindi, appare giallo-bianco. La lampada allo xenon degli imagers emette, con lo stesso meccanismo, una luce bianca, che corrisponde a 6000 gradi Kelvin.

Bisogna quindi essere consapevoli che una sorgente luminosa del genere, come d'altra parte quella dei lasers, è pericolosa perché può danneggiare la retina, sia per la sua intensità sia perché, a differenza della luce del laser, quella della lampada allo xenon contiene anche raggi ultravioletti.

Altro componente importante dell'imager è il detector situato nella camera digitale. I tipi più comuni sono dei CCD, acronimo che sta per " charge-coupled device " , detti anche a scorrimento di carica, che sono dei fotosensori in grado di convertire i fotoni in arrivo dagli spot fluorescenti in corrente elettrica che può essere misurata. Il CCD contiene una serie di transistor al silicio che creano correnti proporzionali all'intensità della luce che li colpisce e che, attraverso un convertitore analogico-digitale, formano i pixel dell'immagine che si evidenzia, di conseguenza, sullo schermo del computer. Infatti il pixel è l'unità di misura minima che si può visualizzare o catturare e può essere generato da un solo transistor quando si tratta di immagini in bianco e nero ma da molti per il colore. Quanti più sono i pixel in un'immagine tanto migliore è la risoluzione. Quindi quanto più piccoli sono i pixel, migliore è l'immagine. La maggior parte delle camere degli immagers contengono pixel la cui grandezza fisica è compresa fra 7 e 12 micron.

Comunque il CCD è un detector che, a differenza del fotomoltiplicatore degli scanners, non amplifica il segnale luminoso e quindi si è costretti, per avere lo stesso risultato, a prolungare il tempo di esposizione. Ne consegue un " read time " più lungo. Infatti il tempo di lettura è dato dalla somma dei tempi che sono necessari perché l'immagine sia catturata, trasformata in carica elettrica, digitalizzata, immessa nella memoria del computer per poi diventare evidente sullo schermo.

Anche con questo strumento di lettura si può verificare che, con questa luce così intensa, cariche elettriche debordino da un pixel ad uno adiacente, processo conosciuto come " blooming ", che, ovviamente, porta alla comparsa di immagini confuse in quanto i margini degli spots non appaiono netti. Si è quindi intervenuti aumentando le spaziature sul pixel detector.

Un altro inconveniente, di cui bisogna tener conto è che, dato che un CCD contiene un gran numero, anche un milione di pixel, c'è sempre qualcuno difettoso, che è causa di immagini imperfette. In questi casi bisogna ingrandire l'immagine, che compare sullo schermo, per individuare quei segnali che presentino intensità erronee.

Comunque, malgrado i surriferiti inconvenienti, i CCD sono ancora i più comuni detector degli imagers. Recentemente, tuttavia, presso il reparto di Scienza dei Computer dell'università Amburgo, ne hanno messo a punto un nuovo tipo, il CMOS, acronimo di " complementary metal oxide semiconductor” che sembra essere un po' meno sensibile, ma è di dimensioni più ridotte e costa molto meno.

 

ANALISI DEL SEGNALE

ALTERNATIVE TECNOLOGICHE

I microarray permettono di identificare in parallelo anche decine di migliaia di sequenze di acidi nucleici o di proteine dislocate nelle diverse posizioni e di determinarne la quantità presente sul campione. Oggi, ancora, per lo più si utilizza per tali misurazioni la fluorescenza. Ciò è dovuto alla grande sensibilità e all’ampio spettro dinamico di tali misurazioni che si basano su fenomeni ottici, da cui ne deriva un potere di risoluzione spaziale tale che ci permette di arrivare a spots anche più piccoli di 10 micron. Ma questo metodo ha anche i suoi punti deboli (Kricka 1999): Si tratta di un metodo abbastanza indaginoso, la cui esecuzione richiede tempi lunghi e la non semplice separazione delle molecole libere da quelle legate, è talvolta fonte di errori.Altri sostengono che, fra l’altro, che i metodi tradizionali che utilizzano fluorofori, che sono quasi sempre idrofobi, sono inevitabilmente disturbati da rumori di fondo che non è facile eliminare del tutto.

Poi, in alcuni casi. sarebbe opportuno disporre di apparecchiature portatili in grado di dare anche risposte immediate.

Pertanto oltre a questi metodi tradizionali, si profilano nuove modalità di produzione e di lettura che rientrano nelle nanotecnologie e che possono essere inquadrate tutte fra le così dette" Label-free " ossia senza molecola-segnale, che per lo più, è il segnale fluorescente.

Si stanno quindi cercando delle alternative che semplifichino le procedure e che puntino ad utilizzare per la lettura qualcuno dei numerosi sistemi oramai esistenti di biosensori, che danno una risposta diretta ed immediata.

I biosensori sono apparecchiature che stanno avendo una larghissima applicazione in campo biomedico perché permettono di misurare con precisione ed immediatezza tutta una vasta serie di variabili come i gas del sangue, la glicemia, l'azotemia, la pressione arteriosa, la pressione intraoculare, il ritmo cardiaco, l'ecografia ecc.

I sistemi operativi su cui si basano sono i più diversi: meccanici, calorimetrici, termoelettrici, acustici, ottici. Altri ancora sfruttano l'effetto piezoelettrico che è un fenomeno consistente nella comparsa di una polarizzazione elettrica in alcuni cristalli sottoposti a sollecitazioni meccaniche (effetto piezoelettrico diretto) e nell'insorgere di deformazioni meccaniche negli stessi cristalli sottoposti ad una differenza di potenziale ( effetto piezoelettrico inverso ). Nei moderni apparecchi ci sono particolari lamine metalliche che, a seconda se sottoposte ad una pressione o ad una trazione danno luogo ad una carica di un segno o di segno opposto.

I sistemi alternativi che si stanno sperimentando sono numerosi e tutti ovviamente coperti da brevetto. Non è negli scopi e nei limiti di questa sintetica monografia entrare nei particolari delle varie soluzioni proposte. Riteniamo utile, però, fare un breve cenno dei principi tecnici su cui si basano alcuni fra i più rappresentativi:

Metodo SPR della Biacore

SPR sta per "surface plasmon resonance" ed è uno dei primi metodi label free proposto dalla Biacore, azienda di Uppsala ( Svezia) per titolare le proteine. Il sensore ottico, schematicamente, contiene una lamina di vetro ricoperta da un sottile film d'oro ed il tutto avvolto in un gel di carbossimetil destrano, spessa 25-100 nm, che costituisce un'ottima superficie per far reagire le biomolecole senza interferenze. La molecola di legame può essere fissata direttamente su questa superficie o su una molecola di cattura fissata antecedentemente. Il campione, iniettato in particolari cartucce, viene fatto scorrere nella interfaccia verso differenti spots di valutazione e, secondo se si lega o meno devia o meno un raggio di luce infrarossa incidente. Tale differenza di rifrazione è amplificata proporzionalmente in base alla distanza fra l'area di reazione e quella di misurazione. L'unità di risonanza è l'unità di misura e la risposta è ovviamente proporzionale alla concentrazione della biomolecola sotto esame. La rigenerazione del sensore fra una lettura ed un' altra è molto rapida ed efficiente. L'apparecchio è in grado di leggere anche molecole molto piccole, fino a 100 Daltons ed ha una sensibilità tale da apprezzare differenze di quantità minime di proteine, fino alle subfemtomole.

Questo metodo risulta particolarmente utile per studiare le interreazioni a livello molecolare fra DNA, RNA,  e le proteine e le interreazioni proteine-proteine. A tal fine rimandiamo alla interessante sintesi di Wegner (2003) in cui sono descritte le più interessanti applicazioni.

Metodo delle microparticelle della Nanosphere

Vengono utilizzate particelle di latice, o anche di altri materiali, ma rivestite d'oro su cui vengono fissate molecole di cattura per eseguire o reazioni di ibridazione o reazioni immunologiche. Queste particelle, una volta messe a contatto con l'analita, tendono ad aggregarsi cambiando colore e, scorrendo fra due elettrodi, emettono un segnale che è proporzionale alla quantità della biomolecola legata. Vari tipi di sensori sono in grado di valutare il fenomeno. Alcuni, come quelli prodotti dalla MicroSensor Systems Inc., sono in grado di localizzare e misurare anche le proprietà di singoli atomi.

Metodo AFM (cantilever)

AFM sta per " atomic force microscope " che utilizza il principio di uno strumento descritto già nel 1986 da Binnig come microscopio a scansione in grado di apprezzare su tre dimensioni oggetti nell' ordine di grandezza dei nanometri. E’ un metodo che si basa su sensori nanomeccanici in grado di monitorare variazioni molecolari e che hanno un potere di risoluzione subnanometrici.

Le molecole di cattura vengono fissate sulle estremità libere di microscopiche lamine (cantilever), per lo più di silicio  lunghe 750 micron, larghe 100 e dello spessore di 0,9 micron che fuoriescono a pettine da un supporto.

Queste lamine sono in grado di apprezzare, flettendosi, cambiamenti di massa minimi, fino a 10 alla meno 17 g. Un raggio laser puntato sull' estremità libera viene deviato in maniera proporzionale alla quantità delle biomolecola legata e la risposta, immediata, è data da un fotodetector. Esistono anche sensori che valutano la variazione della microlamina in modo diverso basandosi sul cambiamento di struttura della superficie valutati elettronicamente.

Metodo RLS

RLS è l'acronimo di resonance light scattering ed è una tecnologia che si basa sull'uso di microparticelle di oro e argento, del diametro di 40 -120 nm, che, se esposte alla luce bianca, entrano in vibrazione con emissioni colorate di lunghezza d'onda che dipendono dalla composizione e dal diametro della particella. Fissandoci sopra delle biomolecole è possibile utilizzarle per tests diagnostici che richiedono però lettori particolari simili a dei fluorimetri.

REGOLE E PROCEDURE D'USO

Schena e Davis ( 1999) hanno tracciato una serie di 12 regole che devono sempre essere tenute presenti, quando si opera con i microarray per ottenere risultati corretti ed apprezzabili. Le riportiamo in sintesi:

  1. Le analisi dei geni devono essere sempre eseguite in parallelo. La valutazione dell'attività dei geni non può essere mai fatta correttamente su supporti solidi ma non paralleli quali il nylon o la nitrocellulosa, che non hanno una superficie piana. Occorre poter operare su una superficie perfettamente piana come quella del vetro o di altro materiale che abbia le stesse caratteristiche. Infatti solo su una superficie perfettamente piana si possono allineare gli spots senza che si creino inaccettabili convergenze che renderebbero impossibile la lettura in automazione o comunque altererebbero i risultati.
  2. Le tecnologie di preparazione devono sempre rendere possibile la miniaturizzazione e l'automazione. Tutti i metodi di produzione dei microarray, compresa la fotolitografia o le procedure a getto d'inchiostro, devono tendere a realizzare un prodotto che, comunque, rientri in questi canoni, affinché possa soddisfare la clientela.
  3. Ciascun ciclo di analisi dei geni ha cinque fasi evolutive. Come i cicli della vita si ripetono in un divenire sempre identico per cui si ha prima la nascita, poi lo sviluppo, la crescita per finire con la morte, cosi, per l'analisi dei geni si deve procedere attraverso cinque tappe: impostare il quesito biologico, preparare il campione, eseguire la reazione biochimica, raccogliere i risultati, analizzarli per arrivare alla risposta finale.
  4. La manipolazione del sistema biologico deve aderire esattamente al quesito biologico. Qualsiasi problema si affronti, sia che riguardi batteri, lieviti, organismi geneticamente modificati, piante, animali bisogna sempre stare molto attenti alle influenze dell'ambiente, alla temperatura, ai trattamenti che si fanno e quindi a tutte le tecnologie che si applicano per evitare che si creino artefatti. Per esempio quando si lavora con le piante bisogna tener presente non solo che la temperatura sia quella giusta, ma anche l'influenza dell'intensità luminosa e la concentrazione del CO2. Con qualsiasi tipo di cellula in coltura, il terreno di crescita, il volume o il tipo di recipiente, l'agitazione e tanti altri fattori possono influenzare l'espressione genica in modo anomalo compromettendo così il risultato finale dell'esperimento.
  5. Il campione biochimico deve riflettere esattamente l'esemplare biologico. Bisogna fare in modo che l'isolamento, la purificazione l'amplificazione, la marcatura e qualsiasi altro metodo o tecnologia si applichi non alterino il campione che si desidera analizzare. Tener presente che, specialmente le molecole di RNA, sono suscettibili a rapidi cambiamenti fino alla totale denaturazione da parte di ribonucleasi frequentemente presenti in alcuni ambienti. Anche la marcatura è una fase che può creare problemi se non si sceglie un tipo di tecnica che sicuramente poi dia la esatta misura del campione.
  6. Una presentazione parallela deve sempre essere associata a campioni precisi e correttamente dosati. Quindi non solo i probes vanno disposti in piano e su linee parallele per rendere possibile la corretta misurazione dei targets, ma anche essere omogenei e correttamente legati al substrato, altrimenti non vanno usati.
  7. Il sistema di lettura deve poter acquisire dati precisi dal posizionamento dei campioni in parallelo. Sia che si tratti di scanners che di imagers la lettura degli spots divenuti fluorescenti si deve poter svolgere in maniera corretta. Quindi bisogna scegliere apparecchi con una buona sorgente luminosa, un 'ottica senza difetti e così per tutti i componenti del sistema di lettura che deve essere in grado di ridurre al minimo sia il rumore di fondo che tutte le eventuali interferenze che possano alterare in qualche modo il segnale.
  8. I dati che provengono dal sistema di lettura devono essere manipolati ed elaborati con precise modalità. Occorre poter operare con un potente apparecchio di bioinformatica, completato da un ottimo software, per arrivare a risultati che siano lo specchio del campione biologico sotto esame. Devono essere apparecchi in grado di fornire non solo una serie di numeri corrispondenti all'intensità della fluorescenza dei singoli spots ma anche un'immagine grafica dell'insieme. Solo così si riesce ad avere un quadro completo dell'identità dei targets e delle sequenze depositate ed interpretare correttamente il valore anche di segnali molto deboli.
  9. La comparazione dei risultati di due o più esperimenti deve essere sempre soggetta alle limitazioni del caso. Almeno fino a quando non si potrà disporre di standard di riferimento, certamente i dati di analisi genica che si riescono a raccogliere sul singolo vetrino sono certamente più attendibili. I dati ottenibili su vetrini di diversa fabbricazione o l'uso di colori fluorescenti diversi o tecniche diverse possono dare risultati che talvolta non sono facilmente comparabili.
  10. Le conclusioni concernenti le relazioni fra i geni ( spesso si tratta di grandi numeri ) possono essere tratte solo se in un singolo esperimento si prendono in esame tutte le variabili e si arrivi ad una elaborazione statistica adeguata dei risultati. Questo significa che conclusioni riguardanti un determinato processo e concernenti un certo organismo o sistema possono essere significative solo se, nello stesso esperimento, o meglio con un unico vetrino, si prendono in esame contemporaneamente tutti i geni di quel genoma che concernono quel processo. Quindi anche un microarray con 10.000 geni, pur fornendo un enorme quantità di dati, può risultare insufficiente se si vuole approfondire un sistema alla cui attuazione concorrono circa 15.000 geni.
  11. L'impostazione analitica deve sempre comprendere tutti gli elementi e le variabili intrinseche ed estrinseche del sistema. Le analisi eseguite con i microarray non devono mai restare in un contesto interpretativo isolato, ma vanno sempre inquadrate in una visione globale del sistema che deve comprendere anche i dati molecolari, biochimici, chimici, fisici, enzimatici nonché le proprietà strutturali sia del gene che i suoi prodotti. Quindi per ogni organismo che interessi, le valutazioni con i microarray possono essere valutate meglio in un contesto globale di altre informazioni che comprendano anche i rapporti gene-gene e proteine-proteine derivate.
  12. L'analisi parallela di un organismo si può considerare completa solo quando in un contesto quadridimensionale sono assemblate tutte le variabili del sistema. Un quadro completo dell'espressione genica di un determinato organismo, si può dire di averlo solo se si conoscono tutte le variabili di ogni gene, in ogni cellula, in ogni fase della vita. Questo significa che l'attività genica cambia continuamente e quindi va sempre studiata come un film in movimento.

 

Conclusione: Le analisi con i microarray impiegano una miriade di tecnologie e metodi diversi ma sempre bisogna capire bene di che cosa si tratti ( What ), del perché ( Why ) e come (How) l'obiettivo possa essere raggiunto nel modo migliore.

 

LA RACCOLTA DEI CAMPIONI BIOLOGICI

E’ importante capire bene prima quale sia l’obiettivo che si persegue. Nel caso si tratti di dover fare lo screening di un genoma per localizzare alcuni geni, dato che occorre una quantità piuttosto consistente di DNA, in genere si preferisce partire da sangue intero. Se invece si debba esguire dei tests molto specifici e limitati, il campionr può essere prelevato dalla bocca ( Richards 1994 ).

Nel caso si debba prelevare un campione di sangue, il coagulante consigliato è l’EDTA. Non usare mai l’eparina perché interferisce con la Taq polimerasi.

Per quanto riguarda il volume del sangue da prelevare, tener presente che, dato che il DNA si etrae solo dalla serie bianca, in quanto i globuli rossi non hanno nucleo, regolarsi calcolando che, in genere si estraggono  25-40 microgrammi di DNA per ml di sangue intero.

Per la conservazione di piccoli quantitativi di sangue essiccato, da cui si può estrarre sia DNA che RNA,  si  possono anche usare particolari cartoncini noti come “Guthrie cards “ ( Guthrie 1963 )

I  campioni di mucosa buccale, invece, si prelevano con speciali spazzolini. Se ne adoperano due per ogni caso e vanno strofinati ognuno sulla faccia interna di ogni guancia per 30 secondi. Recentemente tale metodo  è stato sostituito da un particolare liquido di lavaggio che raggiunge lo stesso scopo e che negli USA  è noto come “Original Mint Scope Mounthwash “.

Qualora si abbia a che fare con campioni da cui  si debba estrarre  lo RNA, nelle procedure d’uso abbiamo riportato le regole base che vanno osservate quando si avvia una valutazione con i microarray.Ora bisogna avere chiaramente presente che se il campione biologico è costituito da una sospesione cellulare derivata da cellule in coltura, questa è sufficientemente omogenea. Quando il campione biologico è invece una biopsia che è stata prelevata ad un paziente, occorre rispettare qualche regola in più. Infatti, dato che, come abbiamo ripetutamente segnalato lo RNA non è stabile, per cui nei tessuti non trattati  correttamente si degrada rapidamente, per i campioni prelevati al tavolo operatorio, è bene procedere come segue:

Le biopsie vanno processate il più rapidamente possibile perché, dato che le cellule non sono più raggiunte dal flusso sanguigno, con l’inizio dell’apoptosi, si attivano le RNA asi e lo RNA decade.

La permanenza del tessuto da esaminare a temperatura ambiente va quindi ridotta al minimo, possibilmente non oltre 30 minuti.

Tener presente che i frammenti di tessuti, anche se fissati in formalina, ai fini di questa tecnologia, si degradano ugualmente.

E’ necessario quindi congelare il frammento di tessuto in azoto liquido oppure immergerlo in un inibitore delle RNAasi per poi conservarlo a 4-5° C ., se lo si deve preservare solo per qualche settimana, altrimenti è necessario portarlo a –80°C. Un buon inibitore delle RNA asi lo si può preparare mescolando il 10,24% di alcolo polivinilico ed il 4,26% di glicole polietilenico con 85,50% di ingredienti inerti.

Qualora il prelievo del campione venga effettuato con ago sottile, si ha certamente il prelievo di un campione che risulta più omogeneo ma siccome una certa percentuale delle cellule va incontro a lisi, con conseguente perdita del RNA, è consigliabile centrifugarlo e risospendere il solo sedimento nell’inibitore.

Qualora il frammento sia stato prelevato da un tumore, spesso ritratta di un insieme di tessuti e cellule di vario genere per cui è  opportuno far precedere la valutazione con i microarray da un esame istologico.

BIOINFORMATICA

In questi ultimi anni la ricerca genetica ha cambiato la biologia con la decifrazione dell'intera sequenza del genoma di molti animali e, più di recente anche dell'uomo. La ricerca sul genoma ha trasformato la biologia molecolare in una scienza dell'informazione: La vita parte da un codice digitale che, in 4 miliardi di anni, ha creato la complessa realtà delle interazioni fra i vari geni e fra le diverse proteine che sono le strutture più importanti su cui si basa ed evolve in tutta la biosfera. L'integrazione progressiva dell'informatica a questa ricerca ci da la possibilità di andare oltre lo studio dei singoli geni e ci porterà non solo a diagnosticare in modo più corretto e tempestivo alcune malattie non ancora chiaramente definite come l' Alzheimer o la distrofia muscolare, ma anche a trovare il modo per poterle curare. Chiariremo la sequenza degli eventi metabolici che determinano il processo d'invecchiamento e potremo intervenire in modo sempre più appropriato sull'usura del nostro organismo con stili di vita e farmaci che ci facciano vivere più a lungo e in buona salute.

Dato che in tutto questo progredire la tecnica dei microarray, strettamente correlata all'uso sempre più articolato dell'informatica, avrà certamente un ruolo molto importante, vediamo come i ricercatori, già oggi, e sempre più lo potranno in futuro, diventare i protagonisti di questo grande rinnovamento sia della biologia che della medicina utilizzando macchine intelligenti. e sofisticate per studiare e cercare di prevenire sia le malattie che il decadimento fisico e mentale.

Sono tanti i tasselli. Vedremo di scorrerli nella maniera più concisa per dare la giusta interpretazione e valutare meglio tutto quello che sta avvenendo,

Internet.

La rete internazionale che permette di collegare tutti i computer in ogni angolo del mondo attraverso il Web e le e-mail prende il nome di Internet. L'invenzione del telegrafo prima e poi del telefono ci ha permesso già nel 1800 di comunicare a distanza. Internet, come d'altra parte già lo era stato per il telegrafo, ha adottato un linguaggio con parole in codice criptato ed ha utilizzato, almeno in una prima fase, le linee telefoniche. I pionieri di internet hanno stabilito i primi collegamenti fra computer nel 1970. All'inizio degli anni 90 c'erano già circa 30 milioni di siti collegati. Oggi ce ne sono più di 100 milioni e sono oltre un miliardo le persone che ne fanno uso.

Le opportunità aperte da Internet al settore biomedico sono enormi. A cominciare dalla telemedicina nata negli anni settanta per gli astronauti. Operazione Lindberg è il nome del primo intervento di telechirurgia condotto con l'utilizzo della fibra ottica, quando un paziente a Strasburgo è stato curato da un robot telecomandato da New York.

Gli utilizzatori di microarray per fini diagnostici, ed ancor più coloro che studiano il codice genetico. sono notevolmente avvantaggiati della possibilità di accedere con facilità, ed anche in forma confidenziale, ai dati immessi nei computer di tutto il mondo. Ogni istituzione accademica ed ogni azienda ha un proprio sito Web in cui sono raccolte ed illustrate tutte le informazioni più importanti che la riguardano, come la storia, i personaggi, le attività, l' indirizzo, i numeri di telefono e di fax ecc. In altre parole è una vera e propria finestra aperta su quella istituzione o quella azienda. Oggi, grazie alle e-library è possibile prendere visione di qualsiasi libro o leggere i lavori scientifici pubblicati su qualsiasi rivista utilizzando il proprio computer. Con la stessa facilità si può accedere ai brevetti registrati in qualsiasi angolo del mondo. Nel caso particolare, grazie alla cortesia della TeleChem. è disponibile una biblioteca elettronica dedicata al settore: La Microarray Resource Library (arrayit.com/ e-library), che è una potente risorsa elettronica, .perché raccoglie e mette a disposizione gratuitamente tutto quello che è pubblicato sui microarray. In questo ambito si possono consultare anche tutti i manoscritti riguardanti in modo particolare la " Genome Research ", che di per se è già vastissima.

PubMed

Un'altra eccellente risorsa elettronica è la PubMed resa disponibile dalla National Library of Medicine, che fa parte del National Institute of Health di Bethesda e che fornisce l'accesso a decine di milioni di titoli di pubblicazioni scientifiche riportate da oltre 5000 giornali in 70 Paesi.

Il laboratorio di bioinformatica del Consiglio Nazionale delle Ricerche (http:/ / bioinformatica.isa.cnr.it) mette a disposizione dei naviganti informazioni sulle attività di ricerca in cui i computer sono soprattutto usati per svelare la relazione tra struttura e funzione delle proteine.

Il portale dell'università di Torino (www. bioinformatica. unito.it) offre la possibilità di accedere al BioOn -Grid Forum che, coordinato dall'università del Piemonte orientale, è un luogo di discussione e di tutoring circa le tecniche di analisi con i microarray.

Segnaliamo anche l'Istituto Europeo di Bioinformatica (EBI), che mette a disposizione degli utenti un portale (www. ebi.ac.uk) ricco di informazioni, anche perché rappresenta uno dei più importanti centri di ricerca del mondo nel campo della genomica e della bioinformatica.

Un'altra autorevole fonte di informazioni, per tutto quello che riguarda la biologia molecolare, è il National Center for Biotecnology Information ( www. ncbi. nib. gov).

Ma tutti i ricercatori che studiano il genoma hanno bisogno di informazioni molto dettagliate sulle sequenze dei singoli geni e sul polimorfismo dei singoli nucleotidi per fare analisi comparative e correlare le strutture alle relative proteine che sono di fondamentale importanza anche per la produzione dei microarray. A ciò provvedono le banche dei geni.

Le banche dei geni

La disponibilità di data base è essenziale per allestire, eseguire ed interpretare le analisi con i microarray dei geni e del genoma. Infatti le sequenze dei database danno la possibilità ai ricercatori di disporre degli oligonucleotidi per la produzione dei microarray e per ottenere i primers che servono per le reazioni di amplificazione ( PCR ) , che, solo per il genoma umano, riguardano circa 30.000 geni che codificano oltre 100.000 proteine.

L'accesso elettronico alle sequenze permette anche di costruire e produrre quei microarray denominati giustamente " zoo chips " che servono a studiare l'evoluzione dei genomi di tutti gli esseri viventi e dei loro rapporti nella scala biologica.

Tutti i ricercatori che si occupano di geni dispongono, nel proprio laboratorio, di elenchi di sequenze strettamente correlati al tipo di lavoro svolto e quindi limitati.

Inoltre ci sono alcune compagnie private negli USA, quali la Celera Genomics ( Rockville, MD ) e la Incyte Genomics ( Palo Alto, CA ), che possiedono vastissimi database privati a cui si può accedere ma solo a pagamento.

Poi c'è un terzo livello di database biologici ed è quello reso disponibile da una serie di enti pubblici di cui riferiamo i più noti:

GenBank:

Comprende tutte le sequenze, otre 14.000.000.000, fornite dai laboratori USA, giapponesi ed europei che sono riportate e catalogate in base ai siti di interesse biologico e che comprendono oltre quelle umane anche quelle di altri gruppi di organismi quali topi, pesci, vermi, parassiti, batteri, virus ecc.

E' prodotto e distribuito dal National Center for Biotechnology Information ( NCBI, Bethesda ).

Tutti possono inviare nuove sequenze alla Gen Bank via Web utilizzando un formulario conosciuto come BankIt. Ogni nuova sequenza accettata riceve un numero che poi rimane come "numero di accesso". Tale numero di accesso può essere utilizzato poi sia per le pubblicazioni che per la produzione dei microarray dove serve ad identificare ogni elemento in mappe che ne possono contenere anche migliaia.

La NCBI è poi collegato al Protein Information Resource ( PIR ) di Washington ed è quindi in grado di fornire utili informazioni anche per l'allestimento ed utilizzo di microarray per le proteine che vanno rapidamente proliferando.

TIGR:

Prodotto dal Institute for Genomic Research di Rockville. E' una raccolta di sequenze di DNA, espressioni geniche, ruoli cellulari e dati tassonomici per microrganismi, piante e uomini. EMBL. Nucleotide Sequenze Database: E' il principale database europeo di sequenze nucleotidiche prodotto in collaborazione con NBCI degli USA ed il DDJB giapponese; è distribuito dall' European Bioinformatics Institute di Cambridge ( UK ).

SWISS-PROT

Contiene solo sequenze di proteine ed è distribuito, anche questo, dall’European Bioinformatics Institute di Cambridge (UK).

PROTEIN INFORMATION RESOURCE

E' un sistema di identificazione ed analisi “on line” delle sequenze proteiche prodotto dal National Biomedical Research Foundation di Washington.

REBASE

E' una raccolta completa di informazioni sulle endonucleasi di restrizione e sulle metilasi a loro associate, inclusi i siti di riconoscimento e di taglio, la disponibilità commerciale e le notizie bibliografiche.

Poi, ovviamente, c'è la posta elettronica, nota come e-mail, che permette di spedire ovunque con grande semplicità e rapidità, non solo messaggi ma anche grafici ed immagini colorate di ogni genere e misura e che quindi agevola gli scambi di informazione fra tutti gli interessati ad uno specifico argomento.

IL CALCOLO STATISTICO

L'analisi dei dati sperimentali ha, quasi all'improvviso, assunto un ruolo prominente su tutto ciò che riguarda la biosfera. Prima avevamo a che fare con un tipo di ricerca scientifica che metteva insieme un numero relativamente limitato di dati ma, negli ultimi anni, la biologia è esplosa ed è diventata una scienza che genera un' enorme quantità di dati.

Questa metamorfosi è stata attribuita in larga parte al raggiungimento di due obiettivi complementari:

Il primo è dato dal completamento del Progetto Genoma Umano, che ha generato una enorme quantità di informazioni riguardanti le sequenze del DNA e che, sommate a quelle di tante altre specie animali e vegetali, ha portato i biologi a doversi già confrontare con una massa dati enorme che tende ulteriormente ad ingigantirsi ancora ora che è diventato possibile valutare come e quando i vari geni funzionano.

Il secondo progresso operativo riguarda appunto il grande sviluppo che ha avuto, negli ultimi anni, la tecnologia dei microarray che da la possibilità agli scienziati di monitorare contemporaneamente il comportamento di molte migliaia di geni in un enorme numero di condizioni sperimentali. Inoltre c'è da calcolare anche le conseguenze che derivano dal fatto che la tecnologia dei microarray si sta dimostrando applicabile anche alle proteine, rendendo possibile monitorare contemporaneamente un numero infinito di condizioni sperimentali riguardanti le correlazioni più diverse fra le cellule di tutti gli esseri viventi, piccoli e grandi. Tutto ciò ha impresso una svolta radicale a tutta la biologia molecolare in quanto si è passati dall'era in cui i geni venivano studiati praticamente uno per volta o in piccoli gruppi con risultati piuttosto limitati, al periodo, l'attuale, in cui si può avere un quadro completo di tutte le funzioni geniche e delle interrelazioni di queste con tutti gli altri aspetti e manifestazioni della vita.

Nei precedenti capitoli abbiamo riferito come si preparano i microarray, come si legano i probes, come si eseguono le reazioni di ibridazione, o le reazioni immunitarie,se si tratta di proteine. La fase seguente. È quantificare l’immagine che si ottiene, che porta, se pure con un software dedicato, ad un risultato molto complesso che va ovviamente analizzato per arrivare ad un risultato accettabile. Il caso più caratteristico di utilizzazione di questa tecnica di analisi con i microarray riguarda la presenza ed i profili di attività di uno o più geni che porta a dover valutare in parallelo migliaia, in taluni casi decine di miglia di dati che vanno correttamente interpretati per capire se ci sono delle differenze di espressione fra i vari geni esaminati.

Infatti gli esperimenti con i microarray sono condotti in tale maniera che si possano prendere in esame simultaneamente i profili di comportamento di migliaia di sequenze di acidi nucleici e delle relative proteine.

Ma l'enorme massa di dati sperimentali che fuoriescono dagli scanner, e dagli altri tipi di strumenti per la lettura, sono dati bruti perché non sono altro che numeri corrispondenti all'intensità delle immagini, ovvero dei segnali emessi dai singoli spot. Bisogna quindi metterli insieme e cercare di interpretarli per arrivare a dare una risposta esatta e completa ai quesiti che ci interessano.

NORMALIZZAZIONE E TRASFORMAZIONE

Ed è qui che interviene l'analisi dei dati biologici e la loro interpretazione statistica che ne consegue, e che risultano essere due fasi importantissime che inevitabilmente devono seguire ed integrare la sperimentazione vera e propria.

Prima di cominciare ad analizzare i dati di un microarray riguardate un DNA, siccome non esiste un metodo statistico in grado di analizzare dati bruti, specialmente se molto complessi, bisogna capire se la distribuzione di tali dati è sufficientemente pulita e per capirlo bisogna cominciare con il porsi due domande:

1-Le variazioni che si apprezzano rappresentano variazioni effettive o sono contaminate da differenze che sono collegabili alla variabilità sperimentale?

2-Ai fini del metodo statistico che si deve utilizzare hanno i dati un andamento  approssimativamente accettabile?

Se le risposte a queste due premesse non sono positive, tutta l’analisi statistica ne può venire distorta e ne possono derivare risultati non validi. Fortunatamente sono disponibili una varietà di tecniche statistiche che vengono in aiuto che si basano sulla “ normalizzazione” e la “ trasformazione” dei dati: (Kalocsal e Shams  2001)

La normalizzazione è una speciale forma di standardizzazione che ci aiuta a separare le variazioni vere dalle differenze dovute alla variabilità sperimentale. Infatti è molto probabile che in un processo operativo così complesso, variazioni derivanti dall’evoluzione tecnica di qualcuna delle fasi contamini il risultato finale. Il tipo di vetrino, il metodo di spottaggio, la quantità di DNA, le caratteristiche del colore, il tipo di scanner le caratteristiche del software sono solo alcuni degli aspetti che vanno normalizzati al fine di rimuovere o almeno ridurre quelle differenze che potrebbero contaminare il risultato finale. Uno degli accorgimenti più utilizzati a tal fine è quello di spottare in parallelo per ogni campione il rispettivo controllo, utilizzando anche colori diversi.

Per quanto riguarda la trasformazione dei dati la procedura  più comunemente utilizzata è  è quella di utilizzare i logaritmi delle espressioni per equalizzare le oscillazioni sia verso l’alto che verso il basso.

Comunque rimandiamo per i dettagli ai testi specializzati

Sono operazioni molto complesse che ovviamente oggi si possono affrontare con l' ausilio di macchine automatiche dei computer e di particolari software. Esistono due tipi di programmi specializzati, che corrispondono alle due fasi dell'analisi. I programmi del tipo EDA ( Esploratory data analysis ) e quelli del tipo CDA (Confirmatory data analysis). Ne ricordiamo alcuni di quelli più usati:

  • DNAMR o DNA Microarray Routines sviluppato da Amaratunga e Cabrera.
  • MA-ANOVA elaborato dal gruppo di statistica genetica del Jackson Laboratory di Matlab.
  • DRAGON ( Database Referencing of Array Gene Online ) sviluppato da ricercatori della Johns Hopkins University.

Comunque questi programmi sono appena sufficienti per essere di ausilio ed integrarsi per la elaborazione dei dati di esperimenti piuttosto comuni. Per casi molto particolari bisogna disporre di programmi opportunamente dedicati che vanno specificamente elaborati, se si vogliono raggiungere risultati ottimali.

Per potersi orientare consigliamo di prendere visione dei suggerimenti riferiti nella esauriente monografia di Amaratunga e Cabrera ( 2004 ).


Torna all'indice

CAPITOLO CINQUE

PROTOCOLLI OPERATIVI

I biochip sono delle piccole piattaforme su cui sono allineate in modo ordinato delle macromolecole o porzioni di macromolecole per permettere di fare analisi in grado di fornire un gran numero di informazioni. Il principio su cui si basa la tecnologia è la possibilità di far interagire le macromolecole allineate sulla fase solida e le molecole presenti nel campione che interessa.

Esempi classici di tale tipo di reazione sono, per esempio, le interreazioni che si realizzano fra due porzioni complementari di catene singole di DNA, o quella fra la catena di DNA ed il rispettivo RNA da essa trascritto, o fra un antigene ed il rispettivo anticorpo.

Quindi il principio su cui si basa la tecnologia dei microarray è molto semplice ma, nello stesso tempo, di grande portata. perché. come vedremo, le possibilità di applicazione nello studio dei più importanti fenomeni della biosfera sono praticamente illimitati.

Per ogni caso particolare occorre mettere a punto il relativo protocollo che ne permetta la corretta applicazione. Una serie di esempi sono riportati nella interessante monografia di Rampal ( 2001 ).

Anche noi, a semplice titolo esemplificativo e dimostrativo, riportiamo i dati riportati sui foglietti che accompagnano alcuni prodotti.

 

LIFE LINE LAB

( Pomezia -Italia ). Vetrini e-Surf

Prima di iniziare qualsiasi esperimento con gli e-Surf si consiglia di leggere attentamente quanto segue:

Considerazioni generali

I vetrini e-Surf della Life Line Lab possono essere usati per immobilizzare in maniera covalente sia DNA amino modificati che proteine. Infatti sono ottenuti mediante adsorbimento su vetro di un polimero idrofilico contenente N.N acrilo-iloxi-succinimide ( NAS ), il gruppo reattivo che è capace di legare DNA amino modificato e, delle proteine, le amine primarie della lisina e dell' arginina. Essi hanno una elevata capacità di legame insieme ad un buon controllo dell'orientamento dei gruppi legati ed un rumore di fondo della fluorescenza molto basso.

Ambedue le superfici del vetrino sono attivate. Il legame alla superficie attivata si realizza a pH 8-9 in ambiente umido dopo il posizionamento dei probes. Vanno conservati a temperatura ambiente e in luogo asciutto perché temono l'umidità. I vetrini e-Surf sono compatibili con qualsiasi sistema che accetti vetrini che siano lunghezza mm 75, larghezza mm 25, spessore mm 1. Sono da preferire i target fluorescenti da leggere con uno scanner.

Stabilità

I vetrini e-Surf sono stabili per 10 mesi se conservati nella confezione originale contenente un sacchetto essiccante. Quando si apre la confezione, i vetrini che non vengono utilizzati, vanno riposti nella confezione originale che deve essere conservata perfettamente chiusa. E' consigliabile che il posizionamento dei probes sia attuato in ambiente la cui umidità non superi il 50%, meglio se sia anche al 30- 40 %. L'operazione va attuata immediatamente dopo il prelievo dalla confezione e, comunque, entro le 6 ore.

Posiziona mento e legame

Il tampone di posizionamento ( 150mM fosfato di sodio pH 8,5) è specificamente adatto per tali vetrini perché consente il massimo della capacità di legame delle amine alla superficie. Le concentrazioni di fosfato di sodio sono 50-150 mM. A pH 8-9. Se si aumenta la molarità di questo tampone, si riduce la grandezza degli spots.

Gli additivi quali DMSO, PEG, o glicerina, normalmente usati per prevenire il possibile rapido essiccamento degli spots, riducono la capacità di legame ed alterano la morfologia degli stessi spots. I vetrini e-Surf sono fatti in modo che non richiedono che lo spots debba restare solubile per realizzare una efficace immobilizzazione.

Non devono mai essere usati primers o tamponi che contengano amine.

Il legame del DNA amino modificato o delle proteine sulla superficie dei vetrini si realizza con una reazione termochimica. La soluzione satura di NaCl crea una umidità relativa del 75% che è sufficiente per far si che questa reazione proceda regolarmente. Qualora siano esposti ad una umidità relativa del 100%, gli spots tendono ad allargarsi e a distorcersi.

Amino modificazione

Gli oligonucleotidi devono essere sintetizzati con la modifica di un amina attaccata o in posizione 3' o in posizione 5'. I prodotti da PCR sono preparati già includendo un 5' amino primer nella reazione di amplificazione. I primers modificati in posizione 5' possono anche funzionare nella PCR ma la sintesi costa di più e quindi sono utilizzati meno.

 

Acidi nucleici

Materiali richiesti.

l. Per posizionare e legare probes di DNA

  • Tampone di legame 2x: fosfato di sodio 300 mM, pH 8,5.
  • Kit PCR per purificare o colonna per desalazione
  • Camera umida satura di NaCl. Può essere allestita facendo uso di un recipiente di plastica fornito di coperchio a tenuta d'aria. Va parzialmente riempito con una soluzione satura di NaCl, che deve formare un sedimento di 1 cm, e deve avere una umidità relativa del 75%.
  • Portavetrini.

 

2. Per la saturazione e l'ibridazione.

 

  • Soluzione di saturazione 2x: etanolamina 100 mM, Tris 0,2 M, pH 9.
  • Soluzione di lavaggio a seguito della saturazione: 4x SSC / SDS 0,1%.
  • Tamponi per ibridazione:
  • per gli oligo arrays: 2x SSC, 0,1% SDS , 0,2 mg/ml di albumina bovina.
  • per gli arrays realizzati con prodotti da PCR: formamide al 50 %, 5x SSC ,0,1 % SDS 0,3 mg/ ml di albumina bovina.
  • Soluzioni per i lavaggi dopo le ibridazioni:

4x SSC

2x SSC 10,1% SDS.

0,2x SSC

0,lx SSC.

  • Agitatore.
  • Microcentrifuga.
  • Centrifuga per micropiastre.
  • Piatto riscaldato.
  • Umidificatore o bagnomaria.
  • Camera d'ibridazione.
  • Vetrini coprioggetti.

Protocolli per l'immobilizzazione.

1) Preparazione di probes di amino DNA

a)                   Gli oligo 3' o 5' aminomodificati sintetizzati da clienti devono prima essere purificati con HPLC o FPLC. Usare le colonne di desalazione per eliminare gli aminocontaminanti tipo Tris o prodotti azotati che potrebbero interferire nel processo di immobilizzazione.

b)                  Gli aminoprodotti ottenuti da PCR, usando primers aminomodificati, e che devono essere complementari al target da catturare, devono essere purificati: eseguire una doppia precipitazione con etanolo o trattarli con il kit di purificazione per PCR. Usare il tampone fosfato 10 mM a pH 7- 8,5 per la eluizione finale. Diluire il tampone di legame 2x 1:30 con acqua distillata. Non usare Tris.

c)                  I DNA probes, dopo essere stati purificati, vanno conservati a -20°C.

2) Preparazione della soluzione per il legame del DNA:

a)       Preparare gli amino oligo desalinizzati alla concentrazione finale di 10-15 pmole/µl in tampone di legame 1x fosfato di sodio 150 mM pH 8,5 :

b)      Per i c DNA aminati (0,1- 1 kb) è raccomandata una concentrazione di 100-500 ng/µl di DNA in tampone di legame 1x.

3) Legare il DNA.

a)       Estrarre i vetrini che necessitano dalla confezione. Se ci sono altri vetrini da conservare lasciarli nell'involucro originale di alluminio insieme con l’essiccante.

b)      Depositare gli spots di DNA sui vetrini attivati per realizzare i microarray.

c)      Al termine della seduta di deposizione trasferire i vetrini in una scatola portavetrini senza coperchio e posta nella camera umida contenente la soluzione satura di NaCl; sigillare la camera umida con il coperchio ed incubare a temperatura ambiente fino al giorno seguente. La durata di tale incubazione può oscillare fra un minimo di 4 ed un massimo 72 ore.

d)      Conservare gli array a temperatura ambiente fino al momento dell'uso. Se devono essere conservati a lungo vanno riposti in una scatola che contenga un essiccante.

Protocollo di ibridazione

1) Manovre preliminari dopo aver attuato il legame degli spots:

a)       Inserire i vetrini nel portavetrini e bloccare i residui gruppi reattivi immergendoli nella soluzione di saturazione, preriscaldata a 50°C, lasciandoceli per 15 minuti, che possono diventare 30 se la soluzione non è stata preriscaldata. Comunque non andare mai oltre l'ora. Ricordarsi, comunque, prima del preriscaldamento, di aggiungere SDS alla soluzione di saturazione fino a raggiungere una concentrazione finale del 0,1 %. Usare almeno 10 ml per ogni vetrino.

b)      Scartare la soluzione di saturazione.

c)      Lavare i vetrini due volte con acqua bidistillata.

d)      Lavarli ancora con 4x SSC con SDS 0,1%, preriscaldata a 50°C, mettendoli per 15-60 minuti sull'agitatore. Usare almeno 10 ml per vetrino.

e)       Scartare la precedente soluzione e sciacquare brevemente con acqua bidistillata.

f)       Qualora si tratti di DNA arrays, mettere i vetrini a bollire per 2 minuti.

g)      Sia che si tratti di oligo che di DNA, lavarli due volte con acqua bidistillata.

h)      Mettere i vetrini nell'apposito supporto e centrifugarli a 800 r.p.m. per 3 minuti.

 

2) Ibridazione

a)       Preparare il c DNA o l'oligo target, purificato e coniugato, nel tampone d'ibridazione.

b)      Riscaldare il miscuglio target DNA a doppia elica da ibridare in bagno d'acqua bollente per due minuti. Se invece si tratta di oligo si può procedere come specificato al punto "d”

c)      Centrifugare per un minuto tale miscuglio al fine di raffreddarlo.

d)      Trasferire rapidamente il miscuglio target sul microarray già preparato. Aggiungere 2,5 µl per ogni cm2 del vetrino coprioggetto.

e)       Trasferire i vetrini nella camera d'ibridazione.

f)       Trasferire la camera d'ibridazione nell'incubatore saturo d'umidità o nel bagnomaria regolato a temperatura appropriata per 14-16 ore.

 

3) Lavaggio e lettura

Fare attenzione che i vetrini non si asciughino mai fino al momento della centrifugazione finale, procedere come segue:

a)       Rimuovere i vetrini dalla camera d'ibridazione e sciacquarli usando una bottiglia con schizzetto contenente una soluzione 4x SSC a temperatura ambiente dopo aver rimosso il vetrino coprioggetto.

b)      Procedere con gli ulteriori lavaggi che sono da eseguire tutti a temperatura ambiente:

a)       Due lavaggi con 2x SSC con 0,1% di SDS ognuno per 5 minuti e scartare la soluzione.

b)      Un lavaggio con 0,2 x SSC per 1 minuto e scartare la soluzione.

c)      Un lavaggio con 0,1x SSC per 1 minuto e scartare la soluzione.

d)      Centrifugare i vetrini al fine di asciugarli.

e)       Leggerli allo scanner solo quando sono perfettamente asciutti.

 

Proteine

Materiali richiesti

1. Per posizionare e legare le proteine

  • Tampone di legame: 0,1M fosfato di sodio, 0,3 M NaCl, 0,01% Triton X100, pH 7,2.
  • Camera di umidificazione satura di NaCl: In una vaschetta di plastica con il coperchio a tenuta immettere acqua e tanto NaCl da formare sul fondo uno strato di deposito alto almeno 1 cm. L'umidità relativa deve essere approssimativamente il 75%.
  • Il portavetrini.

2- Per la saturazione e lo sviluppo delle reazioni successive.

  • Tampone di saturazione: 50 mM di fosfato di sodio, albumina bovina al 2% finale, pH 7,2.
  • Tampone di reazione ( campione e coniugato ): 0,1 M Tris/ HCI pH 80; 0,1M NaCl, 0,02% finale di Tween 20, 1% finale di albumina bovina.
  • Soluzione di lavaggio 10x: 0,5M di Tris, 2,5 M NaCl, 0,5 % finale di Tween 20, pH 9.
  • PBS 1x
  • Agitatore
  • Microcentrifuga
  • Centrifuga con portamicropiastre.
  • Piano riscaldato.
  • Incubatore umidificato o contenitore umido sigillato posto a bagnomaria.
  • Contenitore di legame.
  • Vetrini coprioggetti.

Protocolli di immobilizzazione

1) Preparazione della soluzione di proteine da legare

  • Preparare gli anticorpi da legare alla concentrazione finale di 0,5-1 mg/ ml nel tampone adatto a tale scopo ( 0,1 M fosfato di sodio, 0,3 M NaCl, 0,01% Triton X100, pH 7,2 ).
  • La scelta della proteina ed il tampone ottimale possono variare da caso a caso e perciò devono essere determinati dall'utilizzatore.

2) Legare le proteine

  • Prelevare dalla confezione i vetrini che si pensa di utilizzare. Lasciare gli altri nella confezione originale ben chiusi con il sacchetto essiccante.
  • Depositare la soluzione di proteine sui vetrini attivati in modo da realizzare il microarray.
  • Al termine della seduta di deposizione trasferire i vetrini in una scatola portavetrini senza coperchio  posta nella camera umida contenente la soluzione satura di NaCl; sigillare la camera umida con il coperchio ed incubare a temperatura ambiente fino al giorno seguente. La durata di tale incubazione può oscillare fra un minimo di 2 ed un massimo 72 ore.
  • Conservare i microarray a temperatura ambiente fino al momento dell'uso. Se devono essere conservati a lungo vanno riposti in una scatola che contenga un essiccante.
  • 3) Trattamento dopo il legame
  • Inserire i vetrini nel portavetrini e, per bloccare i residui gruppi reattivi, immergerli nel tampone di saturazione 50 mM di fosfato di sodio, 2% finale di albumina bovina, pH 7,0. Usare almeno 10 ml per ogni vetrino.
  • Scartare la soluzione di saturazione dopo 1 ora.
  • Lavare i vetrini in immersione con PBS 1x, usando 10 ml per ogni vetrino. Lavarli ancora con acqua distillata con l'aiuto di una spruzzetta. Fare attenzione che i vetrini non si asciughino prima della centrifugazione.
  • Centrifugare i vetrini a 800 rpm per 3 minuti.

Protocolli per le reazioni.

1) Raccolta e preparazione dei campioni

  • I campioni che si presentano torbidi o evidenziano aggregati devono essere centrifugati 1000- 1200 g per 5-15 minuti prima di essere analizzati.
  • I campioni congelati devono essere scongelati a temperatura ambiente, mescolati bene e poi, se lo si ritiene necessario, centrifugati.

2) Procedura di esecuzione.

  • Se richiesto diluire il campione nel tampone di legame.
  • Posizionare i vetrini da usare su un vassoio portavetrini in modo che la superficie di reazione sia disposta orizzontalmente.
  • Deporre sul microarray 2,5µl di campione per ogni cm2 di vetrino coprioggetto che poi si utilizza per coprire.
  • Trasferire il vassoio portavetrini in un contenitore umido sigillato posto a bagnomaria a +37°C per un' ora.
  • Preparare la soluzione di lavaggio 1x diluendo 1:10 la soluzione concentrata. (0,5M di Tris, 2,5 M NaCl, 0,5 % finale di Tween 20, pH 9) e il coniugato (rapporto dye/proteina 1:1) ad una concentrazione finale di 10-50 µg/ml in tampone di reazione. Proteggere il contenitore della soluzione di coniugato diluito con carta di alluminio.
  • Con l’aiuto di una spruzzetta di acqua distillata rimuovere il vetrino coprioggetto. Trasferire i vetrini in un rack portavetrini e lavare i vetrini in immersione nella soluzione di lavaggio 1x per 5 minuti, meglio se con l'aiuto di un agitatore. Lavarli ancora con acqua distillata con l'aiuto di una spruzzetta.
  • Scolare i vetrini per rimuovere il liquido residuo senza però seccarli completamente e posizionare nuovamente i vetrini sul vassoio portavetrini in modo che la superficie di reazione sia disposta orizzontalmente verso l’operatore.
  • Deporre sul microarray 2,5µl di coniugato per ogni cm2 di vetrino coprioggetto che poi si utilizza per coprire.
  • Trasferire il vassoio portavetrini in un contenitore umido sigillato posto a bagnomaria a +37°C per un' ora.
  • Con l’aiuto di una spruzzetta di acqua distillata rimuovere il vetrino coprioggetto. Trasferire i vetrini in un rack portavetrini e lavare i vetrini in immersione in PBS 1x per 5 minuti, meglio se con l'aiuto di un agitatore. Lavarli ancora con acqua distillata con l'aiuto di una spruzzetta.
  • Centrifugare i vetrini a 800 rpm per 3 minuti.
  • Leggerli allo scanner solo quando si è assolutamente certi che siano perfettamente asciutti.

 

Appendice

 

Controllo di qualità

Ogni lotto di vetrini e-Surf attivati è controllato per valutare la riproducibilità a legare una quantità standard di oligonucleotide amino modificato ed ibridizzare una quantità standard di target coniugato con Cy 3.

La procedura della tecnica di ibridazione è la seguente:

Un 23 mer oligo amino modificato è posizionato sulla superficie del vetrino: La concentrazione deve essere 10 µM ed il tampone che si deve usare è il tampone fosfato 150 mM, pH 8,5. Quattro sub arrays di 3x3 spots sono preparati per controllare l'intera superficie del vetrino. Dopo una incubazione in atmosfera ad elevata umidità, che deve durare una notte, i gruppi residui vengono bloccati con etanolamina 50 mM e Tris 0,1 M pH 9 per 15 minuti. Per avere i vetrini pronti per la reazione di ibridazione, devono prima essere immersi per 15 minuti in 4 x SSC contenente 0,1% SDS riscaldata a 50°C e poi lavati con acqua distillata e seccati all'aria. Un oligonucleotide fluorescente complementare a quello immobilizzato diluito 1 µM in 2 x SSC, 0,1 % SDS e 0,2 mg % di albumina bovina va stratificato sul vetrino che poi va coperto con il vetrino coprioggetto. L'ibridazione ha luogo in ambiente umido a 65°C per due ore. Dopo si procede con i lavaggi che si attuano prima con 2 x SSC, 0,1 % SDS a 65°C, e poi con concentrazioni scalari di SDS a temperatura ambiente. Dopo i vetrini devono essere asciugati centrifugandoli e poi possono essere letti allo scanner. Il software dello strumento converte le immagini degli spots e la fluorescenza del rumore di fondo in numeri il cui rapporto rappresenta il risultato finale della reazione.

NOVAGEN

(Darmstadt -Germania)

Kit per le citochine

Il prodotto registrato con la denominazione Proteo Plex serve per titolare, fino a  15 campioni contemporaneamente di siero o di liquido di coltura, 12 fra le più importanti citochine note con le seguenti sigle:

IL 1 alfa, IL 1 beta, IL 2, IL4, IL 6, IL 7, IL l0, IL 12 P 70, GMCSF, IFN gamma, TNF alfa.

 

E' indicato per valutare il sistema immunitario e, più precisamente, la concentrazione delle varie citochine nel corso di manifestazioni infiammatorie come quelle che si hanno particolarmente per asma e artriti.

Il vetrino che si utilizza presenta 16 aree di reazione contenenti ciascuna 64 spots allestiti con anticorpi monoclonali da cattura verso le 12 citochine con 4 spots ripetuti in linea per ogni citochina. La confezione del Proteo Plex è completata dai vari diluenti, gli standard di controllo, gli anticorpi di valutazione ed il reattivo fluorescente.

Il tempo di reazione per la esecuzione delle determinazioni è di 4 ore.

Componenti del Kit

I componenti del kit per ogni singolo array sono i seguenti:

1 Array Proteo Plex per citochine umane completo di vetrino e supporto.

1 ml di diluente 10 x per i campioni.

0,3 ml Diluente 10 x dello standard, contenente siero.

12 ng dello Standard misto di citochine umane liofilizzato ( contiene 1 ng di ciascuna citochina ).

1 provetta con il cocktail di anticorpi di rèazione liofilizzati.

1,6 ml di diluente degli anticorpi di reazione.

1 provetta con il fluoroforo SensiLight PBXL -3 liofilizzato.

1,8 mI di diluente per il fluoroforo.

1 compressa per il tampone PBST.

1,5 ml 200 x per il lavaggio finale.

1 portavetrino per il lavaggio.

1 portavetrino per asciugarlo.

La compressa PBST e i portavetrini possono essere conservati a temperatura ambiente mentre tutti gli altri componenti devono essere portati a 4 C.

Attrezzature e reagenti addizionali

Campioni sperimentali sia di sieri che supernatanti di colture. Acqua distillata e deionizzata di recente preparazione Provette in polipropilene per microcentrifuga

Provette da 50 ml in polipropilene per centrifuga.

Bottiglie per i lavaggi.

Piattaforma ruotante in senso orbitale.

Foglio di alluminio.

Centrifuga con rotore per provette da 50 ml.

Lo scanner con software in grado da elaborare i dati di lettura.

Impostazione sperimentale

Il kit è utilizzabile per titolare le 12 citochine in campioni di siero o di supernatanti di colture cellulari. Altri campioni biologici quali plasma, estratti cellulari, liquidi cerebrospinali e liquidi sinoviali non sono stati mai titolati.

Lo standard di controllo fornito nel kit è una mescolanza delle 12 citochine, ciascuna alla concentrazione di 800 pg/ml che, come vedremo, è utilizzato per tracciare una curva basata su 5 diluizioni. Si potranno cosi tracciare, in base ai segnali, i tracciati delle singole citochine e, su queste, valutare le concentrazioni nei campioni in esame in base all' intensità della fluorescenza relativa.

Quindi delle 16 posizioni disponibili sul vetrino, 1 è utilizzata per il bianco, che permette di valutare il rumore di fondo, 5 per le diluizioni dello standard e le rimanenti 10 per i campioni da analizzare.

Raccomandazioni preliminari

Fare attenzione, durante l'esecuzione delle reazioni, che il vetrino non si asciughi mai completamente.

Il vetrino va toccato solo lungo i bordi e mai né con le dita né con le pipette o altro sia sulla superficie superiore che inferiore.

Usare sempre acqua distillata e deionizzata preparata di recente.

Alla fine delle reazioni i vetrini si possono conservare asciutti e al buio fino al momento della lettura.

Se per caso la lettura allo scanner non può essere eseguita entro alcune ore o pochi giorni, il vetrino va conservato in un contenitore asciutto riposto a 4°C ed al riparo dalla luce.

Fare attenzione, durante le varie operazioni ed i lavaggi che il liquido di un settore non debordi in un altro settore.

Qualora in un campione la concentrazione di una citochina ecceda i 2500 pg/ml, occorre ripetere la titolazione con il campione diluito 5-10 volte.

I reattivi liofilizzati, una volta messi in soluzione, è buona regola centrifugarli brevemente per evitare che togliendo il tappo, si perdano anche tracce del contenuto. Prima di usare sia i campioni che lo standard, invertire fra le dita più volte le provette per essere sicuri che siano ben mescolati.

Protocollo

L'esecuzione delle reazioni su vetrino con 16 aree di reazione la si può condurre operando come segue:

Preparazione delle soluzioni

Sciogliere le pastiglie del tampone PBST in un litro d'acqua deionizzata e riempire, con parte di questa soluzione, una bottiglia da lavaggio.

Immettere 1,6 ml di diluente per gli anticorpi nel flaconcino con tappo blu, che contiene il cocktail di anticorpi liofilizzati. Invertire più volte questo flaconcino per oltre 30 secondi. Conservarlo poi a 4°C fino al momento dell'uso.

Aggiungere 1,7 ml del diluente del reattivo fluorescente PBXL-3 al flaconcino con tappo rosso che contiene il fluoroforo liofilizzato. Invertire più volte tale flaconcino per oltre 30 secondi. Conservarlo poi a 4°C fino al momento dell'uso.

Sciogliere 1 ml della soluzione di lavaggio, che è 200x in 199 ml di acqua deionizzata.

Preparazione dello standard per la titolazione di supernatanti di colture cellulari.

Mescolare bene il diluente per il campione ( capsula verde ), che è 10x, invertendo più volte il flaconcino.

Preparare la soluzione pronta per l'uso 1x trasferendo 250 µl di tale diluente concentrato in 2,25 ml di acqua deionizzata.

Trasferire quindi 1,25 ml di tale diluente, alla diluizione d'uso 1x, con tappo bianco, contenente lo standard di citochine umane liofilizzate. Invertire il flaconcino più volte per oltre 30 secondi. Si ottiene cosi una soluzione in cui ognuna delle 12 citochine risulta essere alla concentrazione di 800 pg/ml.

Preparare una provettina con 250 µl di diluente del campione e aggiungere 250 µl della soluzione dello standard contenente 800 pg/ml, al fine di ottenere una diluizione 1 :2, che quindi contiene 400 pg/ml.

Preparare poi altre 3 provettine con 200 µl di diluente del campione e trasferire 100 µl del surriferito standard, contenente 400 pg/ml, mescolare bene e trasferire 100 µl nella provettina seguente, e poi ancora di seguito 100 fino all'ultima in modo da realizzare, ad ogni passaggio, una diluizione 1:3. Si avranno cosi 5 provettine contenenti le seguenti diluizioni dello standard: 800- 400- 133- 44- 15 pg/ml

Preparazione dello standard per la titolazione di campioni di siero.

Invertire più volte, al fine di mescolarlo bene, sia il diluente 10x per i campioni ( capsula verde) che il diluente 10x per lo standard del siero ( capsula nera ).

Preparare il diluente 1x del diluente a base di siero, mescolando 250µl del diluente 10x dei campioni, 250µl del diluente 10x per lo standard e 2 ml di acqua deionizzata.

Trasferire 1,25 ml di tale diluizione nel flacone dello standard citochine ( capsula bianca ) ed invertire più volte per almeno 30 secondi. Si ottiene così una diluizione dello standard contenente ciascuna delle 12 citochine alla concentrazione di 800 pg/ml. Procedere alla diluizione dello standard come già riferito per i supernatanti delle colture cellulari.

Preparazione dei campioni.

I campioni devono essere diluiti entro un'ora prima dell'uso.

Colture cellulari

I terreni di coltura raccolti devono essere prima centrifugati per eliminare cellule e detriti. Mettere da parte l'aliquota del supernatante che serve per la titolazione e congelare il resto a –20°C. Evitare di congelare e scongelare più volte.

Preparare 2 ml di una concentrazione 2x del diluente trasferendo 400 µl del diluente del campione 10x (capsula verde) in 1,6 ml di acqua deionizzata.

In provette separate, una per ogni campione, mescolare 50 µl del campione con 50 µl di diluente 2x.

Sieri

I campioni di sangue vanno raccolti in provette separatrici, fatti coagulare almeno 30 minuti e poi centrifugati 10 minuti a 1000 x g. I sieri supernatanti possono essere titolati subito o vanno conservati in congelatore a –20°C. Evitare congelamenti e scongelamenti ripetuti.

Preparare 2 ml di una diluizione 1,25 x del diluente del siero trasferendo 250 µl, del diluente 10 x (capsula verde) in 1,75 ml di acqua distillata e deionizzata.

In provette separate, una per ogni campione, mescolare 75 µl. di diluente 1,25 x con 25 µl di ciascun campione.

Esecuzione della reazione

Lavare 2 volte con PBS le aree di reazione del vetrino e far scolare bene ogni volta il liquido invertendo il vetrino e scuotendolo su una superficie assorbente.

Riempire la scheda operativa con i nomi e i numeri dei campioni nell'ordine che si desidera. Viene suggerito di usare la posizione da 1 a 10 per i campioni, la posizione 11 per il bianco e da 12 a 16 per le cinque diluizioni dello standard.

Distribuire 100 µl di ogni campione o delle diluizioni dello standard in ogni area di reazione secondo l'ordine surriferito.

Incubare un'ora a temperatura ambiente su un agitatore orbitante a bassa velocità.

Rimuovere i campioni e lo standard invertendo di colpo il vetrino su una superficie assorbente.

Lavare poi 4 volte con PBS ciascuna area di reazione ed ogni volta invertire di scatto il vetrino sulla superficie assorbente. Alla fine scuotere leggermente per eliminare le ultime tracce di liquido.

Invertire più volte il flacone con gli anticorpi di reazione per mescolare bene il contenuto e poi trasferire 80 µl di tale soluzione su ognuna delle 16 aree di reazione. Incubare di nuovo a temperatura ambiente su agitatore orbitante a bassa velocità. Rimuovere poi tale cocktail di anticorpi invertendo di scatto il vetrino su una superficie assorbente.

Lavare 4 volte ogni area con PBS procedendo come descritto sopra. Dopo l'ultimo lavaggio, però, non scuotere il vetrino per eliminare le ultime tracce di liquido, perché è bene che non si asciughi del tutto.

Invertire più volte il flacone contenente i fluoroforo PBXL.3. Poi trasferire 100 µl del contenuto su ognuna delle 16 aree di reazione.

Coprire immediatamente con un foglio di alluminio.

Incubare 1,5 h a temperatura ambiente sempre sull'agitatore orbitante a bassa velocità. Eliminare il fluoroforo invertendo il vetrino sulla superficie assorbente.

Lavare 4 volte con PBS e, di nuovo, dopo l'ultimo lavaggio, non eliminare le ultime tracce di tampone.

Estrarre il vetrino dal supporto in cui è bloccato per facilitarne l'uso, facendo attenzione a non toccare mai né la superficie superiore né quella inferiore.

Riempire il flacone di lavaggio ( capsula blu) con la soluzione di lavaggio ed immergerci il vetrino curando che sia tutto coperto dal liquido. Chiudere il flacone con la capsula ed invertirlo più volte per almeno 10 secondi.

Rimuovere la capsula, fare defluire fuori la soluzione di lavaggio e poi estrarre il vetrino sempre afferrandolo per i bordi.

Procedere immediatamente ad asciugare il vetrino per evitare che compaiano artefatti. Quindi piazzare subito il vetrino nel flacone che ne favorisce il corretto essiccamento (capsula rossa) e, senza rimettere la capsula, centrifugarlo cosi aperto per 1 minuto onde favorire il ricambio d'aria.

Lettura delle analisi

Procedere poi alla lettura con lo scanner appositamente regolato ( eccitazione 663 nm, emissione 600 nm, risoluzione 10 micron), usando l'Array Vision 8 e, come programma per l'analisi dei dati il Proteo Plex Analyzer Excel, che possono essere forniti dalla Novagen.

Dato che ognuno dei 16 campioni o lo standard sono riportati in 4 spots, lo scanner, utilizzando questi programmi, se c'è uno spot anomalo, nel senso che devia più di 4 volte dalla media, automaticamente lo esclude.

Il programma permette di fare automaticamente la media dell' intensità di segnale dei 4 spots ( o tre se uno è escluso) e la sottrazione del valore del rumore di fondo.

In condizioni di corretto funzionamento. il limite inferiore del segnale deve essere superiore di almeno 2,5 volte quello del rumore di fondo.

Lo scanner elaborerà le concentrazioni delle singole citochine nei 10 campioni in esame sulla base delle 12 curve degli standard tracciate in parallelo.


 

VBC GENOMICS

( Vienna -Austria )

. Immuno Solid phase Allergen Chip ( ISAC ).

 

Si tratta di un biochip per lo studio delle allergie.

Principi operativi

Gli allergeni sono immobilizzati sul substrato solido del microarray per essere incubati in presenza di sieri umani contenenti anticorpi del tipo IgE collegati al tipo di malattia. L'avvenuto legame con gli allergeni è poi evidenziato addizionando un secondo anticorpo anti IgE umane coniugato con una sostanza fluorescente.

Vantaggi

I vantaggi di tale metodo sono i seguenti:

  • Permette di eseguire in maniera simultanea l'analisi per un gran numero di allergeni.
  • Sono sufficienti 20 µl di siero.
  • Si arriva alla precisa identificazione della molecola che causa la malattia.

Componenti del kit ISA C

  • 5 vetrini ciascuno adatto per fare 4 reazioni.
  • Reagente A ( rosso).
  • Reagente B (blu).

Reattivi che sono forniti a parte:

  • Anticorpo anti IgE umane coniugato con fluoresceina ( giallo ).
  • Siero specifico per la calibrazione ( verde ).

Attrezzature necessarie

Possono essere fornite su richiesta:

  • La camera umida per incubare fino a 12 ISAC.
  • 2 vaschette in vetro per alloggiare in ciascuna fino a IO vetrini e con una capacità di 220 ml di liquido.

Altri materiali richiesti

  • Acqua bidistillata
  • Micropipette regolabili da 1 a 1000 µl con puntali intercambiabili. Agitatore magnetico ed i relativi magnetini.
  • 2 portavetrini
  • Vortex
  • Centrifuga da banco

Precauzioni d'uso.

Tutte le procedure devono essere eseguite solo da personale tecnico che abbia già accumulato esperienza di lavoro in laboratorio e che abbia qualche conoscenza teorica della diagnostica allergologica e dell'uso dei microarray. Inoltre rispettare le seguenti regole:

  • Proteggere mani ed occhi nel maneggiare sia i campioni che i reattivi ed operare con la dovuta accortezza perché potrebbero contenere la pericolosa azide sodica.
  • Maneggiare i reagenti seguendo sempre le istruzioni
  • I reagenti si devono utilizzare solo per diagnostica in vitro e non in terapia.
  • Non sostituire mai i reagenti con quelli di lotti diversi o aventi altra origine.
  • Non usare mai reagenti scaduti.
  • Gli anticorpi coniugati devono essere protetti dalla luce durante la conservazione.
  • Usare sempre acqua bidistillata per la preparazione dei reagenti.
  • Non usare mai pennarelli o marcatori solubili in acqua o nei solventi organici perché possono interferire con la fluorescenza. Se necessario usare solo pennarelli speciali non inibenti.
  • Non toccare mai le superfici di ISAC ma manovrare toccando solo i margini.
  • Non toccare mai con la punta della pipetta la superficie di ISAC mentre si distribuiscono i sieri.
  • Non riutilizzare un ISAC già in parte usato.

Istruzioni per la conservazione

  • Conservare ISAC a temperatura ambiente nella confezione originale. Se conservato essiccato ISAC è stabile almeno due mesi dopo l'apertura della confezione.
  • La data di scadenza è riportata su ciascuna confezione.
  • Gli anticorpi di reazione liofilizzati ed il componente B possono essere conservati a temperatura ambiente mentre il componente A va tenuto a 4°C.
  • Se così conservati il componente A è stabile 3 mesi ed il componente B 6 mesi.
  • Gli anticorpi di reazione, dopo essere stati messi in soluzione, sono stabili una settimana se conservati a 4°C.
  • Proteggere dalla luce gli anticorpi di reazione perché, altrimenti i colori fluorescenti si decompongono.
  • Conservare i campioni da titolare ed i sieri calibratori a –20°C.
  • Prima di iniziare una titolazione controllare che le attrezzature siano funzionanti e tutti i reagenti siano pronti per l'uso.

Preparazione della soluzione A

  • Preparare 700 ml di una soluzione fresca del componente A, diluendo 35 ml di tale componente con 665 ml di acqua distillata. Tale soluzione, conservata a 4°C, è stabile 4 settimane. Questo volume è sufficiente per eseguire 3 lavaggi con 220 ml.

Preparazione del campione e di sieri calibratori:

  • Rimuovere i campioni ed i sieri calibratori dal congelatore e metterli a scongelare in refrigeratore.
  • Trattarli brevemente con il vortex e poi centrifugarli per 10 secondi. Il volume dei sieri calibratori è sufficiente per 5 determinazioni. Fra una prova ed un'altra conservarli a 4°C.

Preparazione della soluzione di bloccaggio.

  • Per allestire tale preparazione, aggiungere 1,5 ml della soluzione A al componente B.
  • Incubare a temperatura ambiente per 60 minuti in lenta agitazione ( 600 rpm ).
  • Assicurarsi che sia ben disciolta. Deve avere un aspetto torbido.

Preparazione della soluzione degli anticorpi di reazione.

  • Immettere 1 ml della soluzione di bloccaggio nella fiala contenente gli anticorpi di reazione.
  • Incubare a temperatura ambiente per 15 minuti al buio ed in lenta agitazione (600 rpm ).
  • Assicurarsi che tale soluzione sia ben sciolta altrimenti prolungare il trattamento. Tale soluzione è sufficiente per 40 determinazioni e va conservata al buio. E' da usare nel tempo massimo di una settimana.

Preparazione della camera umida

  • Distendere un foglio di carta bibula sul fondo del recipiente e bagnarlo con acqua bidistillata.
  • Chiudere ermeticamente con il coperchio al fine di evitare l'evaporazione.

Preparazione di ISAC

  • Rimuovere il chip dalla confezione senza toccare le superfici di ISAC.
  • Introdurlo in un recipiente di vetro contenente 200 ml di soluzione A ed una barretta magnetica e porre il tutto su un agitatore magnetico regolato a 600 rpm per 60 minuti.
  • Trasferirlo in un altro recipiente di vetro contenente acqua bidistillata ed una barretta magnetica e mettere il tutto su un agitatore magnetico regolato a 600 rpm per 5 minuti.
  • Riprendere il chip e metterlo ad asciugare all'aria asciutta per almeno 15 minuti, fino a che non è completamente asciutto. Procedere nelle fasi successive appena pronto.

 

Incubazione con il siero umano

  • Immettere ISAC pronto per l'uso nella camera umida poggiandolo con la faccia con gli spots che guardi verso l'alto.
  • Pipettare 20 µl del siero calibratore sulla posizione 1 e lo stesso volume dei campioni sulle posizioni 2, 3 e 4. Chiudere il coperchio della camera umida, sempre operando in modo da evitare che i campioni dei sieri si mescolino.
  • Incubare 120 minuti a temperatura ambiente.
  • Estrarre ISAC dalla camera umida, operando sempre con attenzione per evitare che i sieri si mescolino, e trasferirlo in un contenitore riempito con acqua bidistillata per rimuovere i sieri.
  • Trasferire poi ISAC in un portavetrini e mettere poi il tutto in un recipiente contenente la soluzione A ed un magnetino piazzare poi sull'agitatore magnetico regolato a 600 rpm per 15 minuti.
  • Trasferire il portavetrini con ISAC in un altro recipiente in vetro contenete acqua bidistillata di recente produzione ed un' ancoretta magnetica. Mettere il tutto a lavare su un agitatore magnetico a lavare avviando il moto a 600 rpm per 5 minuti.
  • Trasferire poi il portavetrini con ISAC su un foglio di carta assorbente esposto all'aria secca e farlo asciugare completamente ( circa 15 minuti ).
  • ISAC è cosi pronto. Sistemarlo quindi sul fondo della camera umida, sempre con la faccia attiva che guardi verso l'alto.
  • Scartare tutte le soluzioni già usate per i lavaggi.

Incubazione con la soluzione degli anticorpi di reazione.

  • Pipettare 20 µl della soluzione degli anticorpi di reazione su ognuna delle aree dell'ISAC. Chiudere il coperchio della camera umida accuratamente.
  • Incubare 60 minuti a temperatura ambiente.
  • Rimuovere poi ISAC dalla camera umida e trasferirlo in un contenitore riempito con acqua bidistillata.
  • Mettere quindi ISAC nel portavetrini e in un contenitore in vetro contenente la soluzione A ed un' ancoretta magnetica. Porre il tutto su un agitatore magnetico a lavare avviando il moto a 600 rpm per 5 minuti.
  • Trasferire poi il portavetrini con ISAC in un recipiente con acqua bidistillata e ancoretta magnetica. Mettere poi il tutto sull'agitatore a lavare attivando il moto a 600 rpm per 5 minuti.
  • Piazzare poi ISAC così lavato su di un foglio di carta assorbente esponendolo all'aria secca ad asciugare. Attendere fino a che non sia completamente asciutto ( circa 15 minuti ).
  • ISAC è così pronto per essere letto allo scanner. Qualora non possa essere letto immediatamente, può essere conservato al buio, ma va comunque letto entro le 24 ore.

 

Lettura allo scanner

Raccomandano, per la lettura di ISAC, uno scanner laser confocale tipo lo Scan Array ( Perkin Elmer Life Science, Boston MA ) o tipo Affymetrix serie 428 ( Affymetryx" Santa Clara CA ) o tipo LS serie 400 ( Tecan Instruments, Salisburgo Austria)

Le caratteristiche più importanti che tale strumento dovrebbe avere sono:

  • Ottica: microscopio laser confocale.
  • Potere di risoluzione minimo: 10 micron
  • Portata lineare minima: 4 logs.
  • Capacità minima di percezione: 0.02 molecole fluorescenti per micron quadrato.
  • Formato d'immagine: TIFF
  • Apprezzamento del colore 16 bit
  • Regolamentazione del fuoco automatica o manuale.

 

Viene fatto notare che la lettura con la CCD camera è sconsigliato.

 

Considerazioni generali riguardanti la lettura:

Aggiustare il fuoco dello scanner seguendo le istruzioni del software in modo da ottenere immagini identiche in ogni area di lettura.

Selezionare opportunamente ciascuna area all'interno della maschera di teflon in modo da ridurre i tempi di lettura ed ottenere una buona immagine.

Scegliere la regolamentazione dello scanner che sia la più adatta alla lettura dell'ISAC.

Ciascun ISAC va letto due volte con due diverse regolamentazioni: L'immagine 11a si deve ottenere con lo scanner regolato a basso potenziale, ossia 5-10 volte più basso di quello dell'immagine 2, seguendo accuratamente le istruzioni.

Acquisizione dei dati

I risultati della lettura di ISAC sono elaborati dal computer che deve interpretare i valori della fluorescenza dei singoli spots dei diversi allergeni nelle rispettive posizioni. Le caratteristiche più importanti che deve avere il software di regolamentazione sono le seguenti.

Essere in grado di individuare il posizionamento di ogni singolo allergene.

Poter valutare la differenza fra fluorescenza specifica e rumore di fondo.

Essere in grado di identificare e valutare i vari parametri concernenti gli spots : Posizione, diametro, nominativo, valori di fluorescenza, rumore di fondo, ed eventuali artefatti.

Permettere di salvare e conservare tutti i dati.

Procedura di valutazione

Calcolare il fattore d'interpolazione fra due immagini come segue:

  • Per ciascuno spot, la cui immagine letta allo scanner regolato ad alto potenziale non appaia satura, calcolare il rapporto d'intensità della fluorescenza esistente fra le due immagini. Tale rapporto dovrebbe essere compreso fra 5 e 6.
  • Calcolare la media dei fattori d'interpolazione di tutti i singoli spots.
  • Per ciascuno spot la cui immagine letta allo scanner regolato ad alto potenziale appaia satura ( oltre 65.000 pixel ) sostituire tale valore di fluorescenza con quello ottenuto dall'immagine letta a basso potenziale moltiplicato per il fattore d'interpolazione.

Considerato che per ogni allergene o standard ci sono tre spots sono necessari ulteriori calcoli per avere i migliori dati possibili.

Procedura generale per calcolare la media dei valori delle letture in triplicato.

  • Eliminare gli spots i cui valori siano al disotto della soglia che avete fissato. Per determinare la soglia eseguire una serie di determinazioni di controlli negativi, utilizzando campioni di semplici tamponi invece che sieri e calcolare la media dei valori che si ottengono con i singoli allergeni. Incrementare tali valori del doppio della deviazione standard sulla media.
  • Non tener conto naturalmente degli spots che il software non riesce a leggere.
  • Calcolare le medie delle letture in triplicato operando come segue: Se il software riesce a leggere i valori delle tre repliche, la media di questi valori esprime il valore riguardante quello specifico allergene. Se ne riesce a leggere solo due, scartare il terzo che è al di sotto della soglia, e fare la media dei due leggibili. Se, invece, tutti e tre i valori sono al di sotto della soglia, considerare il dato come negativo.

Equiparazione dei dati ottenuti con ISAC e calcoli finali.

Con l'aiuto del siero calibratore, che può essere fornito separatamente, si può arrivare alla correlazione con i dati convenzionali del RAST. In base a questo calcolo matematico si riesce a calcolare il titolo delle IgE specifiche del singolo paziente.

Per normalizzare i valori ottenuti con la fluorescenza procedere come segue:

  • Insieme ai sieri dei pazienti bisogna sempre titolare in parallelo un siero calibratore
  • Tale siero calibratore deve contenere IgE specifiche per almeno 6 degli allergeni presenti in ISAC.
  • Il titolo di questi allergeni deve essere stato già determinato prima con metodi e strumenti tradizionali.
  • I valori di tali IgE specifiche devono essere distribuiti in tutto l'ambito delle classi RAST da 1 a 6, per ottenere una buona equiparazione dei valori.
  • Procedere facendo l'interpolazione lineare del log. Dei valori di lettura della fluorescenza ottenuti con il siero calibratore contro il log. Dei titoli noti delle IgE per i singoli allergeni. Calcolare quindi i parametri di regressione. quali inclinazione ed asse d'intercettazione, usando MS Excel. Il coefficiente di correlazione ( R2) ottenuto con questo metodo deve essere almeno 0,9.

La normalizzazione dei titoli delle IgE specifiche per tutti gli allergeni contenuti negli spots di ISAC, usando i surriferiti parametri può essere calcolato usando la seguente formula:

IgE titolo ( K UA/l )= inv log ( log FI x a + b )

  • FI è l'intensità della fluorescenza
  • a è l'inclinazione
  • b è l'asse d'intercettazione della curva di regressione
  • KUA/ l : chilo unità di allergene per litro
  • Inv log: inverso del logaritmo.

 

In base a tale calcolo i valori individuali di lettura di ISAC possono essere suddivisi nelle seguenti classi:

  • NEGATIVI ( 0 KUA/l ).
  • BASSI: corrispondenti a RAST 1-2 ( 0,35- 3,5 KUA/ l)
  • INTERMEDI: corrispondenti a RAST 3,5- 50 KUA/l.
  • ALTI: corrispondenti a valori superiori a 50 KUA/l.

Torna all'indice

CAPITOLO SEI

LE APPLICAZIONI DEI MICROARRAY

IL SEQUENZIAMENTO MEDIANTE IBRIDAZIONE

Premesso che la determinazione delle sequenze del DNA di un organismo vivente ci permette di classificarlo, di capire come si sia sviluppato, la sua fisiologia, la predisposizione alle malattie ecc., e dato che la determinazione delle sequenze si fa con la tecnica dell’ ibridazione, metodo che è stato brevettato nel 1987 da Drmanac e Crkveniakov, vale la pena di chiarire i principi operativi di tale tecnica e riferire qualche dato storico che ne è alla base.

Sappiamo che le molecole di DNA sono costituite da una doppia catena ravvolta a spirale e che ciascun componente è formato da una lunga serie di nucleotidi complementari. dato che l’accoppiamento delle due catene si realizza sempre con collegamenti esclusivi. Infatti l’adenina (A) si lega alla timina (T), e la guanina (G) si lega alla citosina (C).

Furono Doty e coll. (1960) ,che per primi descrissero che, pur essendo tali molecole piuttosto stabili, se si riesce a separare, per esempio con il calore, le due catene, queste poi raffreddandosi tendono a ricombinarsi  riformando gli stessi collegamenti esclusivi di partenza, ossia si accoppiano di nuovo, ibridandosi perfettamente. Da questa interessante dimostrazione sono poi derivate, negli anni seguenti tutte le varie tecniche di ibridazione che hanno permesso l’enorme sviluppo della biologia molecolare. Ricordiamo la separazione dei frammenti di DNA, con la gel elettroforesi al fine di individuare sequenze specifiche secondo la tecnica di Southern (1975),ed anche l’utilizzo di oligo sintetici per le ibridazioni, introdotti da Wallace e coll. (1979), a cui sono seguite tutte le varie tecniche di analisi genetica come quelle descritte da Bains e coll.(1988) e da Saiki e coll.(1989).

La tecnica di sequenziamento mediante ibridazione ,che si basa sulla specificità degli accoppiamenti fra le coppie di sequenze costituenti la struttura delle catene del DNA è diventato poi uno dei processi fondamentali, per lo studio delle basi chimiche della vita. I probes costituiti da migliaia di nucleotidi sintetici, la cui sequenza è nota, hanno permesso di riconoscere la successione delle sequenze complementari delle catene dei DNA target. Le procedure, realizzabili con i microarray, aggiungono l’ulteriore doppio vantaggio della miniaturizzazione e della possibilità di eseguire un elevato numero di sequenziamenti in parallelo.

LA MEDICINA MOLECOLARE

Il completamento delle sequenze del genoma umano costituisce la base di partenza di una nuova fase della Medicina mediante  le applicazioni della medicina molecolare. Ora sappiamo come i geni sono strutturati. Dobbiamo ora capire come funzionano, come interagiscono e come possono mutare nella trasmissione dai genitori ai figli e quando e perché tali mutazioni, che compaiono anche per effetto dell' ambiente, possano essere causa di malattie.

Molte analogie sono state evocate in questi ultimi anni per spiegare il funzionamento del genoma ma quella di Schena (2003) ci sembra molto appropriata:

Schena sostiene che l'insieme delle funzioni biologiche del corpo umano funzionino come un' orchestra sinfonica. Ogni gene è un' unica entità biochimica e, come ogni membro di un orchestra, produce un distinto suono musicale.

I circa 30.000 geni, che compongono il genoma umano, e che sono presenti in ogni nostra cellula, coordinano una serie complessa di istruzioni e di eventi. Per ogni attività, alcuni hanno la funzione di dirigere e coordinare il funzionamento di altri che operano in base alle istruzioni ricevute. Quindi esiste una certa gerarchia, ma tutti partecipano in maniera ordinata e coordinata, come in una sinfonia musicale.

Malgrado tutti gli esseri umani abbiano oltre il 99,9% di sequenze identiche del DNA, piccole e limitatissime differenze nel polimorfismo dei nucleotidi, possono avere una grande influenza nel determinare l'apparenza fisica del singolo individuo, grasso o magro, bruno o biondo, la suscettibilità alle malattie, la longevità, il modo di comportarsi ecc.,ossia il genotipo.

Schena, ritornando alla similitudine con la musica, dice che, pur essendo uguale lo spartito della quinta sinfonia di Beethoven, se la si ascolta alla " San Francisco Symphony " non sarà identica a quella eseguita alla" New York Philarmonic ". Questo spiega il fatto che l'influenza, giorno per giorno, dell'ambiente, dell'alimentazione, e di tutto il nostro modo di vivere, condizioni, per un buon 50%, quello che poi effettivamente siamo, ossia il fenotipo.

Quindi il preciso coordinamento di tutti i membri dell' orchestra e di tutti gli strumenti fa sì che si realizzi un' ottima esecuzione musicale. Mentre, invece, basta un piccolo errore di un esecutore che si produca una cacofonia. Allo stesso modo basta un piccolo errore durante la fase di divisione di una cellula che si creino le premesse per l'evidenziarsi di una malattia congenita oppure si determini la formazione di un tumore.

Allo stato dei fatti, tutte le cellule del corpo umano contengono l'identico genoma che è costituito da circa 3 miliardi di basi di DNA e 30.000 geni, ma non tutti i geni sono sempre attivi e funzionanti. Per esempio nelle cellule nervose e nelle cellule epiteliali ce ne sono operativi circa 5000 ma, ovviamente, non sono gli stessi perché l'espressione delle funzioni fra i due gruppi di cellule è completamente diversa, ed avviene in tempi diversi, secondo le esigenze che cambiano momento per momento.

La nostra salute dipende da come si combinano gli effetti derivanti dall' attività dei nostri geni con l'influenza dei fattori ambientali. Infatti due gemelli uniovulari hanno l'identico genoma ma, poi, in base al diverso stile di vita (fumo, dieta, condotta sessuale ecc.), l'uno può andare incontro a determinati episodi morbosi, come malattie infettive, disturbi coronarici, tumori e l'altro a sindromi completamente diverse.

Giorno per giorno l'influenza dell'ambiente, il nostro modo di vivere, di mangiare, di bere, di fare sport o meno, pur non alterando il nostro genoma, tranne casi particolari come le radiazioni ionizzanti, hanno un impatto positivo o negativo sul nostro organismo.

Le persone sane sono quelle in cui tutti i geni e tutti gli organi sono perfettamente funzionanti, mentre sono malate quelle in cui geni batterici o virali, o prodotti di questi geni o delle nostre stesse cellule, come i radicali liberi distruggono o danneggiano qualcuna delle nostre normali funzioni, in quanto determinano difetti del trasporto o dell'utilizzazione di alcuni metaboliti o comunque difetti nei segnali cellula-cellula o vere e proprie lesioni cellulari.

I difetti nei geni che sovraintendono al trasporto dei gas, degli ioni, e di qualsiasi altro materiale cellulare sono responsabili di un vasto gruppo di malattie dette appunto genetiche la cui sintomatologia, talvolta, è già evidente alla nascita, mentre, in altri casi, diviene sempre più evidente nel corso degli anni.

I microarray permettono di valutare in automazione la funzionalità parallela di un gran numero di sequenze del DNA e di svelare quindi le alterazioni legate a mutazioni e traslocazioni di cromosomi che, che sono la causa sia delle malattie congenite che dei tumori, o di individuare nelle cellule la presenza di acidi nucleici estranei come quelli di virus e parassiti infettanti.

GENETICA

La classificazione molecolare dei disordini genetici è schematizzabile come segue:

 

1-Malattie di cui sono noti sia il gene che la mutazione.

2- Malattie di cui è conosciuto il gene, ma non la mutazione

3- Malattie di cui non si conosce né il gene né la mutazione

4- Malattie causate da più di un gene ( poligeniche )

 

Nel corso degli ultimi anni sono state descritte circa 4000 malattie ereditarie la cui origine è dovuta alla presenza di alterazioni ( mutazioni) nella struttura primaria o sequenza di geni specifici che sono stati identificati solo in circa il 25% dei casi e, quindi, moltissimo c'è ancora da fare. Ne consegue che l'identificazione di tali mutazioni nei soggetti affetti costituisce un elemento decisivo per arrivare a formulare un' esatta diagnosi.

Ci sono malattie monogeniche che sono caratterizzate da alterazioni molto specifiche di un solo gene, e malattie multifattoriali in cui la situazione è molto più complessa per la presenza di diversi tipi di mutazioni.

Ci sono malattie ereditarie come la fibrosi cistica, le talassiemie, l' emofilia, la distrofia muscolare, la retinite pigmentosa, la ipercolesterolemia familiare, che sono già state collegate a ben precise alterazioni del genoma.

Per altre malattie molto comuni ad eziopatogenesi multifattoriale, come per esempio l'Alzheimer, l'arterosclerosi, il diabete, le coronaropatie, l'alcolismo si sta cercando di capire quanto incida la componente genetica.

Riportiamo qui di seguito una serie di esempi di malattie tipicamente genetiche ( Marin 1999 ) che possono ricevere un impulso all'approfondimento dalla tecnica dei microarray basata sui vari metodi di ibridazione:

 

Malattie genetiche del tipo dominante

Malattie genetiche del tipo recessivo

  1. Anemia a cellule falciformi
  1. Talassiemia
  1. Ipercolesterolemia familiare
  1. Fibrosi cistica
  1. Poliposi familiare del colon
  1. Deficit di alfa 1 antitripsina
  1. Distrofia miotonia
  1. Fenilchetonuria
  1. Osteogenesi imperfetta
  1. Deficit di 21 idrossialici
  1. Retinite pigmentosa
  1. Retinite pigmentosa
  1. Sindrome di Alport

 

  1. Distrofia muscolare

 

  1. Emofilia A e B

 

  1. Sindrome di Nesch-Nyhan

 

  1. Malattia granulomatosa cronica

 

  1. Ritardo mentale per X fragile

 

 

Un caso tipico di malattia monogenica è dato dall'anemia falciforme, malattia genetica causata da una sostituzione nucleotidica del gene della beta globina, noto come gene S localizzato nel cromosoma Il. La denominazione anemia falciforme definisce lo stato omozigote per il gene S. L 'HbS è caratterizzata dalla sostituzione dell'acido glutammico con una valina come sesto aminoacido della catena beta della globina, conseguente alla sostituzione dell'adenina con la timina a livello del DNA. Si tratta di una mutazione che non può rimanere silente perché in questo caso si ha nella molecola dell' emoglobina, la sostituzione di un aminoacido idrofilo con uno idrofobo, che quindi le fa cambiare la struttura terziaria.

La solubilità della emoglobina patologica, in forma ridotta, diminuisce fortemente, per cui si formano, all'interno del globulo rosso, dei precipitati fibrogelatinosi, denominati tattoidi e delle fibre rigide che determinano deformazione delle emazia. Queste assumono una forma a falce con conseguente aumento della loro rigidità, difficoltà di flusso, specialmente nei capillari, e conseguente formazione di microinfarti tessutali. Fra le localizzazioni microinfartuali più frequenti ricordiamo gli infarti polmonari che, se ripetuti, possono condurre ad ipertensione e morte. Si possono avere anche ripetuti infarti splenici che determinano inizialmente un ingrossamento della milza ma che possono condurre ad ipofunzione dell' organo fino ad una vera autosplenectomia.

Le cellule cosi deformate possono ritornare normali in condizioni di ottimale ossigenazione, ma episodi ripetuti di falcizzazione conducono ad una condizione irreversibile. In queste circostanze si ha frequentemente una distruzione prematura delle emazie e quindi l'iperemolisi contribuisce all'anemizzazione e alla comparsa di ittero che non è mai intenso.

Oggi si conoscono diverse centinaia di mutazioni che danno luogo ad alterazioni della emoglobina, Ne elenchiamo alcune:

  • Mutazione del promotore
  • Mutazione puntiforme dell' esone
  • Mutazione del sito di " splicing "
  • Mutazione " frameshift"
  • Mutazione non senso
  • Mutazione puntiforme dell' introne
  • Poliadenilazione

Da tutte queste forme di mutazioni derivano, naturalmente una vasta serie di malattie ereditarie abbastanza simili e sempre dovute ad un' alterazione del gene della globina:

  • Emoglobinopatie da emoglobine instabili
  • Emoglobinopatie con anomala affinità pèr l'ossigeno.
  • Metaemoglobinemia
  • Talassiemia di tipo alfa
  • Talassiemia di tipo beta
  • Talassiemia di tipo F ( da emoglobina fetale )
  • Metaemoglobinemia da deficienza della NADH- diaforasi

 

Questa grande variabilità e complessità dei quadri clinici potrà essere più agevolmente interpretata man mano che si diffonderà l'uso sistematico dei microarray a fini diagnostici.

Un altro caso tipico di malattia genetica è la fibrosi cistica del pancreas, che colpisce anche i polmoni e le ghiandole sudoripare è una delle più gravi malattie ereditarie ( autosomica recessiva) della nostra popolazione. Il gene della fibrosi cistica è stato identificato sul braccio lungo del cromosoma 7, è costituito da 27 esoni e codifica la proteina CFTR ( Cystic Fibrosis Trasmembrane Regulator). Questa proteina è costituita da 1480 aminoacidi. A tutt’oggi sono state identificate oltre 600 mutazioni di questo gene associate e questa malattia. La più frequente è situata nell' esone 10 ed è caratterizzata da una delezione di tre paia di basi che porta alla scomparsa di un aminoacido, la fenilchetonuria in posizione 508. Questa mutazione, denominata DF 508, è presente nel 80% dei casi dei pazienti affetti da fibrosi cistica di origine nord europea, ma solo nel 50 % circa dei pazienti italiani con ampia variabilità a seconda della loro regione di provenienza.. Altre mutazioni ( NI 303 K, G 542 X, 1717 IGA, R 1162X, W 1282X, T 338I), sono state identificate nel 20% circa dei pazienti, anche qui con una significativa variabilità in rapporto alla regione di origine.

L'alterazione della proteina e le manifestazioni cliniche che ne conseguono sono diverse secondo del tipo di mutazione e del sito in cui è avvenuta a livello dei diversi esoni ed introni del gene CFTR. Gli studi di correlazione genotipo- fenotipo hanno documentato che si possono distinguere casi con mutazioni presenti su ambedue gli alleli che sono associate ad insufficienza pancreatica ed ad un quadro clinico completo, mentre in altri casi, meno gravi, gli studi di correlazione fra genotipo e manifestazioni cliniche, non hanno portato ancora a risultati univoci.

Il meccanismo patogenetico che porta progressivamente al danno polmonare irreversibile può essere così sintetizzato: La mutazione genica determina alterazione del trasporto degli ioni cloro e sodio attraverso le membrane cellulari. Ne deriva iperviscosità delle secrezioni, alterata clearance mucociliare con ristagno del muco che determina lisi delle cellule ed aumentata suscettibilità alle infezioni, infiammazioni croniche, bronchiettasie e danno polmonare irreversibile con grave insufficienza respiratoria che può portare alla morte del paziente.

Meccanismi analoghi danno luogo alla compromissione di vari organi ed apparati. Quindi si tratta di una malattia multi organo con sintomatologia complessa ed esordio prevalente nell'età pediatrica.

Per quanto riguarda la diagnosi prenatale, che si effettua sul liquido amniotico o sui villi coriali prelevati intorno alla decima settimana di gestazione, e la determinazione dello stato di portatore, vengono ormai effettuati con l'analisi diretta della presenza della mutazione genetica nel DNA, mediante metodi basati sulla PCR.

MUTAZIONI DINAMICHE

Recentemente hanno ricevuto particolare attenzione quelle che sono state denominate mutazioni dinamiche da DNA instabile. Infatti è stato evidenziato che, in alcuni individui, alcuni loci del genoma hanno un numero variabile di dinucleotidi o trinucleotidi, che talvolta non sono ritrovabili nell’ambito di geni espressi, per cui sono stati denominati “markers” e che sono altamente polimorfi.

Alcuni di questi loci con trinucleotidi si ritrovano presso normali geni funzionanti e ne disturbano l’espressione causando malattie. Finora ne sono stati individuati 11, di cui 7 su autonomi e 4 sul cromosoma X.

Alcuni fenotipi affetti da distrofia  miotonica o da malattia di Huntington, se presentano tali mutazioni sul cromosoma X, trasmettono alle successive generazioni la malattia di cui sono affetti che, ad ogni generazione seguente, compare non solo più precocemente ma risulta progressivamente più grave.

E’ stato recentemente notato che anelli di basi azotate possono generare mutazioni spontanee. Infatti alcuni ricercatori guidati da Olga Amosova, mentre stavano analizzando un gene coinvolto nell’anemia falciforme, hanno notato che tende a rompersi sempre negli stessi punti, perdendo una base di guanina. Cercando di risolvere il problema, hanno scoperto che tale gene contiene una sequenza di 18 basi che quando i filamenti sono separati, li fa ripiegare su se stessi proprio in quel punto formando una struttura chiamata “ stem-loop “. Le prime e le ultime sette basi della sequenza si appaiono fra di loro a fomare lo stelo (stem) in cima al quale sporge un anello (loop), costituito dalle quattro basi centrali, una di timina e tre di guanina. E’ una di queste a staccarsi facilmente, causando a volte la rottura del filamento. Ciò rende il DNA più flessibile ma può anche causare mutazioni.

Tali ricercatori ritengono che sia una proprietà comune del DNA, perché nel genoma umano sequenze simili ricorrono oltre 50.000 volte. Queste sequenze potrebbero quindi causare malattie ma la loro diffusione fa pensare che la selezione naturale le abbia favorite perché vantaggiose.

GENI E SUSCETTIBILITA’

Alcuni geni alterati non possono essere considerati come direttamente causa di malattia, ma si è sempre più convinti che possano essere determinanti in alcuni individui che nella vita vanno incontro più o meno precocemente a malattie complesse. Ne riferiamo alcuni esmpi:

L’antigene B27 determina un aumento di rischio di 80-100 volte a sviluppare la spondilite anchilosante. L’antigene DR2 conferisce un aumento del rischio di 30-100 volte a sviluppare la narcolessia, di 3 volte a sviluppare il lupus eritematoso e di 4 volte la sclerosi multipla,

Inoltre si ritiene che nelle malattie cardiovascolari, che costituiscono la più comune causa di morte, possano essere dovute alla interazione di numerosi fattori tra cui giocano sempre un ruolo importante i componenti genetici. Purtroppo, però, il meccanismo biologico che ne è alla base, non è ancora del tutto chiarito. ( Haynes 2006 ).

Un altro importantissimo risvolto è quello  riguardante le malattie autoimmuni, che sono ancora uno dei capitoli più oscuri della medicina. E’ noto, infatti che alleli specifici sono associati ad una aumentata suscettibilità a malattie ereditarie come il diabete mellito insulino dipendente, l’atrite reumatoide, la malattia celiaca, la sclerosi multipla, il lupus ecc. che sono disordini, su base familiare, caratterizzati dal fatto che il sistema immunitario attacca se stesso e causa un alterato funzionamento dei singoli organi attaccati. E’ stato dimostrato, ad esempio, che il rischio di sviluppare diabete è maggiore nei soggetti con fenotipo HLA-DR3 oppure DR4.

Come abbiamo accennato ci sono poi alcune malattie gravi del sistema nervoso, che sono certamente su base familiare e che son conosciute come come malattie neuro degenerative. Ricordiamo la malattia di Parkinson, l’Alzheimer, l’epilessia, la malattia di Huntigton e la sclerosi amiotrofica laterale che son tutti quadri morbosi caratterizzati da perturbazioni di trasmissione del segnale elettrico che determinano disturbi della memoria, dei movimenti, della parola, della comprensione ecc.

Per quanto riguarda la malatti di Pakinson e l’Alzheimer, l’incidenza aumenta rapidamente con la vecchiaia ed ambedue le malattie sono caratterizzate da depositi di materiali estranei ed inclusioni in aree del cervello. In tutte queste malattie neurodegenerative sono già stati individuati uno o più geni certamente implicati e si cominciano a delineare i meccanismi biochimici, di conseguenza alterati.

In alcuni casi è sufficiente un'analisi di taglio del DNA amplificato con un enzima di restrizione che riconosce la mutazione. Ma sempre più utilizzati sono i metodi, come quelli realizzabili con i microarray, che consentono di analizzare contemporaneamente diverse mutazioni. Infatti, per riuscire a svelare il 90% dei portatori, è necessario prendere in esame decine di tipi di mutazioni di questo gene, anche perché, in alcuni casi, è possibile identificare anche più di 30 mutazioni contemporanee. Entrano quindi in gioco grandi numeri: basti pensare che per identificare un assetto a due componenti fra 600 variabili, richiede l'esame di 180.000 possibilità e a tre componenti il numero di possibilità arriva a 35.000.000. Ne derivano calcoli statistici abbastanza complessi per interpretare tutto quello che ne consegue, che rendono sempre più necessaria la collaborazione con esperti bioinformatici.

La complessità delle correlazioni fra genotipo e manifestazioni cliniche in molte malattie di origine genetica, come abbiamo cercato di sintetizzare con gli esempi dell' anemia a cellule falciformi e la fibrosi cistica ci fa capire l'importanza della tecnologia dei microarray. Infatti soltanto dall'accoppiamento di questa tecnologia con l'automazione sarà possibile realizzare i più completi screening di popolazioni e diagnosticare malattie non solo degli uomini ma anche degli animali e delle piante che hanno una sicura base genetica.

Un'altra applicazione importante nell'ambito della genetica umana della PCR associabile con i microarray è rappresentato dallo studio del sistema HLA ( sistema maggiore di istocompatibilità che ha reso possibili i trapianti d'organo) costituito da un insieme di geni localizzati sul braccio corto del cromosoma 6, unico per ciascun individuo. Grazie a queste tecnologie è possibile conoscere sempre in maniera più approfondita lo stato dei livelli di polimorfismo dell’ HLA che ha portato a scoprire numerosi nuovi alleli non identificabili con tecniche sierologiche e che sono certamente collegabili all' andare incontro, nel corso della vita, ad alcune malattie, per cui si parla di predisposizioni.

La combinazione delle due tecnologie, la PCR e l'indagine basata sui microarray, oltre a risultare utile per lo studio delle malattie autoimmuni e neurodegenerative, può facilitare la tipizzazione dei tessuti, su cui si basa la clinica dei trapianti. Infatti la tipizzazione degli alleli, presenti nei loci HLA- DR, DQ, e DP, si è dimostrata particolarmente importante per determinare le coppie compatibili donatore-ricevente sia per la scelta dei donatori di midollo osseo che di altri organi e tessuti.

Questi metodi offrono vantaggi rispetto alla tipizzazione sierologia e cellulare fornendo una risoluzione maggiore.

Premesso, quindi, che con i microarray si ampia moltissimo la possibilità di capire la predisposizione alle più gravi malattie, riteniamo giusto segnalare un altro evento degno di nota: già nel 2001, nella sala parto del Reproductive Genetics Institute di Chicago, è nato un bambino il cui embrione era stato selezionato geneticamente per non recare i segni di una sgradita eredità paterna, la sindrome di Li- Fraumeni. Infatti tale malattia è caratterizzata da una mutazione della proteina p53 che dà origine a tumori multipli nel 50% dei malati già prima dei 30 anni e si arriva al 90% dopo i 60.

Tale vicenda fu salutata negli USA come l'inizio ufficiale dell'epoca dei" designer babies "ed ha sancito anche il raggiungimento di un altro traguardo scientifico più volte annunciato: l'ingresso a pieno titolo della genetica nella lotta ai tumori a cominciare da prima della nascita.

MICROBIOLOGIA

La diagnosi della eziologia specifica di una malattia dovuta ad agenti patogeni penetrati dall' esterno quali virus, batteri, funghi e protozoi si è finora basata sui seguenti metodi diagnostici:

1)      Identificazione morfologica dell' agente patogeno isolato.

2)      Identificazione dei prodotti del patogeno.

3)      Identificazione degli anticorpi verso l'agente patogeno in causa.

Questi metodi hanno certamente offerto preziose possibilità diagnostiche ma hanno tutti una serie di limiti inerenti al loro impiego.

L'esame microscopico diretto, non è sempre applicabile e, poi, ha scarsa sensibilità e specificità. La coltivazione dell'agente patogeno in causa, mediante isolamento dal campione, in taluni casi non è neppure tentato, perché alcuni agenti patogeni, come i micobatteri della tubercolosi, crescono molto lentamente ed altri presentano notevoli difficoltà. Finora, infatti, non si è ancora riusciti a coltivare in vitro alcuni virus molto importanti come i rotavirus, il virus della epatite C, il virus di Epstein-Barr.

In altri casi la contemporanea presenza nel campione di antibiotici, assunti dal paziente, crea un ostacolo all'isolamento o rende difficile il poter discriminare fra ceppi virulenti e non virulenti.

D'altro canto, l'identificazione con metodi sierologici, basati sulla valutazione del titolo anticorpale specifico ha anche alcune limitazioni:

1)      Alcuni agenti patogeni non sono sufficientemente immunogeni

2)      Non è sempre facile distinguere fra infezioni pregresse ed attuali.

3)      Non sempre c'è corrispondenza fra la fase d'infezione attiva e la risposta anticorpale (fase finestra).

4)      In taluni casi il metodo non è in grado di identificare le diverse varianti.

 

Per fare diagnosi più precise si è cercato quindi di approfondire la struttura e la composizione degli acidi nucleici dei diversi organismi patogeni. Infatti nel genoma di ogni organismo esistono sequenze nucleotidiche specifiche che permettono di realizzare sempre la identificazione in modo univoco con la tecnica di ibridazione.

In alcuni casi, ma non sempre, utilizzando gli anticorpi monoclonali, è possibile anche con metodi immunologici a cattura, individuare nei campioni agenti patogeni e distinguere fra diverse varianti.

Ma certamente la tecnica di ibridazione degli acidi nucleici si è dimostrata non solo complementare all'approccio immunologico o colturale, ma sempre più spesso l'unica in grado di dare risposte sicure e complete. Essa permette, infatti, di identificare direttamente la presenza del genoma ( DNA o RNA ) in un campione biologico in modo assolutamente specifico, discriminando anche differenze non riconoscibili con gli anticorpi. Inoltre grazie alla PCR è stato possibile raggiungere livelli di sensibilità estremamente elevati. Poi la possibilità di amplificare un acido nucleico presente in un campione biologico grezzo, ha permesso di risolvere agevolmente molti problemi diagnostici. Infatti, nel giro di pochi anni, sono stati resi disponibili un numero notevole di sonde e kit pronti per l'uso per evidenziare gli agenti patogeni che sono causa di varie malattie infettive. Quindi in un numero sempre maggiore di casi la PCR ha trovato la sua applicazione elettiva, rispetto ai metodi diagnostici tradizionali.

Comunque in alcuni casi si va facendo strada la utilizzazione dei microarray per la valutazione del campione amplificato o meno:

Quando sia necessario o utile discriminare ceppi o varianti.

Quando sia necessario intervenire tempestivamente con una terapia adeguata.

Nella sorveglianza di infezioni endemiche e a seguito dell'improvviso scoppio di epidemie.

INFEZIONI BATTERICHE

L'isolamento in coltura è ancora oggi considerato essere il metodo diagnostico più utilizzato per il maggior numero di infezioni batteriche. Comunque, per una serie di ragioni, si vanno facendo strada anche metodi diagnostici basati su tecniche di ibridazione o che utilizzano anticorpi monoclonali, quando si ha a che fare con agenti patogeni a lento sviluppo o pericolosi da coltivare.

Elenchiamo alcuni esempi di tali batteri correlati a diversi tipi di infezione:

 

Apparato genitale            Chlamydia trachomatis

Neisseria gonorrhoeae

Treponema pallidum

 

Apparato respiratorio      Mycobacterium tubercolosis

Mycobacterium avium

Bordetella pertussis

Legionella pneumophila

Mycoplasma pneumoniae

 

Apparato nervoso           Neisseria meningitidis

Haemophilus influenzae

 

Apparato intestinale         Salmonella typhi

Shigella dysenteriae

Helicobacter pilori

Clostridium difficile

 

Multisistemiche Borrelia burgdoferi

Mycobacterium leprae

Enterotoxic E. coli

 

Molti microbiologi sono impegnati per capire come i batteri riescano a sviluppare abbastanza rapidamente la resistenza agli antibiotici. Resistenza significa che microrganismi, che in origine venivano uccisi da un certo farmaco, improvvisamente riescono a svilupparsi in sua presenza. Si è visto che la resistenza compare quando avvengono delle mutazioni nel cromosoma batterico o nei plasmidi che sono dei supplementi genetici al genoma, perché contengono anche loro molecole addizionali di DNA. In genere le mutazioni genetiche sono, in risposta ad uno stress esterno, il risultato di errori avvenuti quando la cellula batterica si riproduce. Spesso le mutazioni danneggiano le cellule che perciò si sono evolute in modo da commeterne il meno possibile. Inoltre le cellule sono dotate di propri sistemi di riparazione per assicurare che il DNA venga copiato con un numero minimo di errori.

Si è visto anche che la resistenza tende a diffondersi rapidamente nella popolazione batterica perché i batteri possono scambiarsi i geni tramite un processo noto come trasferimento genico orizzontale. Inoltre questi geni con mutazioni possono accumularsi nelle singole cellule, dando come risultato batteri multiresistenti ossia resistenti a diversi tipi di antibiotici.

L'approccio genotipico allo studio della resistenza batterica agli antibiotici permette di esplorare il genoma batterico direttamente nei campioni clinici e di offrire il risultato in tempi brevi. Si tende ad identificare il microrganismo paziente specifico allo scopo di selezionare la terapia in modo particolare per quegli agenti patogeni per i quali è noto che i diversi sottotipi sono associati a quadri clinici differenti. Tale metodo è stato già applicato per i sottotipi di Clostridium difficile, Listeria monocytogenes e Campylobacter jejuni e tende ad estendersi. Questo approccio metodo logico si è dimostrato importante anche per le ricerche epidemiologiche permettendo lo studio approfondito di campioni provenienti da differenti aree geografiche.

Anche per i micobatteri le tecniche tradizionali per la diagnosi di infezione hanno sempre sofferto di notevoli limitazioni. Infatti l'esame microscopico diretto è un metodo rapido ma è aspecifico e poco sensibile mentre l'isolamento colturale richiede alcune settimane.

Invece con la diagnostica molecolare sono state individuate alcune sequenze che permettono di differenziare il M. tuberculosis, patogeno per l'uomo, dai M. avium, M. intracellulare e da tutti gli altri micobatteri atipici.

INFEZIONI VIRALI

Ci sono alcune infezioni virali, come quelle da HIV 1 oppure le infezioni da papillomavirus che, per la loro complessità, possono essere meglio approfondite con questa tecnica che permette la valutazione in parallelo di molte varianti, sia per quanto riguarda la diagnosi che la terapia.

In tali situazioni cliniche si presenta la necessità di disporre di test per la rilevazione diretta del virus o dei componenti virati dato che la tecnica per l'isolamento virale, oltre ad essere lunga e difficile, presenta diversi ostacoli per la messa a punto con modalità standardizzate.

Per quanto riguarda le infezioni da HIV 1, l'identificazione di mutanti resistenti al trattamento terapeutico, ha reso necessario utilizzare batterie di sonde complementari alle regioni genomiche contenenti mutazioni che possono conferire al virus la resistenza a determinati farmaci. Quindi solo un indagine a tappeto e molto ampia può fornire al clinico tutte le informazioni necessarie per poter fare una scelta mirata della terapia per il singolo caso. Quindi la utilizzazione dei microarray può risultare di grande utilità per raggiungere lo scopo.

Per i papillomavirus, che non sono coltivabili in sistemi cellulari convenzionali, l'unico metodo per la loro identificazione è la ricerca del DNA. Infatti la prima diagnosi di infezione si fa in base al rilievo della presenza, sulla mucosa della cervice uterina, di particolari cellule, dette coilociti, conseguenti all'effetto citopatico virale. Ma l'infezione della mucosa da parte di ceppi diversi determina lesioni molto diverse dal punto di vista clinico patologico, che vanno dal semplice condiloma, che è una lesione scevra di ogni significativo rischio di trasformazione neoplastica, fino ad alterazioni neoplastiche intraepiteliali di diversa gravità che tendono a trasformarsi in carcinomi infiltranti, che sono causate prevalentemente solo dai sottotipi 16 e 18. Pertanto le tecniche di ibridazione su gel di poliacrilamide, attuate dopo l'elettroforesi del campione o la colorazione rapida con l'argento, raggiungendo alti livelli di sensibilità, hanno avuto un grande successo. Ma oggi con i microarray, che impiegano segnali di fluorescenza o chemiluminescenza, e che sono letti in automazione, diventa più facile identificare tempestivamente i sottotipi, e, quindi essere molto più precisi ai fini della terapia o della profilassi con vaccini da adottare caso per caso.

Un caso particolare che si presenta abbastanza spesso è quello dell'influenza. Infatti in alcune aree dell' Asia, dove uomini ed animali vivono molto a contatto, in maniera promiscua, si verifica il salto di specie dai polli e i maiali con la improvvisa comparsa di nuovi ibridi, che risultano più virulenti dei ceppi normalmente circolanti nella popolazione umana e che devono essere rapidamente individuati e geneticamente studiati per permettere la tempestiva produzione di centinaia di milioni di dosi di vaccino nel più breve tempo possibile.

EZIOPATOGENESI DEI TUMORI

Sappiamo che i geni, che costituiscono i centri attivi dei nostri cromosomi, sono circa 30.000 e controllano tutte le proprietà strutturali delle cellule. Sono formati, ciascuno, da circa 10.000 molecole di DNA Sappiamo anche che il DNA è costituito dall'unione di molecole più piccole chiamate nucleotidi che sono, a loro volta formati da una delle quattro basi, A, G, C, T, ovvero adenina, guanina, citosina e timina, da una molecola di zucchero e da un gruppo fosfato. Ogni cellula del nostro corpo contiene circa 6,5 miliardi di nucleotidi.

E' proprio la sequenza dei nucleotidi che determina le potenzialità codificanti del DNA. Pertanto questa precisa sequenza, perché tutto proceda regolarmente, non solo deve essere perfettamente conservata, ma anche deve essere esattamente copiata e trasmessa alle cellule figlie tutte le volte che la cellula si divida.

Purtroppo, però, la vita è espressione di un continuo movimento e di un continuo scambio di rapporti e di cambiamenti che possono influire sulla struttura del DNA. Infatti il DNA subisce l'azione sia di una serie di agenti fisico-chimici, presenti nell'ambiente, che di prodotti del normale metabolismo cellulare, primi fra tutti i radicali liberi, che possono indurre una varietà di lesioni o mutazioni. Quindi il DNA può essere danneggiato e le conseguenze sarebbero molto gravi perché, se non esistessero meccanismi di riequilibrio naturale automatico, ne deriverebbero sempre, come immediata conseguenza, gravi malattie degenerative o i tumori. Fortunatamente la cellula possiede vari sistemi di sorveglianza, denominati appunto check-point, in grado di controbilanciare il potenziale mutageno e citotossico di tali lesioni, attivando la funzione di molecole in grado di riparare tempestivamente questi danni. Sono quindi meccanismi molecolari, geneticamente controllati, che sorvegliano la progressione del ciclo cellulare in condizioni sia fisiologiche che patologiche.

La scelta di utilizzare uno o l'altro dei diversi sistemi di riparazione è influenzata non solo dal tipo di danno, ma anche dalla fase del ciclo cellulare.

Ne deriva, perciò, che il cattivo funzionamento di tali meccanismi di sorveglianza provoca un aumento del numero delle mutazioni e, quindi, alterazioni dei cromosomi che sono alla base della cancerogenesi. Infatti ci sono geni che regolano i meccanismi di controllo della proliferazione cellulare ed il loro mal funzionamento, dovuto a mutazioni, può far si che la cellula, una volta sprogrammata, si divida in modo incontrollato. La successiva selezione di cellule capaci di una rapida proliferazione, e, magari, anche di un'aumentata capacità di invadere i tessuti circostanti, può portare alla formazione di cellule tumorali dotate anche di proprietà metastatizzanti .

Il sistema di riparazione più caratterizzato prende il nome di NER ( Nucleotide Excision Repair ). Tale sistema è efficace in un ampia varietà di lesioni che provocano una distorsione della doppia elica del DNA e che sono causate da agenti chimici e fisici. Mutazioni dei geni umani codificanti le proteine del NER sono associati ad almeno tre malattie genetiche note come lo xeroderma pigmentoso, la sindrome di Cockayne e la tricodistrofia. Tutte e tre queste malattie hanno in comune una estrema sensibilità dei pazienti alla luce solare. Gli individui affetti da xeroderma pigmentoso sviluppano tumori della pelle con un incidenza oltre 1000 volte superiore a quella dei soggetti normali, mentre gli individui affetti sia dalla sindrome di Cockayne sia da tricodistrofia, presentano gravi segni di invecchiamento precoce.

Altri sistemi di riparazione noti, il cui funzionamento è abbastanza complesso, e che richiedono sempre il coinvolgimento sia di proteine specifiche sia di altre proteine normalmente coinvolte nei meccanismi di replicazione del DNA, sono identificabili con le sigle MMR ( Mis Match Repair ), HR ( Homologous Recombination ) ed NHEJ ( Non Homologous End Joining ).

L'attivazione del ceckpoint da danno del DNA, provoca una serie di risposte complesse che non riguardano solo la progressione del ciclo cellulare, ma anche una rete di interconnessioni tra diversi aspetti del metabolismo del DNA e l'eventuale attivazione di un meccanismo di sorveglianza estremo noto come morte cellulare programmata o apoptosi. La perfezione dei meccanismi naturali fa si che, qualora la quantità dei danni al DNA sia tale da essere considerata non più riparabile, la cellula preferisce " suicidarsi ", piuttosto che correre il rischio di trasmettere alle generazioni successive informazioni genetiche aberranti.

Quindi un aumento dell’instabilità genomica attiva sempre una serie di meccanismi di controllo e di selezione che possono arrivare ad arginare il fenomeno. Qualora l'insieme delle barriere selettive risulti insufficiente compare la proliferazione incontrollata e quindi il tumore. Quando però tale aumento sia non solo incontrollabile ma, addirittura, eccessivo nelle cellule si avvia il processo di morte programmata.

Le attuali conoscenze fanno ritenere che le alterazioni genetiche, che modificano la struttura e la funzione di alcune proteine cellulari, siano implicate nella patogenesi e nella progressione di numerosi tumori umani. Le mutazioni possono essere germinali, e quindi presenti in tutte le cellule del paziente, oppure somatiche e quindi riscontrabili solo nel DNA delle cellule trasformate.

La trasformazione si realizza tutte le volte che si concretizzi un cambiamento nella morfologia, nella biochimica o nei parametri di crescita delle cellule. La cellula trasformata è una cellula fenotipicamente alterata, ma non è detto che sia sempre l'inizio della formazione di un tumore. L'oncogenesi è un processo multifasico, complesso di cui la trasformazione può essere solo la prima fase.

L'introduzione di tecniche di biologia molecolare in oncologia ha permesso di identificare e caratterizzare alcuni elementi genetici come gli oncogeni, i geni oncosoppressori, i fattori di crescita ecc. a cui è riconosciuto un ruolo importante nella genesi e nella evoluzione delle malattie neoplastiche.

L'individuazione e lo studio, mediante tali tecniche di biologia molecolare, degli elementi genetici coinvolti in diversi tipi di tumori ha permesso di perfezionare alcuni parametri diagnostici e classificativi e migliorare l'interpretazione prognostica, che, ovviamente, è molto diversa a secondo del paziente.

Le principali applicazioni nella diagnostica oncologica sono:

Lo studio della suscettibilità ai vari tipi di tumori.

La possibilità di eseguire il "ritratto genico" che significa poter identificare anche limitatissimi cambiamenti strutturali nei geni al fine di predire l'aggressività del tumore.

Il poter individuare una terapia mirata.

La capacità di individuare anche minimi residui di malattia dopo un trattamento.

GLI ONCOGENI

Gli oncogeni sono dei geni regolatori, individuati in tutte le cellule, che, per mezzo delle proteine che codificano, regolano, con meccanismi diversi, la crescita delle cellule. Alcuni di essi hanno una struttura nucleotidica parzialmente simile a quella di alcuni virus oncogeni. Pertanto da soli o in compartecipazione con altri o, in maniera complementare rispetto ad altri fattori causali, possono indurre fenomeni di trasformazione cellulare.

L'accoppiamento della PCR e dei microarray permette di individuare agevolmente l'insieme e la frequenza di mutazioni dei geni in vari tipi di tumori. Ne riferiamo alcuni esempi fra i primi individuati ( Marin 1999 ):

 

Oncogene

Tipo di mutazione

Tumore

Famiglia ras

Mutazioni puntiforn1i (codoni 12,13,61 )

Adenocarcinoma

( pancreas, colon, polmone)

BCR/ abl

Traslocazione ( 9, 22 )

Leucemia mieloide cronica

bcl-2

Traslocazione ( 14, 16 )

Linfoma follicolare

Famiglia myc

Traslocazioni

Linfoma di Burkitt

p53

Mutazioni puntiformi Riarrangiamenti

Carcinomi di colon, polmone, mammella, fegato, esofago.

 

 

Tale elenco, negli ultimi anni, ovviamente, si è notevolmente ampliato. Le alterazioni molecolari a carico di questi oncogeni possono avere un importante valore sia diagnostico che prognostico, quando individuate in fase precoce della malattia ed anche essere utilizzate, in alcune situazioni, come marcatore espressione di malattia residua.

I GENI ONCOSOPPRESSORI

I geni oncosoppressori rappresentano un' altra importante categoria di geni associati ai tumori. Infatti le proteine codificate da questi geni sembrano avere un ruolo nel controllo della proliferazione cellulare. Le mutazioni di questi geni, generalmente di tipo recessivo, determinano la perdita o comunque l'inibizione dell'attività genica corrispondente e possono quindi portare alla comparsa di un tumore fenotipico.

E' molto vasta la letteratura che attribuisce alla proteina p53 un ruolo molto importante nella regolazione della replicazione cellulare perché la mutazione anche di un solo allele del suo gene è sufficiente per determinare una grave perturbazione della sua normale funzione. In decine di tumori umani del colon, polmone, esofago e mammella sono state identificate mutazioni di questo gene.

La mutazione del gene p53, o di altri geni oncosoppressori, possono essere utilizzate come marcatori precoci di malattia neoplastica e per adottare interventi terapeutici più selettivi, mirati alle condizioni del singolo paziente.

La definizione dei dettagli molecolari di tali processi sarà un'area di ricerca di primaria importanza nei prossimi anni.

LE TRASLOCAZIONI CROMOSOMICHE

La leucemia mieloide cronica è stata la prima emopatia maligna per la quale è stata identificata un'anomalia citogenetica di questo tipo. E' noto ormai ( Marin 1999) che nel 95% dei casi si verifica una traslocazione dal cromosoma 9 al 22 che da luogo alla formazione di un marcatore genetico noto come cromosoma Philadelphia. Il punto di rottura del cromosoma 9 avviene in corrispondenza del protoncogene abl, mentre il punto di rottura del cromosoma 22 è localizzato in una zona ristretta denominata BCR ( Breakpoint Cluster Region ). La fusione del gene BCR con una parte del gene abl porta alla formazione di un gene ibrido ( chimerico) BCR/abl, con tutte le conseguenze che ne derivano a livello del trascritto mRNA, successivamente tradotto in una proteina dotata di attività tirosinasica. Inoltre è stato dimostrato che si possono realizzare vari tipi di giunzione tra BCR ed abl., ognuno con un diverso significato prognostico. Infatti il preciso riconoscimento del tipo di ibrido che si è formato ci permette di capire se la malattia ha tendenza ad aggravarsi evolvendo verso la fase acuta oppure continuare ad evolvere lentamente.

Un'altra traslocazione di notevole interesse diagnostico riguarda i cromosomi 14 e 18 ed è riscontrabile in un alta percentuale di linfomi di tipo B. Più esattamente un gene della regione m del cromosoma 14, che codifica la catena pesante delle immunoglobuline trasloca al posto del gene bcl-2 del cromosoma 18, che codifica la morte programmata della cellula nota come apoptosi. Ne consegue un'attiva proliferazione cellulare.

Le tecniche di biologia molecolare, agevolate dall'uso sempre più apprezzato dei microarray non solo permettono di identificare rapidamente la presenza della traslocazione, ma anche di caratterizzare quantitativamente la stessa, fornendo così un marcatore individuale per ogni singolo paziente.

LE SINDROMI NEOPLASTICHE EREDITARIE

Alcune neoplasie sono, per un certo verso, riconducibili a particolari condizioni ereditarie per la presenza di mutazioni che sono presenti in tutti e due gli alleli di una stessa regione cromosomica. Si tratta di mutazioni con carattere recessivo che portano alla comparsa della neoplasia quando tutti e due gli alleli risultino non funzionanti o vengano inattivati da parte di un gene oncosoppressore.

Il primo caso del genere individuato è stato quello del retinoblastoma, una rara forma di tumore oculare pediatrico che compare come conseguenza di mutazioni che si verificano nel gene RB-1, localizzato nel cromosoma 13. Questo gene codifica una fosfoproteina che forma complessi multimerici con altre proteine che regolano i cicli cellu1ari.

La forma familiare di retinoblastoma è causata da una mutazione ereditaria presente in una sola delle due coppie del gene, per cui tutte le cellule di questi pazienti hanno un allele normale ed uno mutato, e da una mutazione somatica che avviene quindi successivamente solo nelle cellule della retina.

E' nota anche una forma sporadica di retinoblastoma che compare a seguito di due mutazioni somatiche avvenute in rapida sequenza nelle cellule della retina.

Anche per altri tumori si verificano condizioni analoghe, in cui l'ereditarietà gioca un ruolo non trascurabile come il carcinoma mammario, il carcinoma ovaio, la poliposi familiare, alcune neoplasie endocrine ecc.

In tutti questi casi certamente l'accoppiamento delle tecniche di diagnostica molecolare ai microarray potrà valutare in maniera più precisa la predisposizione dei singoli soggetti per alcuni tipi di tumori.

 

MARCATORI TUMORALI

I marcatori tumorali rappresentano una categoria di sostanze, presenti in circolo, che sono eterogenee sia per l'origine sia dal punto di vista biochimico, ma che possono costituire un segnale della presenza, della estensione, dello sviluppo di un tumore o che caratterizzano una neoplasia.

Il marcatore ideale dovrebbe avere le seguenti caratteristiche: Produzione esclusiva e precoce nella cellula tumorale. Concentrazione ematica correlata allo stadio della malattia. Variazioni di concentrazione in relazione all' efficacia della terapia. Purtroppo nessuno dei marcatori finora identificati riassume tutte queste caratteristiche ed in particolare l'ipotesi della produzione esclusiva di antigeni tumore associati non ha trovato finora conferma. Infatti si è visto che alcune molecole, ritenute esclusive della cellula neoplastica, come il CEA (antigene carcinoembrionale) o l'AFP (l'alfafetoproteina) sono presenti anche nei tessuti normali e, quindi divengono espressione della crescita tumorale solo quando siano riscontrate in circolo a concentrazioni più elevate.

Analogamente per i marcatori appartenenti alla classe della mucine (CA 125, CA 19-9, CA15-3 ).

Queste glicoproteine, ricche di carboidrati, rappresentano una normale componente delle secrezioni ghiandolari, per cui circolano nel sangue in quantità minime. In caso di patologia neoplastica le alterazioni di alcuni processi che regolano la loro produzione portano ad un aumento dei loro livelli plasmatici, per cui queste proteine diventano cosi marcatori della presenza e della gravità del tumore.

Queste acquisizioni sulla biologia dei marcatori tumorali hanno portato ad una revisione dei criteri interpretativi ed in particolare del concetto di soglia discriminante ( valore di cut-off ) perché esistono situazioni fisiopatologiche e malattie non neoplastiche che possono determinare aumenti abbastanza elevati della concentrazione dei marcatori in circolo.

In base a tali premesse, oltre al valore di riferimento per il normale, sono stati individuati almeno altri due livelli decisionali: Un primo livello decisionale inquadra un ambito di concentrazioni dei marcatori che possono essere riferite sia ad una iniziale patologia neoplastica o a patologie benigne, sia ad alterazioni fisiopatologiche di altro genere.

Infatti aumenti del CEA sono riscontrabili anche in pazienti con epatopatie croniche; aumenti delle AFP sono riscontrabili anche nel corso di epatopatie benigne; aumenti del CA125 sono rilevabili anche durante il ciclo mestruale ed in gravidanza.

Quindi un secondo livello decisionale può far sospettare, e in termini probabilistici, la presenza di valori, del marcatore compatibili con la patologia neoplastica. Inoltre può non avere molta importanza il solo dato basale di partenza perché la presenza di un tumore di piccole dimensioni può non determinare aumenti significativi del livello del marcatore ma si possono poi avere incrementi significativi solo in un secondo tempo. Ciò è particolarmente importante perché è provato che lo studio della cinetica di alcuni marcatori ci da la possibilità di ottenere informazioni cliniche importanti. Per esempio un innalzamento della concentrazione del CEA nel periodo post operatorio per un carcinoma del colon retto è un indicatore molto sensibile della comparsa di recidive. Quindi oggi si da importanza non tanto al dato singolo ed ai livelli decisionali a cui abbiamo fatto cenno, ma si preferisce l'approccio dinamico, ossia seguire l'andamento nel tempo. In effetti il marcatore riflette un particolare fenotipo tumorale, ossia l'attitudine della cellula a secernere e mandare in circolo una data sostanza, per cui il marcatore si può prestare ad interpretazioni prognostiche ed a fornire notizie altrimenti non ottenibili.

In conclusione il dosaggio dei marcatori può risultare utile, a seconda delle circostanze in cui ci si trova e che possiamo così riassumere:

Screening: Per identificare talvolta neoplasie in una fase in cui la sintomatologia sia assente e la massa tumorale cosi piccola e localizzata da consentire un' elevata aspettativa di sopravvivenza a lungo termine. Comunque, per le ragioni suesposte, trattandosi di test ancora poco sensibili e non assolutamente specifici, questo tipo d'indagine può essere attuata ma con molta prudenza.

Diagnosi: L'uso dei marcatori, per le ragioni suesposte, non ha trovato finora molte realizzazioni per diagnosticare neoplasie negli stadi iniziali. Un caso particolare è dato dal PSA nel cancro della prostata i cui alti livelli ematici, se pure non assolutamente specifici, appaiono abbastanza ben correlati con alcuni sintomi della malattia.

Prognosi: La valutazione prognostica di un tumore già diagnosticato è estremamente importante e molti marcatori sono, a tal fine, di indubbio valore., essendo una buona spia alla capacità invasiva e metastatizzante del tumore.

Monitoraggio della terapia: Per questo fine vi sono prove inconfutabili dell'utilità clinica di molti marcatori. n CEA nel carcinoma del colon retto, il CA 125 nel carcinoma ovario, il PSA nel carcinoma prostatico sono esempi di marcatori capaci di dare utili indicazioni sul successo dell'intervento terapeutico sia medico che chirurgico.


Torna all'indice

CAPITOLO SETTE

FUTURI SVILUPPI

RISPOSTE RAPIDE PER MALATTIE COMPLESSE

Le malattie umane attualmente note sono circa 35.000 e soltanto circa  un terzo è curabile. Questa grossolana schematizzazione ci dà un’idea di quanto ci sia ancora da fare. Le nuove conoscenze sono fonte di nuove opportunità: Mai, come oggi, la crescita del sapere innovativo è stata così impetuosa e la compenetrazione di diverse discipline così evidente,. I progressi realizzati in termini di possibilità diagnostiche e la vastissima gamma di nuovi approcci negli sviluppi clinici sono impressionanti.

L'emergenza dell' acqua avvelenata come atto terroristico, che tempo fa ci ha angosciato, è forse terminata ma, mai come in quei giorni, ognuno di noi avrebbe desiderato avere a disposizione un minianalizzatorie in grado di fornire un responso immediato sulla qualità del liquido più indispensabile alla conservazione della vita, che si accingeva a bere.

Ora tutto quello che, giorno per giorno, si va facendo strada nei laboratori di ricerca ci induce a pensare che i microarray, in fin dei conti, sono dei veri e propri laboratori d'analisi contenuti in un singolo chip, in grado di dare risposte anche com plesse in tempi che saranno sempre più brevi.

Ben presto tali analizzatori potrebbero essere costituiti da piccole " smart card " su cui si deporrà una goccia o un campione della sostanza che si vuole analizzare. Una volta depositata la sostanza, queste schede, andranno semplicemente inserite, negli slot dei computer, ossia nei normali alloggiamenti in cui trovano spazio le schede di rete e, a quel punto compariranno, nel video del computer tutti i componenti chimici del campione in esame.

Sappiamo che l'agenzia per la ricerca scientifica del Dipartimento della Difesa degli USA, in previsione di un attacco terroristico basato su armi chimiche o batteriologiche, ha finanziato una serie di progetti tendenti a mettere a punto dei sistemi in grado di svelare la presenza dell'antrace, del vaiolo o del virus di Ebola con analisi a risposta immediata ed a basso costo.

Non sappiamo quando questi chip saranno disponibili e come saranno realizzati, ma è certo che molti passi sono stati fatti verso questo obiettivo. Cerchiamo quindi di analizzare, più in dettaglio gli sviluppi del futuro a cominciare da quello che, ci sembra, sia più a portata di mano, trattandosi di tests che stanno rivoluzionando la diagnostica in importanti settori .

LA COMPONENTE GENETICA DELLE MALATTIE

Gli orizzonti deella genetica diventano sempre più ampi tanto che oggi possiamo affermare che la genetica contribuisce alla eziologia di quasi tutte le malattie umane. Persino le malattie infettive, che sono certamente collegabili ad agenti patogeni e all’ambiente, come la tubercolosi e l’AIDS, recentemente alcuni genetisti hanno dimostrato come la genetica sia implicata nel determinare la suscettibilità alle malattie e la severità del decorso. (Bellamy 1998 ; Shields 2001 ).

Ora la possibilità di mettere in luce il ruolo della genetica nell’eziologia delle malattie, permetterà di sviluppare terapie più razionali per migliorare la qualità della vita.

Per le malattie di tipo Mendeliano, come l’anemia a cellule falciformi, la fibrosi cistica o la distrofia muscolare di Duchenne, il ruolo della genetica è ben definito perché l’eziologia è chiaramente collegabile a variazioni di un singolo gene e quindi l’analisi genetica risulta abbastanza semplice. Per la stragrande maggioranza delle altre malattie i problemi da affrontare sono molto più complessi.

Per esempio le malattie cardiovascolari, i tumori e le malatie psichiatriche, non sono certamente malattie ereditarie, ma certamente sono favorite da una complessa componente genetica che si sta cercando di chiarire ( Haines 2006).In questi casi non c’è l’alterazione di un singolo locus, ma si sospetta che più loci siano coinvolti nel determinare il grado di suscettibilità alla malattia.

Un esempio di variazione di suscettibilità ad una malattia collegabile ad un’alterazione di geni si ha nella malattia di Alzheimer. Infatti che in base allo stato di 4 alleli del locus APOE si può prevedere una maggiore o minore suscettibilità alla malattia ( Corder 1993 ) Ma non sempre lo stato del gene APOE. della apolipoproteina E, è determinante, perché ci sono anche casi di malattia in individui che non presentano tale alterazione.

Lo stesso si può dire per i tumori del seno, che, per i casi riscontrabili in alcune famiglie, sono stati collegati a mutazioni riscontrabili nel gene BRCA 1 ( Futreal 1994 ), mentre in altri casi sporadici tale mutazione non c’è.

La maggiore o minore suscettibilità ad una malattia dipende anche dalla bilinearità dei genitori. Quando questa manca le possibilità d’interpretazione si fanno più complesse e la comparsa della malattia in alcuni individui e non in altri è più facilmente collegabile ai rapporti con l’ambientee.

Certamente i microarray, che permettono di valutare in parallelo il comportameto di numerosi geni, o delle proteine derivate, certamente agevoleranno lo studio della componente genetica di tutte le malattie anche di quelle più complesse.

ONCOLOGIA

Al primo posto tra le patologie oggetto di maggiori ricerche vi sono sicuramente i tumori, anche perché, per una serie di ragioni, si prevede che i pazienti affetti da questa patologia, dovrebbero, entro il 2050, raddoppiare. Non a caso, in nessun altro ambito terapeutico il numero dei brevetti  richiesti è così alto come per la diagnostica e la terapia dei tumori.

Ora, siamo convinti che l’oncologia sia certamente la branca della medicina che più si avvantaggerà dalla diffusione dei tests eseguibili con i microarray, perché si potranno chiarire, in breve tempo, su campioni singoli gran parte delle principali alterazioni e disfunzioni, sia degli acidi nucleici che delle proteine, presenti nella cellula sprogrammata.

Attualmente già conosciamo il difetto genetico di diversi tumori ereditari e conosciamo il profilo genetico di molti tipi di cellule tumorali.

Infatti, come abbiamo già riferito, i tumori sono il risultato di un danno al DNA cellulare. Alcune sostanze tossiche, come l'amianto o i derivati del tabacco, alcuni virus e le radiazioni ionizzanti sono capaci di alterarlo e di causare mutazioni che rendono la cellula incapace di percepire i messaggi di autoregolamentazione che le giungono sia dall'interno che dalle altre cellule, dagli altri tessuti e dagli altri organi. I tumori sono quindi malattie geniche, causate dall' accumulo di alterazioni in diversi geni nella stessa cellula.

Certamente ci sono individui più sensibili di altri perché hanno un genoma predisposto a reagire con meno efficacia a tali stimoli dannosi, ma è indubbio che lo studio dell'eziologia dei tumori deve concentrarsi specialmente nel cercare di capire l' interazione fra i fattori cancerogeni ambientali ed il nostro DNA e capire la serie di conseguenze biochimiche e funzionali che ne conseguono.

Quindi per attuare una efficace prevenzione oncologica bisogna sia agire sull'ambiente, come si sta facendo, per esempio, limitando gli spazi ai fumatori, ma anche puntare ad una prevenzione più personalizzata.

Potendo oggi conoscere in maniera sempre più approfondita l'impronta genetica del singolo soggetto potremo, in maniera sempre più corretta e completa valutare il rischio individuale per ciascun tipo di tumore.

La possibilità di fare quello che è stato chiamato il ritratto genico del singolo soggetto, ci da la conoscenza della struttura del DNA sano o alterato e ci permette di attuare piani di controllo più specifici e programmi diagnostici e terapeutici più mirati per ogni singolo soggetto. Qualcuno ha giustamente fatto rilevare che non esisterà più la malattia ma il malato.

Il laboratorio giocherà, quindi, un ruolo sempre più importante nell'assistenza ai soggetti a rischio e ai pazienti neoplastici. Infatti si è passati da un intervento tardivo e limitato ad interventi sempre più precoci. Si tenderà a diagnosticare e curare il paziente neoplastico nelle fasi iniziali della malattia, o, meglio ancora, si cercherà di identificare quanto prima possibile le lesioni precancerose.

Il ruolo di battistrada di queste tecnologie è interpretato dal tumore della mammella; da tempo è noto che alcune mutazioni hanno un rapporto sicuro con la malattia. Già da anni, almeno nei centri più avanzati, le donne che appartengono a famiglie a rischio vengono controllate, mentre quelle già colpite vengono trattate diversamente a seconda del tipo di alterazioni molecolari riscontrate.

Prima i tests duravano settimane e richiedevano personale altamente specializzato. Ora con i microarray si riescono ad analizzare nello stesso momento centinaia  o anche migliaia di geni e, confrontando le risposte con le banche dati, i si può non solo avere un responso di massima molto accurato ma anche in caso di risposta affermativa riguardante il rischio una classificazione fine che un tempo si otteneva solo quando il tumore era già comparso ed aveva raggiunto un certo livello di sviluppo.

La lista degli oncogeni, dei geni oncosoppressori e dei marcatori noti è già lunghissima e si incrementa ogni giorno di più ed ogni giorno si riesce a capire qualcosa di più dei complessi meccanismi che regolano il loro potere trasformante e la serie di conseguenze patologiche che ne derivano. Ormai è evidente che la diagnostica dei tumori sarà portata sempre più a livello molecolare per valutare precocemente la comparsa dei marcatori caratteristici che sono espressione di traslocazioni e riarrangiamenti da cui possono derivare gravi conseguenze.

Sarà possibile:

- Identificare la presenza di oncogeni e geni oncosoppressori che hanno importanza sia per interpretare la predisposizione sia per valutare l'aggressività e la tendenza a metastatizzare.

- Seguire le concentrazioni di eventuali marcatori circolanti al fine di valutare l'efficacia degli interventi terapeutici.

Questo lavoro diventerà sempre più selettivo per cui, già nel prossimo futuro, potranno essere individuate lesioni pre-neoplastiche molto precoci, attualmente sconosciute. Esistono già banche dati internazionali che raccolgono le informazioni riguardanti tutti gli oncogeni noti per cui si sta tracciando il profilo oncogenico delle diverse neoplasie e si stanno realizzando delle vere e proprie carte d'identità molecolari dei vari tipi di tumori. Si va realizzando quindi una diagnostica oncologica in grado di fornire un quadro molecolare specifico per ogni singolo paziente per seguire i vari approcci terapeutici, anche perché, ai tradizionali interventi chirurgici, radiologici e farmacologici si vanno affiancando i primi tentativi di terapia genica, che in alcuni casi potrebbe diventare risolutiva.

La capacità diagnostica elevatissima, che con i microarray si potrà realizzare, ci farà scoprire tempestivamente non solo le lesioni destinate a diventere maligne, ma anche i tumori del tutto benigni, che potranno essere trascurati o trattati in modo diverso

Uno degli obiettivi più importanti che si potrà raggiungere è la possibilità di capire meglio se, come e quando intervenire.

Infatti oggi si cerca di attuare su larga scala la medicina percentuale e, in base agli attuali canoni, molti tumori del seno, della prostata, o della pelle vengono trattati tutti, senza fare differenza, in modo aggressivo, per evitare il peggio. Un giorno, forse non lontano, potremo decidere con più cognizione di causa,e, in base all’identikit molecolare, sottoporre alle terapie più aggressive solo i pazienti che ne avranno veramente bisogno, con vantaggi per la maggioranza dei pazienti e per le casse dello Stato.

Al recente congresso su “ Diagnostic  Surgical Pathology “ che ha riunito a Firenze esperti di 33 Paesi del mondo, è stato ribadito che la sfida della diagnosi molecolare, che consente di risalire all’anomalia genetica, che è all’origine della neoplasia, ha l’obiettivo di riuscire prevedere se si svilupperà e in quanto tempo. Ed è proprio nel corso di tale congreso si è cominciato a riconoscere che se un uomo su due, dopo i 50 anni presenta un ipertrofia prostatica, solo il 13% di questi casi si traforma in un vero e proprio “ cancro”.

Lo stesso si può dire per i tumori del seno, che sono spesso mastopatie cistiche,  perché solo il 20% diventa una neoplasia maligna che può condurre a morte la paziente.

Oggi non potendo prevedere l’evoluzione del tumore, tutti questi casi vengono operati o comunque trattati con terapia  radiologica, completata da prolungati trattamenti chemioterapici ed ormonali costosissimi.

E’ auspicabile che tra qualche anno, grazie alla diagnostica molecolare, si potranno evitare gran parte di tali inutili e costosissime torture.

ALLERGIA

Le più importanti e le più diffuse malattie allergiche sono l'asma bronchiale e l' oculorinite allergica, ma ci sono numerose altre sindromi che colpiscono almeno il 15% della popolazione italiana e ben il 35% delle popolazioni dei paesi scandinavi. La classificazione più pratica delle malattie allergiche si basa sull' eziologia. Si distinguono quindi allergopatie da allergeni inalanti, da allergeni alimentari, da farmaci, da contatto, da veleno di imenotteri ecc.

E, quindi, per allergeni intendiamo quelle sostanze, o antigeni, in grado di indurre la produzione di IgE quando vengano introdotte nell'organismo per via inalatoria, per ingestione, per iniezione o anche a seguito semplice contatto.

Allergia significa alterata reattività dovuta ad un meccanismo mediato, quasi sempre dalle IgE. Infatti il soggetto allergico presenta una sintesi elevata, continuativa e persistente di IgE specifiche per determinati antigeni anche a distanza dall'esposizione all'antigene stesso. Il principale fenomeno mediato dalle IgE è la degranulazione dei mastociti o leucociti basofili con conseguente liberazione di istamina che a sua volta determina vasodilatazione, eritema, edema, broncospasmo, prurito e tanti altri sintomi che dipendono, ovviamente, anche dalla localizzazione e dall'intensità dei fenomeni.

Le allergopatie respiratorie, che sono le più comuni, possono manifestarsi come rinite, congiuntivite o asma bronchiale, ma il meccanismo che le sostiene è sempre lo stesso. Sono tutte forme causate dai cosiddetti allergeni inalatori, sostanze proteiche o glicoproteiche di varia derivazione che rimangono in sospensione nell'aria e possono, quindi, facilmente venire a contatto con le mucose congiuntivale, nasale e bronchiale. Gli allergeni respiratori vengono suddivisi in stagionali e perenni, in base al variare della loro concentrazione ambientale durante il corso dell'anno.

Gli allergeni dell' acaro della polvere, i miceti e gli epiteli animali sono perenni mentre i pollini delle piante sono stagionali.

Gli acari abbondano nei tappeti, moquette, tendaggi, materassi, cuscini, specialmente in ambienti caldo umidi.

I miceti più diffusi e più allergizzanti sono del genere alternaria, aspergillo e cladosporium. Sono raramente causa unica di manifestazioni allergiche respiratorie.

Gli epiteli animali derivano dalla desquamazione cutanea o dalla saliva dei cani, gatti e dei conigli ecc. e tendono a depositarsi e persistere a lungo nell'ambiente anche dopo l'allontanamento degli animali in questione.

I pollini che più frequentemente sono causa di allergie nell'area mediterranea sono quelli delle graminacee, delle urticacee, delle composite che fioriscono in primavera ed alcune anche in autunno a cui si deve aggiungere anche l'ulivo, la betulla ed il nocciolo.

Lo stretto nesso tra presenza dell'allergene e manifestazioni cliniche giustifica l'importanza pratica del monitoraggio della concentrazione dei pollini nell'aria atmosferica.

Bisogna, comunque, tener presente che molti allergeni sono estremamente simili tra loro e quindi possono interagire con le stesse IgE ( reattività crociata ).

Come gli allergeni inalanti, così alcuni alimenti, quali latte, uova, cereali, pesci, frutta, spezie sono in grado di indurre allergie in soggetti geneticamente predisposti. L'ingestione di questi alimenti può determinare la comparsa di reazioni orticarioidi accompagnate, o meno, da disturbi gastrointestinali quali dolori addominali crampiformi e diarrea.

Gli allergeni per iniezione sono costituiti da farmaci, da prodotti biologici, come il siero antitetanico, o da enzimi come la streptochinasi. Le reazioni a tali allergeni possono essere a volta imponenti, fino ad arrivare alle crisi anafilattiche, ovvero reazioni non protettive ma avverse, che si verificano a breve distanza di tempo dalla somministrazione e che possono anche essere mortali.

La diagnostica di uso corrente in allergologia si basa su particolari test volti a dimostrare il meccanismo IgE mediato. Il dosaggio delle IgE totali, che, per le basse concentrazioni plasmatiche, si esegue con il test denominato PRIST (Paper Radio Immuno Sorbent Test ), che è un test radioimmunologico o con tecniche immunoenzimatiche, è un dosaggio aspecifico che ci dice poco.

Infatti le concentrazioni delle IgE nel plasma tendono ad aumentare con l'età per passare dalle 20 UI/ml ad 1 anno ( ogni UI corrisponde a 2,4 ng di IgE ) alle 200 UI che si raggiungono tra i 5 e 20 anni. Inoltre il 20% dei pazienti affetti da asma e il 40% dei pazienti con rinite ha livelli di IgE del tutto normali.

Quindi il dosaggio delle IgE totali, come la ricerca dei leucociti eosinofili nel sangue o nelle secrezioni sono da considerarsi esami che hanno solo un' utilità complementare.

Pertanto ormai si tende sempre più ad ampliare le indagini che permettano di rilevare la presenza di IgE specifiche per i singoli allergeni. Costituiscono pertanto una prova cardine della diagnostica delle malattie allergiche le prove allergologiche cutanee. il test consiste nell'iniettare nella cute piccole quantità di uno specifico allergene, L'eventuale presenza di IgE specifiche per quel determinato allergene, è rivelata dalla comparsa di eritema, edema e prurito nell'area dell'inoculazione.

Si tratta comunque di test molto fastidiosi per il paziente, dato che comunemente se ne eseguono contemporaneamente alcune decine. Inoltre spesso si hanno risposte crociate per cui poi devono essere ripetuti a diluizioni, per avere almeno un dato semiquantitativo.

Le reazioni cutanee hanno poi un altro inconveniente in quanto espongono il paziente al rischio di reazioni anafilattiche, che possono essere anche gravi.

Il dosaggio delle IgE specifiche per i vari allergeni può essere eseguito sia con test radioimmunologici che con test immunoenzimatici, che sono oltre che specifici anche molto sensibili.

Il test radioimmunologico, denominato RAST ( Radio Allergo Sorbent Test ), si basa sul fatto che l'allergene è fissato su un supporto solido che viene incubato con il siero del paziente. Se sono presenti IgE specifiche, queste si legano al rispettivo antigene. Dopo lavaggio, una seconda incubazione con anticorpi anti IgE radiomarcati, permette di identificare l'allergene o gli allergeni in causa.

Ma, come abbiamo accennato, è possibile determinare la concentrazione delle IgE specifiche anche con metodiche immunoenzimatiche. L'unica differenza rispetto ai test RIA è che gli anticorpi anti IgE sono marcati con un enzima e si esegue una lettura colorimetrica o in fluorescenza. Questa semplificazione tecnologica ha reso possibile una grande diffusione di questi test ed ha permesso di ampliare notevolmente l'elenco degli allergeni a disposizione dei laboratori che sono ormai centinaia.

Comunque, dato che il numero degli allergeni è praticamente illimitato e dato il fatto che, come abbiamo già accennato, i soggetti predisposti, spesso non sono sensibili ad un solo allergene ma a gruppi di allergeni, tutto questo potrà portare a favorire anche in questo settore diagnostico l'uso dei microarray.

Infatti solo con tale metodica sarà possibile affrontare questa complessa attività diagnostica in modo globale ma analitico. Dovremmo finalmente riuscire a tracciare, per ogni paziente allergico, non solo il profilo completo degli anticorpi specifici del tipo IgE verso i più diversi allergeni ma anche arrivare, per ognuno ad un dosaggio preciso.

E' molto probabile anche che questo nuovo modo di affrontare il problema ci porterà sia a fare diagnosi più complete e non più approssimative, ma anche ad arrivare alla individuazione della terapia più adatta per i singoli pazienti. Infatti potremo valutare rapidamente, grazie all'uso dei microarray, associato ai computer, non solo l'impronta del genoma del singolo paziente, ma anche il comportamento dei singoli organi e distretti sottoposti agli stimoli allergizzanti dell' ambiente.

INFARTO DEL MIOCARDIO

La Joint European Society of Cardiology, e l' American College of Cardiology Committee for Redefinition of Myocardial Infarction, in una recente riunione, hanno emesso un comunicato congiunto per auspicare che:

- Venga accresciuto lo stato d'allarme per l’infarto del miocardio per l’impatto positivo che può avere sulla società.

- Si cerchi di aumentare la sensibilità dei test diagnostici per identificare il maggior numero di casi di soggetti predisposti ed attuare cosi, in modo sempre più appropriato, la prevenzione anche al fine di ridurre, è sperabile, il costo della sanità.

- Si riesca ad incrementare la specificità dei criteri diagnostici al fine di escludere più rapidamente i non-casi al fine di ridurre i tempi di ricovero ospedaliero.

Ciò premesso il comunicato ha auspicato che si individuino nuovi e più specifici marcatori biologici specifici e che, usati in parallelo, migliorino sempre più la diagnostica tempestiva e precisa di questa grave malattia.

Infatti, in base ai dettami fissati nel 1979 dal World Healtb Organisation, la diagnosi di infarto acuto del miocardio si fa in base alla comparsa di dolore precordiale, alterazione del tracciato elettrocardiografico e raddoppio, rispetto al limite di referenza, della concentrazione di almeno due marcatori cardiaci.

Un marcatore cardiaco ideale dovrebbe avere le seguenti caratteristiche:

- Distribuzione prevalente nel tessuto cardiaco.

- Alta specificità cardiaca.

- Alta specificità analitica.

- Possibilità di titolazione altamente sensibile e precisa.

- Livelli apprezzabili che compaiano precocemente dopo l'infarto.

- Livelli apprezzabili che persistano per un periodo di tempo significativo.

- Possibilità di titolazione con analizzatori automatici.

 

La Randox, che ha i laboratori in Inghilterra e che produce un lettore denominato Evidence ha il merito di aver prodotto per prima un tipo di microarray con sei marcatori cardiaci, di cui tre già noti ed utilizzati nella diagnostica già da qualche anno (Mb, CK-MB, cTn I), e gli altri tre più recenti.

Considerata la grande variabilità che si ha nell' andamento della malattia nei singoli pazienti conviene entrare un po' più nel merito ed esaminarli singolarmente:

 

Mioglobina ( Mb ).

E’ il marcatore più precoce perché tende a salire già entro le prime due ore dalla comparsa del dolore precordiale e la concentrazione può salire anche ad oltre dieci volte il livello normale. E’ un marcatore altamente sensibile ma non specifico perché sale anche in altre condizioni patologiche che non hanno nulla a che fare con l'infarto del miocardio. Questa carenza di specificità può, comunque, essere superata se in parallelo si valutano altri marcatori

 

Creatinina Kinasi MB ( CK-MB ).

La più alta concentrazione di questo enzima si ha nel muscolo cardiaco e quindi il trovarne in circolo un tasso elevato è espressione di danno miocardio specialmente se aumenta anche l'indice, ossia la concentrazione relativa di questo isomero rispetto agli altri. E’ il test tuttora più largamente utilizzato per fare diagnosi di infarto del miocardio, ma, anche questo, non è del tutto specifico, perché concentrazioni elevate si possono rilevare anche quando si hanno rigenerazioni di muscoli scheletrici o in caso di insufficienza renale acuta.

 

Troponina cardiaca I ( cTnI ).

La si ritrova solo nel tessuto cardiaco degli adulti ed è praticamente assente negli altri tessuti muscolari e quindi la si può considerare specifica al 100%. I test diagnostici che la valutano sono molto sensibili ma anche specifici. Potrebbe essere quindi il marcatore ideale quale espressione di danno del miocardio se la concentrazione si elevasse più precocemente. Infatti trascorrono 4-8 ore prima che il tasso salga sopra il limite di riferimento.

 

Anidrasi carbonica ( CA m ).

Questo enzima è presente solo nei muscoli scheletrici e nelle cellule epiteliali ed è del tutto assente nel muscolo cardiaco. Quindi, se associato al test mioglobina, lo si utilizza come marcatore negativo perché un aumento della concentrazione ci deve far pensare a danni alla muscolatura scheletrica con esclusione del miocardio. Bisogna comunque stare attenti nell'interpretazione di questo test perché la concentrazione può anche salire dopo intensa attività motoria. Quindi la comparsa di dolore precordiale dopo intensa attività fisica non ci può fare escludere che si tratti di infarto.

 

Proteina che lega gli acidi grassi cardiaci ( hh FABP ).

E' una importantissima proteina a basso peso molecolare, presente nel citoplasma dei miociti, che lega le lunghe molecole di acidi grassi, che hanno un ruolo di primo piano nel metabolismo del tessuto cardiaco. Infatti, in condizioni fisiologiche, il 60-90% dell'energia richiesta per realizzare contrazioni regolari è fornita dall'ossidazione degli acidi grassi da parte dei mitocondri.

La FABP non è cardiospecifica e quindi non da risultati migliori del test per la mioglobina. Tuttavia la titolazione eseguita in parallelo al test per la mioglobina ci permette di ottener un indice significativo. Infatti un basso indice è un segno di conferma di danno cardiaco.

E' un test molto sensibile e precoce perché si positivizza già 2-3 ore dopo l'infarto e può essere eseguito anche sulle urine nelle prime due ore.

 

Glicogeno fosforilasi (GPBB).

Si tratta di un enzima che converte il glicogeno in glucosio presente sia nel cervello che nel muscolo cardiaco e, quindi, è un test relativamente specifico. Ma dato che un aumento della conversione si ha già all'inizio dell'ischemia, prima che si abbia la necrosi, è considerato essere un marcatore molto precoce.

In conclusione si può affermare che questo settore della diagnostica, con i microarray, si sta già avvantaggiando dalla possibilità di poter valutare in parallelo una serie di marcatori biologici che offrono un quadro più completo per l'interpretazione tempestiva dei singoli casi di dolore precordiale.

NEUROPSICHIATRIA

Lo studio dell'albero genealogico di alcune grandi famiglie della storia ci da la possibilità di notare la presenza di un certo numero di soggetti certamente affetti da disturbi gravi del comportamento che si verificano come prodromi della malattia di Alzheimer, la schizofrenia e la depressione.

 

La Malattia di Alzheimer

Un ben caratterizzato esempio di suscettibilità è quello messo recentemente in evidenza fra il gene dell’apolipoproteina E e la malattia di Alzheimer.

Questo gene, presente sul cromosoma 19,  ha tre differenti combinazioni di alleli, note come 2, 3 e 4 che, in molte popolazioni europee, presentano una frequenza che è, rispettivamente, del 6%, del 78% o del 16% (Saunders 1993). Questi alleli differiscono nel loro DNA solo per una base a livello dei codoni 112 o 158.

Ora si è visto  che l’alterazione dell’allele 4 porta certamente ad un aumento del rischio e ad una comparsa più precoce dellaa malattia, mentre l’alterazione del tipo 2  porterebbe invece ad un’azione protettiva- ( Corder 1994; Farrer 1997).

 Non sono ancora chiari i meccanismi biologici che sono alla base di tali differenti suscettibilità. E’ quindi anche questo un grande importantissimo settore di ricerca neurologica che si potrà avvantaggiare della diagnostica molecolare realizzabile con i microarray.

 

La Schizofrenia

La schizofrenia è una malattia mentale che va vista come un dissesto nelle interazioni nervose e che è caratterizzata da confusione mentale, allucinazioni visive ed uditive, abnorme modo di parlare, faccia priva di espressione, occhi semichiusi, non rispondono ad alcuno stimolo ed altri variabilissimi sintomi comportamentali. Sono soggetti che si sentono spiati e perseguitati e che hanno una serie di reazioni negative come il rifiuto del cibo o il trattenimento forzato dei bisogni corporali. In altri casi l'ammalato ripete movimenti senza senso o ripete le parole altrui, obbedendo a qualsiasi comando.

Si possono avere sintomatologie acute e sintomatologie croniche che, se non curate, possono portare alla demenza.

E' una malattia che colpisce circa 1 % della popolazione mondiale ed è presente in tutte le popolazioni e in tutte le razze. il fatto che compaia più di frequente in alcune famiglie fa pensare ad una componente ereditaria che coinvolga uno o più geni. Infatti, dalle prime ricerche fatte a livello genetico, si è visto che nelle persone affette da schizofrenia sono meno attivi molti geni importanti per la trasmissione dei segnali intercellulari. Ma si è convinti che l'eredità genetica rappresenti solo un fattore di predisposizione alla schizofrenia, per cui taluni fattori ambientali possono essere scatenanti in soggetti predisposti. L'esistenza di numerosi geni che predispongono alla malattia potrebbe contribuire a spiegare l'eterogeneità dei sintomi riscontrabili fra le persone e perché su alcune sono efficaci le terapie che agiscono sul metabolismo della dopamina mentre per altre è meglio intervenire su altri neurotrasmettitori.

Comunque le basi biochimiche della schizofrenia sono ancora poco note. Si ritiene che uno dei meccanismi patogenetici sia, appunto, uno squilibrio nella concentrazione di alcuni neurtrasmettitori come la dopamina perché la clozapina, che è un bloccante di questa molecola, risulta abbastanza efficace in alcune forme. Un altro neurotrasmettitore, chiamato in causa più di recente, è il glutammato, i cui ricettori hanno un ruolo critico nello sviluppo del cervello, nell' apprendimento, nella memoria e nella elaborazione dei segnali nervosi in generale.

Nel complesso, però, è una malattia di cui sappiamo ancora molto poco e la cui terapia presenta molti lati oscuri anche perché, come abbiamo già accennato, i pazienti rispondono alla terapia in modo molto diverso gli uni dagli altri.

Quindi il poter disporre oggi della completa sequenza del genoma umano ci da la possibilità di porci una serie di domande a cui tra non molto sarà possibile dare risposte adeguate:

Quali sono le differenze fisiologiche a livello genico fra gli individui normali e quelli affetti da schizofrenia?

Quali sono le basi biochimiche dei fenomeni che caratterizzano la malattia?

Su quali ricettori agiscono i farmaci antipsicotici ?

Perché alcuni farmaci provocano in alcuni individui effetti secondari tali da sconsigliarne l'uso?

 

La Depressione

Sono milioni i soggetti adulti, specialmente donne, che ricorrono al medico per sintomi che riguardano il modo di sentirsi, di pensare, di comportarsi. I sintomi più comuni sono la cefalea, il senso di stanchezza, la mancanza di appetito, una visione del futuro talmente oscura o negativa da indurre al suicidio. In alcuni soggetti si alternano periodi di depressione con altri esattamente opposti di esaltazione apparentemente ingiustificata.

Anche per questa malattia si sospetta, anche se finora non sono stati individuati, la presenza di alterazioni a livello genico che determinino l'alterato funzionamento di alcuni neurotrasmettitori. Ci si domanda:

Quali geni conferiscono la predisposizione a tali manifestazioni cliniche?

Quali sono le disfunzioni geniche più comuni che sono alla base delle forme cliniche più gravi ?

Cosa c'è alla base della particolare sensibilità di questi soggetti ad alcuni stimoli dell'ambiente?

I farmaci anti depressivi che oggi si adoperano risultano efficaci solo in alcuni soggetti, perché?

Quando i medici potranno disporre in maniera estensiva delle risposte dell'analisi molecolare che ci metterà in luce le differenze a livello del DNA, RNA e delle proteine che sono coinvolte a valle, le prescrizioni terapeutiche potranno essere più precise.

La diffusione dei microarray, come metodo d'indagine, favorirà certamente questa evoluzione.

MALATTIE MIGRANTI

Negli ultimi anni, epidemie di malattie come l’influenza aviaria, la SARS, la febbre emorragica di Ebola hanno giustamente allarmato l’opinione pubblica e messo a repentaglio gli scambi commerciali, provocando ingenti perdite economiche. Tutte queste malattie hanno avuto origine negli animali e si sono poi diffuse negli esseri umani. Ora, secondo stime recenti, più del 60% delle 1415 malattie infettive note alla medicina contemporanea riguarda  sia gli uomini che gli animali e si tratta perlo più di infezioni virali che si trasferiscono dall’animale all’uomo e, quindi sono tutte accomunate della capacità di superare la barriera di specie.

L’attuale vicenda dell’influenza aviaria, un infezione virale che, come si ritiene sia accaduto anche in passato, sta gradualmente adattandosi dai volatili ai felini e all’uomo, ha ribadito la necessità di una collaborazione sempre più stretta fra specialisti di patologia umana e animale al fine di capire come un agente patogeno attraverso una serie di mutazioni del proprio genoma riesca creare le premesse per render possibile il salto di specie

Gli uomini stanno creando le condizioni ideali per la diffusione di tali malattie virali sia con la caccia e l’allevamento che con lo sviluppo del turismo e degli scambi commerciali.

La grande maggioranza degli abitanti, in ogni angolo del pianeta, macella animali per cibarsi della loro carne o la acquista, fresca, salata o affumicata in mercati all’aperto e in codizzioni igienico-sanitarie talvolta deprecabili.

Anche la domanda di animali da compagnia, talvolta di provenienza esotica, favorisce le zoonosi. Casi mortali di influenza avairia si sono verificati in gatti, tigri e leopardi, sia in Asia che in Europa, malgrado il numero dei felini finora deceduti sia ancora fortunatamente limitato, si pensa che, se la loro sensibilità al virus aviario dovesse aumentare, sorgerebbero notevoli problemi.

Il pericolo che, prima o poi il virus dell’influenza aviaria scateni una pandemia influenzale umana, ha oscurato la pandemia in atto, da oltre vent’anni, quella di AIDS. Infatti anche l’infezione da HIV può  può essere considerata una zoonosi, perché, si è sempre più convinti che il virus dell’immunodeficenza umana sia stato trasmesso all’uomo dalle scimmie antropomorfe. Infatti, studiando i genomi si è visto che il parente più prossimo del principale virus umano, che è il virus HIV-1 è proprio il virus dell’immunodeficenza delle scimmie ( SIV ), molto diffuso tra gli scimpanzé, le cui carni sono  comunemente ritenute non solo commestibili ma anche pregiate da molte popolazioni africane..

A 25 anni di distanza, quello che appariva un fatto notato solo dagli epidemioligi, è diventata la più grave epidemia degli ultimi decenni con decine di milioni di morti e con circa 40 milioni di sieropositivi, di cui il 90% è di età compresa tra 15 e 49 anni.

Purtroppo la maggior parte delle persone sieropositive, scopre di essere affetta solo alla comparsa dei primi sintomi della malattia, non ritenendo di aver avuto mai comportamenti a rischio e, non sapendolo, non considera neppure il rischio di infettare gli altri.

Ora vediamo che mentre le mutazioni che avvengono nei genomi dei virus sono relativamente frequenti, fortunatamente, i salti di specie coronati da successo sono piuttosto rari il che  fa intuire quanto sia complessa la serie degli adattamenti necessari per realizzare il salto di specie e raggiungere nella specie umana un ritmo di trasmissione decisamente elevato.

Certamente con i microarray riusciremo a capire più facilmente come e perché alcuni agenti patogeni riescano a varcare la barriera di specie e quali sono e come si allineano la serie delle mutazioni che si possono verificare sia nell’agente patogeno che nelle cellule del ricevente, perchè tale salto di specie si possa realizzare..

L’pidemiolgo Tony Mc Michael ( 2002), ha recentemente scritto che gli esseri umani sono inestricabilmente legati al mondo naturale, un ambiente contraddistinto dalla competizione e dalla simbiosi tra organismi grandi e piccoli e che, via via che aumentano le proporzioni del cambiamento demografico e dell’ impatto umano sull’ecosfera, crescono parallelamente le possibilità che taluni agenti patogeni di origine animale riescano a superare la barriera di specie ed infettare l’uomo.

Il rischio di trasmissione interspecie di malattie infettive può essere ridotto solo adottando programmi coordinati e misure di prevenzione che coinvolgano specialmente le regioni del pianeta in cui il commercio e il turismo hanno notevolmente incrementato i contatti fra uomini e specie animali selvatiche,

Si impone anche un’accurata e tempestiva sorveglianza nell’individuare focolai infettivi nelle varie specie animali anche selvatiche al fine di mettere a punto, in tempo  risposte adeguate sia di tipo terapeutico che profilattico. Siccome ciò che accade in una parte anche remota del globo può avere serie ricadute sul resto del pianeta questo presuppone che si instauri  una efficiente collaborazione sia tra i governi che tra gli  enti in grado di fornire  informazioni tecnologiche.

E’ anche, comunque, molto importante stabilire legami sempre più stretti fra le varie discipline scientifiche coinvolgendo medici, veterinari, virologi, genetisti e biologi molecolari.

MEDICINA FORENSE

La scoperta, avvenuta nel 1902, dei gruppi sanguigni ABO ha messo a disposizione dei giudici i primi marcatori genetici che possono aiutare ad identificare o escludere sospetti criminali.

In seguito questo concetto di identificazione biologica è stato esteso alla determinazione di parentela, in particolare per dispute di paternità.

Negli anni successivi, molti altri marcatori genetici, basati sull'identificazione di polimorfismi di proteine sieriche, enzimi eritrocitari o antigeni leucocitari, sono stati proposti ma non hanno avuto molto seguito perché le proteine sono instabili e quindi vanno incontro facilmente a degradazione nei campioni forensi.

Questo spiega il successo che ha avuto, più di recente, l'idea di tipizzare i campioni forensi mediante l'analisi del DNA. Infatti il DNA si trova in tutti i campioni biologici, è notevolmente stabile ( in alcuni casi è stato possibile tipizzarlo anche su campioni risalenti a millenni ), e contiene un numero praticamente illimitato di siti polimorfici che rendono possibile una identificazione biologica unica. Infatti, fin dal 1985, sono state identificate quelle che sono state giustamente denominate impronte digitali del DNA ( fingerprints ), in quanto sono individuo specifiche. Si tratta di sequenze di DNA ripetute in tandem, ovvero l'una dietro l'altra, che contengono fino a poche centinaia di kb, che si possono trovare con notevole frequenza ( fino a 200-300 ) nel genoma umano, che sono prese in esame per la tipizzazione molecolare.

Integrando le indagini con l'uso della PCR, è poi possibile analizzare, con estrema specificità minime quantità di DNA presenti in campioni anche di saliva, sperma, mozziconi di sigarette, colla dei francobolli ecc.

Sono oggi noti diverse migliaia di marcatori polimorfi del DNA umano, disponibili come sonde utilizzabili in vitro. La possibilità di trovare alleli identici in due individui è tanto minore quanto più è alto il numero dei loci polimorfici analizzati. Il numero dei marcatori necessari per una tipizzazione del DNA non è standardizzato e dipende dall' eterozigosità e dalle frequenze alleliche di ogni locus.

I microarray potranno certamente dare un importante contributo per rendere più versatili ed affidabili queste analisi molecolari per la tipizzazione individuale, sempre più utilizzate per le applicazioni forensi.

PRESERVARE IL BENESSERE

E' una grande sfida perché in base al nostro stile di vita possiamo fare molto non solo per vivere più a lungo ma anche per preservare il benessere sia fisico che mentale. La moderna medicina, negli ultimi decenni ha fatto tali e tanti progressi che ciascuno di noi, ogni tre anni di vita vissuta ne ha guadagnato un altro grazie a tante scoperte, a mezzi diagnostici sempre più sensibili e precisi, a tanti farmaci nuovi e ad interventi terapeutici più sofisticati ed un miglioramento delle condizioni igieniche.

Gli esseri umani sono delle macchine biologiche guidate dai geni ma che devono rispondere non solo alle istruzioni impartite dal genoma ma anche a tutti gli impulsi che vengono dall'ambiente e che si integrano in ciascun individuo determinando il fenotipo, ossia quello che ciascuno di noi esattamente è. La risultante di questo miscuglio, di questo intreccio, determina il nostro benessere, la predisposizione alle malattie, il nostro comportamento mentale, la nostra longevità e, quindi, tutto l'evolvere della nostra vita.

Ma, malgrado tante malattie siano state identificate, studiate e curate, malgrado si sia capito come e perché il fumo, le droghe e l'abuso di alcol facciano male, mentre l'attività fisica faccia quasi sempre bene, le nostre conoscenze, in molti campi e per molti problemi, riguardanti il nostro benessere, risultano ancora parziali e frammentarie, se non, addirittura, limitatissime. Questo perché, finora, la medicina, malgrado tanti progressi, non era in grado di capire cosa succedesse a livello del genoma, ossia a livello della torre di controllo da cui partono tutti gli impulsi e la miriade di segnali che coordinano e determinano ogni espressione della nostra vita minuto per minuto.

Ora ci sono tutte le premesse per rivoluzionare, entro qualche anno, tutta la pratica medica perché ogni aspetto sia fisiologico che patologico della nostra vita potrà essere valutato a livello molecolare. Infatti ora che ci è nota la struttura del genoma e che stiamo per capire le funzioni dei singoli geni nel produrre e coordinare le l'attività delle proteine, l'introduzione sempre più diffusa e capillare dei microarray, darà la possibilità al medico di arrivare alla diagnosi e alla terapia con un livello di informazioni di gran lunga molto maggiori di quelle attuali.

Inoltre la collaborazione fra i ricercatori ed i medici curanti, disponendo di un quadro molto più completo e profondo sia dello stato fisiologico che di quello riguardante i singoli quadri morbosi, porterà certamente a perfezionare e a rendere più corretto ed efficiente il sistema sanitario di ogni comunità.

Il medico oggi fa un esame fisico del paziente, controlla i riflessi, la pressione, la frequenza del polso, esamina i risultati del laboratorio di analisi concernenti i livelli di alcuni analiti, i referti del radiologo e poi fa la diagnosi.

Ma siamo ad una svolta perché, per capire veramente a fondo chi è veramente il paziente che gli sta di fronte gli manca un'analisi molto importante, quella molecolare che gli può offrire informazioni dettagliate sia sul quadro genetico sia sul funzionamento delle cellule dei vari distretti sotto esame.

La tecnologia dei microarray potrà sopperire a tale carenza. Basterà un piccolo campione di sangue per inquadrare meglio ed approfondire non solo i vari quadri morbosi ma anche come ciascuno di noi risponde a vari stimoli positivi come le attività sportive o negativi quali il fumo, le droghe, l'inquinamento ecc.

LE CHIAVI DELLA LONGEVITA’

Capire quali siano e come agiscano i geni coinvolti nel processo d’invecchiamento potrebbe cambiare la nostra vita. Ora, mentre è facile valutare con buona approssimazione lo stato di un auto usata a partire dall’anno di fabbricazione e dal chilometraggio fatto, per tutti gli esseri viventi, e quindi anche per l’uomo, c’è una differenza cruciale perché il decadimento dovuto al passare del tempo non è inesorabile in quanto  quasi tutti i sistemi biologici hanno la capacità non solo di reagire all’ambiente, sfruttando le proprie forze, ma anche di autoripararsi.

Fino a qualche anno fa si pensava che l’invecchiamento non fosse soltanto una forma di degenerazione ma la prosecuzione attiva dello sviluppo geneticamente programmato di un organismo. Al raggiungimento di una certa età, i geni dell’invacchiamento avrebbero cominciato a guidare il cammino dell’individuo verso la tomba. Invece, recentemente Sinclair e collaboratori (2005), hanno scoperto  un gruppo di geni, coinvolti nelle capacità di affrontare gli stress ambientali e di conservare intatte le naturali attività di difesa e di riparazione dell’organismo, a dispetto del passar degli anni. Questi geni, ottimizzando il funzionamento del corpo ai fini della sopravvivenza, permettono di superare più facilmente le crisi e, migliorando notevolmente le condizioni di salute dell’organismo, riescono ad allungarne l’arco della vita. In pratica, quindi, sono l’opposto dei geni dell’invecchiamento, ma possono, a buon ragione definirsi “ i geni della longevità”.

Questa ricerca, iniziata con i lieviti, ed estesa poi alle cavie che nella scala biologica sono abbastanza vicine  all’uomo, ha permesso di scoprire taluni geni denominati DAF 2, PIT-1, AMP-1, CLK-1, P66 e SIR2 che codificano una serie di meccanismi fondamentali di sopravvivenza alle avversità ambientali, aumentando la longevità. Di questi il più studiato nei lieviti è il SIR2, che controlla la durata della vita del lievito ed ha messo in evidenza che l’enzima che codifica è responsabile degli stessi benefici ottenibili con la restrizione calorica. Il corrispettivo nei mammiferi del SIR2 è il SIRT1, da cui deriva una famiglia di enzimi, che agiscono in varie zone delle cellule, influenzandone la longevità, e che  hanno preso la denominazione di “ sirtuine ”.

La sirtuina codificata  da SIRT1 deacetilando altre proteine ne altera il comportamento, Dato che molti dei suoi bersagli sono fattori di trascrizione che attivano direttamente i geni, oppure sono regolatori  di questi fattori, riesce a controllare una vasta serie di funzioni cellulari importantissime. Ne ricordiamo alcuni:

- Fox 01, Fox 03 e Fox04 sono fattori di trascrizione di geni coinvolti nelle difese cellulari e nel metabolismo del glucosio.

- Istoni H1, H3,e H4 controllano l’impacchettamento del DNA nei cromosomi.

- Ku70 è un fattore di trascrizione che promuove le riparazioni del DNA e la sopravvivenza cellulare

- Myo D è un fattore di trascrizione che stimola le riparazioni sia dei muscoli che di altri tessuti

- NF-Kb è un fattore di trascrizione che controlla i processi infiammatori, la crescita e la sopravvivenza cellulare.

- P53 è il fattore di trascrizione che innesca la morte programmata delle cellule danneggiate.

 

Le sirtuine finora individuate nei topi sono almeno 6 e si sta cercando di capire se tutte abbiano un’influenza sulla longevità. Lo studio delle sirtuine umane è ancora agli albori e ci vorranno certamente molti anni ancora per capire in che modo i geni delle sirtuine condizionino la longevità umana.

Ma a lungo termine si può essere fiduciosi che si riusciranno a svelare  i segreti dei geni umani associati alla longevità e che ciò non solo ci faciliterà la cura delle malattie associate all’invecchiamento ma addirittura probabilment ci permetterà d’impedirne l’insorgenza.

 

Le attività sportive.

Certamente, possiamo dire che, le varie attività sportive come la corsa, il nuoto, il canottaggio, l'andare in bicicletta, sciare ed anche il semplice camminare a passo svelto attivino la circolazione ed il metabolismo e, quindi, nel complesso, fanno bene. Sappiamo anche che influiscono favorevolmente sul livello della pressione arteriosa, sulla concentrazione del colesterolo nel sangue, sul peso corporeo e, di conseguenza, abbassano il rischio di malattie cardiovascolari che, da sole, causano il 40% della mortalità umana. Un regolare esercizio fisico promuove un senso di benessere e di vigore e pertanto è buona norma praticarlo se si desidera fare di tutto per star bene.

Ma, oggi ci domandiamo, quali sono i cambiamenti che avvengono a livello genico durante anche un moderato esercizio fisico? I diversi esercizi fisici producono differenti modifiche a livello fisiologico? E' possibile correlare meglio le differenze fisiche dei vari individui con i vari tipi di sport, valutando l'attività di particolari gruppi di geni?

Entro un tempo relativamente breve sarà possibile dare una risposta a queste domande perché qualcuno sta già pensando ai " fitness chips ", Infatti si sta già cercando di produrre microarray che rendano possibile capire come particolari gruppi di geni si attivino e cosa succeda a livello molecolare nel corso di un esercizio fisico. E quindi sarà possibile rendersi conto, in modo molto più approfondito, del perché l'esercizio fisico determini i suoi benefici effetti.

La selezione dei giovani per i vari sport potrà essere fatta con completa cognizione di causa ed effetto perché sarà possibile valutare con dati molto più precisi e completi la predisposizione alle singole attività sportive.

 

Il fumo

La nicotina, che è la più importante sostanza bioattiva presente nel tabacco, è un alcaloide strutturalmente simile alla caffeina. Si scioglie facilmente nel muco presente nei polmoni, entra nel torrente circolatorio e raggiunge il cervello dove, facendo salire il livello dell'acetilcolina e delle endorfine, determina un effetto psicoattivo che sì manifesta con una soffusa sensazione di euforia. Siccome però la emivita della nicotina è piuttosto breve, il fumatore, per prolungare tale effetto è indotto a fumare una sigaretta dopo l'altra con una certa cadenza.

Oggi, però, c'è la dimostrazione statistica dei disastri prodotti dal fumo sulla nostra salute. Si calcola che in Italia ogni anno muoiano 80.000 persone per malattie connesse direttamente al fumo. Infatti il Piano Sanitario Nazionale 1998- 2000 informa che il fumo è responsabile del 90% di tutte le morti per tumori polmonari, del 66% delle morti per bronchiti croniche e del 25% delle morti per malattie cardiovascolari. Il rischio di ammalare cresce con il numero di sigarette fumate e, per annullare i danni da fumo, sono necessari ben 15 anni di astensione.

Infine è da sottolineare anche l'importanza del fumo passivo: Infatti il fumatore non solo fa male a se stesso ma anche alle persone che convivono perché il fumo passivo, respirato involontariamente dai presenti, si è dimostrato nocivo nell'indurre le stesse malattie nei non fumatori in relazione all'intensità dell'esposizione che, ovviamente, è massima tra le mura domestiche.

Quindi, dato che il fumo è la più elevata causa di morte che si potrebbe prevenire, pensiamo che valga la pena di approfondirne causa ed effetti a livello molecolare. Numerosi sono i quesiti che potrebbero essere chiariti:

Quali sono le sequenze geni che incoraggiano a fumare?

Quale è lo spettro dei geni coinvolti dall'esposizione alla nicotina?

Per quale ragione differiscono tanto le risposte dei singoli individui alla nicotina?

Quali sequenze geniche predispongono ai tumori polmonari, all'arterosclerosi o ad altre malattie collegate al fumo?

Quali potrebbero essere gli interventi terapeutici a livello genico?

I microarray possono aprire la strada per dare una risposta a tali quesiti come a molti altri interrogativi connessi per identificare i pazienti ad alto rischio. E' auspicabile quindi che si avvii la produzione e la utilizzazione di microarray dedicati che, infatti, Schena ( 2000 ) ha già denominato gli "smoking chip".

 

L’ Alcolismo

Il vino, la birra e le altre bevande alcoliche, se consumate con moderazione, hanno un effetto positivo nel senso che si possono considerare dei cibi che ci fanno sentire più loquaci ed espansivi e ci danno una sensazione di benessere che favorisce in alcuni soggetti la socializzazione ed in altri la sonnolenza.

Ma l'uso smoderato è certamente terribilmente dannoso perché determina diminuzione della coordinazione motoria, riduzione dell'attenzione fino alla perdita di coscienza. In conseguenza di tali disturbi aumenta la facilità a causare incidenti stradali ed a subire infortuni sul lavoro. Inoltre si è più facilmente esposti a cadute con possibili fratture ed ematomi cranici tanto che si è calcolato, che l'alcolismo può abbreviare la vita anche di 10 anni. Negli USA, ogni anno, sono non meno di 100.000 le morti che sono direttamente collegabili all'abuso di bevande alcoliche.

E' stata studiata la componente ereditaria evidente in alcune famiglie, ma si tratta di un problema molto complesso che coinvolge l'azione dei geni ma anche molti fattori ambientali. Quindi, anche in questo caso, è auspicabile approfondire i meccanismi molecolari per cercare di chiarire tutta una serie di interrogativi quali:

Perché alcuni individui sono predisposti all'abuso dell'alcol e non altri?

Come l'azione dei geni si integra con quella dell'ambiente nel causare l'alcolismo ?

Quali sono le basi biochimiche dell'intossicazione ?

Attraverso quali meccanismi l'alcol può arrivare a danneggiare in maniera irreversibile alcuni centri nervosi?

Si possono individuare stili di vita o terapie che riducano l'incidenza dell' alcolismo?

I microarray sono il mezzo ideale per individuare i soggetti predisposti, per studiare le deviazioni funzionali che si verificano a livello cellulare negli alcolizzati e per valutare l'efficacia dei diversi trattamenti possibili.

 

L'uso di droghe

Cocaina, eroina, LSD, ed altre sostanze simili appartengono alla grande famiglia degli alcaloidi che sono piccole molecole contenenti azoto che esercitano la loro azione psicoattiva alterando le funzioni biochimiche del cervello. Più precisamente rallentano la funzione dei neurotrasmettitori quali la serotonina, la dopamina e la norepinefrina che, a loro volta, esercitano una profonda e complessa azione sull'espressione di alcuni geni.

Il problema sociale è imponente specialmente negli USA dove si calcola che circa il 50% della popolazione adulta ha fatto uso di droghe almeno una volta nella vita e c'è circa mezzo milione di pazienti che sono sotto trattamento presso i centri specialistici. C'è poi un altro aspetto da prendere in considerazione e che ne aggrava le conseguenze. E' ormai assodato che i soggetti che fanno uso di droghe, che, per oltre il 70% hanno un età compresa fra 21 e 44 anni, si ammalano molto più facilmente di AIDS, epatite e tubercolosi.

Ciò premesso, ci si pongono una serie di domande a cui ormai la medicina molecolare potrebbe dare una risposta esauriente:

Quali sono i ricettori cellulari a cui si legano le droghe?

C'è una base genetica e biochimica nei fenotipi inclini all'uso delle droghe?

Ci sono soggetti predisposti?

Quale è lo spettro delle modifiche dell'espressione genica che consegue all'uso delle varie droghe?

Fino a che punto può influire anche l'ambiente a livello biochimico?

Quali sono le alterazioni che si instaurano a seguito di un uso prolungato? Perché alcuni soggetti le tollerano meglio di altri ?

Ci sono già diversi gruppi di ricerca che fanno uso dei microarray per approfondire questi problemi e che hanno già individuato alcune dozzine di geni implicati in tutta questa tematica, ma siamo solo all'inizio di un grande lavoro che è tutto da compiere.

 

Anoressia e bulimia

Sono due gravi disturbi del comportamento alimentare presenti per lo più in donne giovani ma che sono in crescita anche negli uomini giovani.

L'anoressia è caratterizzata da un'apparenza emaciata, notevole perdita di peso corporeo e malnutrizione derivante da intenzionale tendenza a non voler mangiare correttamente e regolarmente.

La bulimia è anche prevalente nelle donne giovani ed è caratterizzata invece dall'ingestione di grandi quantità di cibo i cui effetti, sul peso corporeo, sono però, talvolta, annullati ingerendo lassativi o purganti o provocandosi il vomito.

Segnali d'allarme sono l'entità e la rapidità della perdita di peso, la polarizzazione ossessiva della mente sul binomio cibo-corpo, la tendenza ad isolarsi ed, in alcuni casi, l'interruzione del ciclo mestruale .

Quali sono i cambiamenti che si realizzano a livello molecolare con diete troppo severe?

Riteniamo che l'uso dei microarray ci darà la possibilità non solo di diagnosticare precocemente queste gravi forme comportamentali ma anche di individuare, caso per caso, l'intervento terapeutico migliore.

STUDIO DEI PROCESSI  EVOLUTIVI

I genomi sono strutture estremamente complesse e la selezione, l’unica cosa che è in grado di fare è determinare  il successo di un individuo. Ma  molte sono le novità che, negli ultimi anni hanno fatto il loro ingresso nella biologia evoluzionistica. Si è visto che le varie specie, sono in continua evoluzione per i continui cambiamenti  che si verificano nei patrimoni genetici. Ma non tutti questi cambiamenti influenzano direttamente  il ciclo evolutivo, perché alcuni determinano semplici fluttuazioni che si verificano in tutte le specie.

Si è notato che le mutazioni veramente nuove avvengono quasi sempre in popolazioni composte da pochi individui, perché solo le popolazioni di piccole dimensioni sono abbastanza instabili da un punto di vista genetico per poter originare qualche carattere evolutivo realmente nuovo.

La specie umana, invadendo sempre più ogni angolo del pianeta, sta frammentando gli habitat degli altri esseri viventi e quidi sta creando le condizioni perché si verifichino, in tutte le altre specie, innovazioni evolutive

Per qunto riguarda la storia evolutiva della nostra specie, attraverso lo studio del passato, eseguito sui fossili, si è capito che noi abbiamo un’ampia galleria di antenati. Secondo i più recenti orientamenti, l’homo sapiens, che è l’unica specie di ominide presente sulla terra, si sarebbe caratterizzata, negli ultimi sei milioni di anni attraverso l’evoluzione e le lotte di almeno una ventina di specie diverse di ominidi. Da ora in poi, attraverso lo studio dei geni, che compongono il nostro DNA, si potrà seguire meglio l’evoluzione  di tutti gli esseri viventi, sia del mondo vegetale che animale compresa la nostra specie.

Ma secondo l’antropologo inglese Tattersall, la storia evolutiva della nostra specie potrebbe essere giunta al termine, perché, causa la globalizzazione, la popolazione umana è sempre più interconnessa perché gli individui sono sempre più mobili e quindi stanno scomparendo le condizioni  necessarie per avere dei cambiamenti significativi dal punto di vista evolutivo. Questa prospettiva potrebbe però essere inficiata da altre considerazioni:

-L’ uomo è oggi in grado di modificare l’ambiente a tal punto da attivare condizioni che alterano il DNA. a livello molecolare che  rendono imprevedibile quello che in futuro , sotto questo profilo, potrebbe succedre.

- Anche mediante la terapia genica, che si andrà sempre più diffondendo, si creeranno le premesse per errori ripetuti in gruppi ristretti di individui che, non si può escludere che possano avere, nel corso degli anni dei secoli o dei millenni, conseguenze evolutive.

- Gli uomini che torneranno dai viaggi pluriennali interplanetari, non è da escludere che possano essere portatori di  mutazioni del loro patrimonio genetico tali da determinare nel tempo cambiamenti evolutivi.

 

FARMACOGENETICA E FARMACOGENOMICA

I due termini vengono usati spesso senza tener conto della loro sottile differenza concettuale.

Infatti "farmacogenetica" è lo studio della diversa risposta individuale ai farmaci riferibile alle diverse sequenze del DNA mentre la ” farmacogenomica " abbraccerebbe un settore più vasto comprendendo sia la diversa suscettibilità individuale alle malattie sia la diversa risposta ai farmaci. Quindi lo studio dei nuovi farmaci mirati rientrerebbe nella farmacogenomica mentre le richieste di analisi che il clinico fa per il singolo paziente sono test di farmacogenetica.

I tests di farmacogenetica hanno la funzione di collegare le caratteristiche genotipiche dell'individuo alla farmacocinetica e alla farmacodinamica dei medicamenti.

Dopo aver individuato e descritto la struttura dei circa 30.000 geni dell'uomo si è capito che la enorme variabilità delle differenze funzionali riscontrabili a tutti i livelli, in tutti i tessuti e in tutti gli organi dovesse essere collegata a variazioni molto più fini del DNA. Si vanno quindi attualmente catalogando i polimorfismi dei singoli nucleotidi ( SNPs ) che, si va constatando, ce ne è all'incirca uno ogni 1000 paia di basi. Ci sono comunque variazioni che sono collegate a polimorfismi più complessi perché dipendenti da più nucleotidi anche diversi e, quindi, gran parte di questo vastissimo lavoro di collegamento è ancora da compiere.

Non dimentichiamo che si vanno individuando i geni connessi alla suscettibilità verso malattie molto diffuse, ma geneticamente complesse come il diabete, l'ipertensione arteriosa, la schizofrenia e tutto il vastissimo settore dei tumori.

D'altro canto numerose sostanze, che sono comunemente usate non solo nell'industria farmaceutica, ma a anche per la produzione di cosmetici ed erbicidi. sono potenzialmente tossiche per gli esseri umani, in quanto sono capaci di alterare i normali meccanismi fisiologici in modo indesiderato.

E' ben noto, infatti, che la maggior parte dei farmaci hanno effetti indesiderati ed i meccanismi che li determinano non sono sempre completamente noti. L'utilizzazione mirata dei microarray ci permetterà di capire molto meglio e più rapidamente cosa succede a livello cellulare nei diversi tessuti quando si somministra un determinato farmaco.

Ecco perché nell'industria farmaceutica si profila un enorme interesse verso questa tecnologia. Infatti ci si ripromette, intanto, di riesaminare il meccanismo degli effetti indesiderati dei farmaci già in commercio con la speranza di poterli eliminare o almeno attenuare ma ci si attende molto di più dalle prospettive future. L'uso sistematico dei microarray permetterà, di eliminare il rischio di alcuni disturbi secondari prima di iniziare la costosissima fase delle prove cliniche. Questa svolta nel modo di condurre la sperimentazione dei nuovi farmaci dovrebbe incidere favorevolmente sulla cifra finale che si è costretti a spendere per la registrazione che, ormai, si aggira sui 300.000- 500.000 dollari.

L'altro obiettivo odierno molto importante è quello di arrivare al genoma personale e, con l'ausilio della farmacogenetica,al “paziente trasparente” o ,meglio ancora alla " medicina individuale predittiva". Si sono infatti cominciati a mettere in evidenza polimorfismi che sono collegabili a varianti fisiologiche di risposta ai singoli medicamenti. Le analisi di farmacogenetica clinica cercano appunto di trasferire le conoscenze della genetica nel laboratorio corrente al fine di tracciare il profilo farmacogenetico del singolo paziente. Queste conoscenze avranno la funzione di far si che il medico possa scegliere tempestivamente sia il medicamento ideale per il singolo paziente che il corretto dosaggio.

Infatti, per avere un'idea della situazione di incertezza attuale per alcune scelte di terapia corrente, basta vedere quello che il medico è costretto a fare quando deve usare un anticoagulante del sangue tipo warfarin. Infatti questo farmaco che dovrebbe raggiungere la concentrazione ematica ottimale di 68 microgrammi per ml, si vede che ciò dipende non solo dalla dose ingerita, ma molto anche dalle condizioni del fegato che è l'organo più importante per il metabolismo di questa sostanza. Il medico, per aggiustare la dose, non può fare altro che procedere per tentativi che possono durare anche molte settimane, sapendo che, se sbaglia per eccesso, può provocare delle emorragie interne spontanee, mentre se sbaglia per difetto non raggiunge lo scopo di aumentare la fluidità del sangue.

Domani, quando potrà avere i dati delle analisi farmacogenetiche di quel paziente potrà procedere più speditamente e con meno rischi di sbagliare. Infatti sappiamo già che il metabolismo epatico di questa sostanza dipende da un enzima codificato dal gene CYP2C9, che nel 35% dei soggetti presenta delle varianti genetiche che, se individuate preventivamente, ci potranno permettere di inquadrare molto rapidamente il giusto dosaggio. Un altro caso già individuato è quello della pravastatina che è molto più attivo nell' abbassare il tasso di colesterolo nei soggetti con la variante B1B1 del gene CETP rispetto agli altri soggetti.

Cosi il tamoxifene si dimostra molto più efficace nel bloccare le ricadute dei tumori del seno nelle donne che presentano le mutazioni geniche BRCA1 e BRCA2.

Bonny cita numerosi altri casi del genere in cui è stata messa in evidenza una precisa relazione fra una variazione genetica ed un composto. Ne riportiamo alcuni:

 

GENE

COMPOSTO

CYP3A

Pantoprazolo

CYP2B6

Ciclofosfamide

HTR2A

Clozapina

DYPD

5-Fluorouracile

MDRI

Digoxina

 

Ma quali sono gli ostacoli che si devono superare perché la medicina individuale diventi una realtà? Sono fondamentalmente tre:

Occorre ampliare ancora molto la ricerca clinica per capire per quali malattie la farmacogenetica possa realmente costituire un effettivo progresso sia per la diagnosi che per la terapia.

Questo tipo di analisi viene fatto ancora molto raramente perché hanno un costo molto elevato e sono pochi i laboratori in grado di farle.

La comunità medica va informata in maniera capillare dei vantaggi pratici, affinché si possa arrivare ad un'applicazione consapevole generalizzata.

L'AGRICOLTURA MOLECOLARE

Una piccola pianta, l'Arabidopsis thaliana, che ha un genoma ridotto, di circa 25.000 geni con sequenze tutte note ed un tempo di generazione molto rapido ha reso possibile una serie di ricerche tendenti a mettere in chiaro quello che succede a livello molecolare e in tutti i geni per effetto della luce solare. Oggi sappiamo quali geni vengono attivati e come tale fenomeno influenzi tutte le fasi della crescita e dello sviluppo. Anche qui siamo solo all'inizio di una grande rivoluzione che la diffusione dei microarray potrà permettere di attuare nei prossimi anni man mano che potremo capire e regolare meglio l'influenza della luce a livello dei singoli geni ed in base agli scambi fra le diverse proteine cellulari.

Un altro aspetto molto importante della vita delle piante è determinato dalla concentrazione salina nei tessuti per l'effetto osmotico. Le piante assorbono acqua prevalentemente dal terreno e la perdono per evaporazione attraverso le foglie. Quando l'irrigazione non è adeguata o, per effetto dell'eccessivo calore, l'evaporazione aumenta, la pianta va incontro ad un progressivo stato di sofferenza determinato dalla eccessiva concentrazione dei sali, specialmente il sodio, che causa all'interno delle cellule tutta una serie di più o meno gravi perturbazioni biochimiche. Le ricerche eseguite con l' Arabidopsis thaliana hanno permesso di individuare alcune dozzine di geni la cui espressione cambia come conseguenza dei cambiamenti della concentrazione salina.

Questi studi per quanto ancora molto preliminari hanno messo in evidenza i geni che rendono la pianta del riso più resistente alla carenza dell'acqua. Ciò ha permesso di selezionare in maniera più razionale varietà più adatte ad essere coltivate in terreni soggetti a periodi di siccità. Tali studi hanno un enorme impatto economico e sociale perché il riso è la principale fonte di nutrimento di circa il 50% dell'intera popolazione del globo.

Ma il fatto di poter studiare le funzioni di ogni singolo gene darà certamente nuovo impulso alle ricerche sugli organismi geneticamente modificati, meglio noti, anche da parte del grande pubblico, come OGM. Negli USA. dove la maggior parte di tali ricerche sono state avviate e sono progredite, si coltivano già su larga scala granturco, soia, fragole e tante altre piante ancora e se ne fa un uso corrente nell'alimentazione. In Europa. un po' per ignoranza e un po' per contrastare l'invadenza delle multinazionali americane, che hanno brevettate le sementi ed ora giustamente ce le vendono a caro prezzo, se ne sta frenando la diffusione con vari pretesti e paventando futuri disastri.

il poter creare piante che producono di più, piante con una migliore composizione nutrizionale, più resistenti alle malattie, che richiedano meno pesticidi, che producano frutti di gusto più gradevole sono alcuni dei numerosi obiettivi che oggi con la diffusione dell'uso dei microarray sono più a portata di mano. Ma, l'aspetto forse più importante per noi europei, è sapere cheoggi è possibile evitare la sensazione di dover fare un salto nel buio, perché ogni risvolto di questa problematica potrà essere approfondita e seguita nel tempo con tecnologie che presto saranno a portata di tutti. Basta volerlo !

E' ridicolo continuare a piangerci sopra. Occorre lavorare per mettersi al passo con i tempi. Lavorare per capire e per contribuire seriamente al progresso della scienza in generale e dell'agricoltura, in questo caso particolare.


Torna all'indice

CAPITOLO OTTO

CONSIDERAZIONI  CONCLUSIVE

LA BIOLOGIA SINTETICA

Negli anni cinquanta un gruppo di studiosi risolse un problema tecnologico di grandissima importanza perché descrisse le operazioni necessarie per depositare sottilissimi, strati di metalli e sostanze chimiche, usando calchi chiamati fotomaschere,in un minuscolo wafer di silicio. Questa scoperta, infatti, fu determinante per lo sviluppo esplosivo dell’elettronica negli anni seguenti, perché tramontò rapidamente la prassi di saldare uno per uno i transistor e sorse l’epoca dei circuiti integrati, prodotti in modo costante e specifico, che è ancora in pieno splendore. Si era passati, infatti, da un processo artigianale, dai risultati incerti ad una tecnologia  standardizzata che permetteva agli ingegneri di produrre circuiti integrati di semiconduttori che poi potevano essere poi combinati ed assemblati a piacimento per progettare e costruire attrezzature elettroniche dalle più semplici alle più complesse e potenti, che, facendo emergere un universo nuovo delle comunicazioni è stato in grado di attuare applicazioni di ogni genere.

Alcuni studiosi come Endy ( 2005 ) e Church ( 2005 ) ritengono che dovrebbe essere possibile passare dai circuit elettronici integrati ai circuiti biologici assemblando pezzi di DNA. Infati se i transistor sono i componenti di base dei circuiti elettronici, i loro equivalenti biologici sono i geni che non sono altro che lunghi filameti di DNA accuratamente ordinati.

Per costruire circuiti genetici per dispositivi biologici avanzati occorre sintetizzare lunghe sequenze di DNA in modo veloce e standardizzabile ed a costo ragionevole. Tutte le tecniche di sintesi sono variabili del metodo di Caruters che utilizza le fosforamiditi in fase solida. Infatti si parte con un singolo nucleotide ancorato ad un supporto solido come una sferetta di polistirolo sospesa in un liquido. Quando questa è esposta ad un acido, la base del nucleotide ancorato diventa pronta per formare un legame chimico con un altro nucleotide presente nella soluzione, allungando la catena nascente. La ripetizione di questo ciclo consente di sintetizzare qualunque tipo di sequenza con una frequenza di errore del 1%.

Church, con la tecnologia dei microarray ed utilizzando la polimerasi, che è in grado di costruire molecole di DNA con una velocità  che può arrivare a 500 basi al secondo ed una frequenza di errore di una base  su un miliardo, è riuscito a creare degli schemi reticolari con una densità che può arrivare  a un milione di punti per centimetro quadrato. Church ha chiamato questi filamenti “ oligonucleotidi da costruzione “ perché con squenze sovrapposte riesce a costruire tratti di DNA  anche più lunghi di un gene intero. Poi, dato che gli oligonucleotidi che contengono errori devono essere eliminati, ha elaborato anche due sistemi diversi di correzione abbastanza agevoli.

Queste tecnologie, che rendono possibile le sintesi in parallelo di oligonucleotidi rilasciabili e la correzione di errori ci permettono di assemblare lunghe molecole di DNA abbastanza corrette, in modo meno costoso e più rapido di quanto lo sia stato finora. Si può quidi ritenere che queste procedure saranno le tecniche di base per la biofabbricazioe e che potranno portare a miglioramenti costanti nel tempo.

LE BIOFABBRICHE

Sono già nate negli USA le prime aziende ed organizzazioni che applicano i principi e le applicazioni delle biofabbriche di domani: Ne segnaliamo alcune:

-BioBricks Foundation.  Cambridge, Massachussets

-Amyris Biotechnologies. Emmevylle,California

-Codon Devices. Cambridge, Massachussets

-Foundation for Applied Molecular Evolution. Gainesville, Florida

In queste sedi sono stati prodotti i primi “ circuiti biologici artificiali funzionanti” che si potrebbero utilizzare per esplorare nuove strategie di lotta alle malattie e si studiano tutte le nuove opportunità che la biofabbrica potrebbe offrire per la produzione di nuovi materiali e di sensori, il recupero di suoli inquinati, la produzione energetica ecc.

La biofabbrica è molto di più che una serie di tecnologie di sintesi sempre più veloci ma è un nuovo metodo di pensare ai macchinari biologici esistenti e a costruirne di nuovi che prende in prestito sia il linguaggio che i metodi dell’ingegneria. Il metodo di fabbricazine dei circuiti a semiconduttori è stato creato grazie ad una tecnica flessibile ed affidabile ed una enorme varietà di componenti a cui i progettisti possono attingere.

 Grazie a questo sistema integrato gli ingegneri hanno potuto creare dispositivi elettronici sempre più complessi e potenti con vaste applicazioni. Animati dalla stessa filosofia comincia ad essere possibile oggi concepire e costruire sofisticati dispositivi costituiti da componenti biologici. Occorre che i biologi oggi assumano una mentalità da ingegneri. Le sequenze dei componenti genetici  che esguono compiti distinti tradi loro, possono essere determinate dai progettisti di componenti,e, se necessario, prodotte anche al di fuori della biofabbrica. Un ingegnere biologico non deve aver bisogno di costruirsi ogni singola parte a partire da zero e non deve nemmeno conoscerne sempre il funzionamento interno, gli basta sapere che è affidabile. Ma, dato che si ha ache fare con sistemi biologici capaci di replicarsi ed evolvere, è comprensibile la preoccupazione di chi teme che possano causare danni intenzionali o meno.

Finora possiamo dire che gli scienziati hanno scrupolosamente adoperato tutte le precauzioni consuete  dei laboratori che lavorano in sicurezza biologica e si sono sempre comportati nel fabbricare la vita,applicando codici etici che finora hanno ben funzionato. Ma la preoccupazione è che un giorno la capacità di sintetizzare il DNA abbia una tale diffusione da consentire a dei criminali di creare per esempio nuovi germi patogeni altamente diffusibili.

E’ stato quindi proposto negli USA di prevedere la registrazione di tutti coloro che lavorano con la biologia sintetica così come già si fa con coloro che usano i così detti reagenti speciali.

IL PROGETTO GENOMA PERSONALE

La lettura del libro della vita è arrivata alla parola fine con il sequenziamento del cromosoma 1, il più grande dei cromosomi umani. Questo ultimo sforzo è stato anche il più duro ed ha richiesto il lavoro decennale di almeno 150 scienziati. La mole delle informazioni raccolte, che oggi sono a disposizione di tutti gli interessati, se riportate a stampa richiederebbero la scrittura di oltre 60.000 pagine.

Con il progetto Genoma Umano si è pertanto riusciti a sequenziare, con qualche anno di anticipo sulla data prevista, il 100% del genoma umano e a rendere disponibili un’ enorme quantità di tecnologie e metodi utili il cui continuo perfezionamento ha abbassato il costo di un sequenziamento di un genoma umano che comunque oggi può essere richiesto ma con un esborso di circa 20 milioni di dollari. Questa cifra significa che i sequenziamenti su larga scala sono ancora limitati ai centri di ricerca specializzati e riservati a progetti grandi e costosi.

Ma i genomi finora resi noti erano genomi composti perché ottenuti dal DNA  di più persone e, quindi possono avere solo un valore indicativo di tipo generale.

Ora Craig Venter, lo scienziato americano che nel 2000 dimostrò per primo di avere sequenziato l’intero genoma umano, ha annunciato di aver, quasi completato il sequenziamento del suo stesso genoma.

Così tutti e sei miliardi di lettere del suo DNA verranno riversati nel database di un computer gestito da un ente pubblico, la GenBank, e, quindi sarà accessibile agli scienziati di tutto il mondo.

Venter lo chiama “ Il Genoma Umano di Riferimento “ e ritiene che con il raggiungimento di questo traguardo si potrà dare il via alla genomica individuale. Questo, secondo Venter ci permetterà di capire non solo l’aspetto e lo stato di salute del singolo individuo, ma anche la sua personalità.

Il vero potenziale delle biotecnologie diverrà evidente solo quando gli strumenti di cui si servono, per esempio le tecniche per la lettura del genoma, saranno diventati economici e diffusi quanto lo sono oggi i personal computer. L’obiettivo a cui si tende è quello di raggiungere una capacità di sequenziamento del DNA così poco costosa che chiunque potrebbe decidere che valga la pena di spendere un po’ di denaro  per disporre di una sequenza completa del proprio genoma registrato in un dischetto ad uso e consumo dei medici. Negli USA lo slogan che fa sperare è che si possa, entro qualche anno, arrivare al “ genoma da 100 dollari”.

Due programmi finanziati dal National Institute of Health e dedicati alle “ Tecnologie innovative di sequenziamento genomico”, sfidano gli uomini di scienza ad abbassare i costi del sequenziamento di un genoma umano, portandoli a 100.000 dollari entro il 2009 e a 1000 dollari entro il 2014.

Abbiamo visto che il genoma umano  è composto da 23 coppie di cromosomi, ciascuno dei quali ereditato da uno dei genitori, e da un totale di sei miliardi  di paia di basi, scelte fra le possibili alternative, adenina,citosina,guanina e timina, che rappresentano l’alfabeto genomico ( A , C , G e T ) codificante le in formazioni racchiuse nel DNA.

 Per poter identificare le singole basi all’interno di una sequenza di DNA, occorre disporre di sensori capaci di individuare le differenze su scala subnanometrica esistenti fra i quattro tipi di basi.

La maggior parte dei sequenziamenti che si eseguono oggi si attuano ancora con la tecnica enzimatica messa a punto da Frederick Sanger negli anni settanta, che, malgrado i miglioramenti apportati nel corso degli anni, continua ad essere lungo e costoso.

Una più recente tecnica, che potrebbe rivelarsi assai promettente, adotta un approccio del tutto diverso per identificare le singole basi che compongono la molecola di DNA. Questa metodica, chiamata “sequenziamento mediante nanopori”, sfrutta le differenze fisiche esistenti fra le quattro basi che compongono il DNA, per produrre un segnale diverso. Come l’elettroforesi, questa tecnica trascina le molecole di DNA verso una carica positiva. Per raggiungerla, le molecole devono attraversare una membrana transitando per un poro con un diametro inferiore a 1,5 nanometri, per cui riescono a passare solo le molecole di DNA a filamento singolo.

Quando il filamento transita attraverso il poro, i nucleotidi bloccano temporaneamente il passaggio, alterando la conduttanza elettrica della membrana misurata in picoampere. Le differenze fisiche fra le quattro basi generano blocchi di durata e grado diversi. Questa tecnologia dovrebbe portare ad una notevole riduzione dei costi e a leggere un intero genoma umano in non più di 20 ore.

Comunque già oggi si possono eseguire delle indagini mirate perchè, per esmpio, quando nello studio di una malattia, analizzando il DNA, si nota un buco o una malformazione in un cromosoma, basta andare su internet e consultare la banca dati  del genoma umano per scoprire a cosa corrispondono i frammenti coinvolti e rendersi conto della precisa eziologia della malattia.


Torna all'indice

CAPITOLO 9

PROSPETTIVE BREVETTUALI E COMMERCIALI

I BREVETTI

In ogni cellula di ogni essere vivente ci sono  un numero determinato di cromosomi ed in ogni cromosoma un certo numero di geni, ciascuno con un proprio ruolo . Negli anni novanta a seguito l’enorme sviluppo tecnologico che si è registrato, l’ufficio dei brevetti degli USA è stato sommerso dalle domande di brevetti su DNA e RNA che sono alla base di tutti i fenomeni vitali. Malgrado molti oggi considerino che brevettare la vita sia una pratica bizzarra e preoccupante, l’ufficio brevetti degli USA, ha concesso oltre 4000 brevetti sul genoma umano. Ma ancora più grande, ovviamente, è il numero dei brevetti riguardante il genoma di tutti gli esseri viventi. Riteniamo utile riportare l’elenco dei più importanti possessori ditali brevetti:

 

TITOLARI

NUMERO DI BREVETTI

Università della California

1018

Governo degli Stati Uniti

926

Sanofi Aventis

587

GlaxoSmithKlein

580

Incyte

517

Bayer

426

Chiron

420

Genentech

401

Amgen

396

Human Genome Sciences

388

Wyeth

371

Merck

365

Applera

360

Università del Texas

358

Novartis

347

Johns Hopkins University

331

Pfizer

289

Massachussetts General Hospital

287

Novo Nordisk

257

Harvard University

255

Stanford University

231

Lilly

217

Affymetrix

207

Cornell University

202

Salk Institute

192

Columbia University

186

University del Wisconsin

185

Massachussetts Institute of technology

184

 


 

Per quanto riguarda i geni dei cromosomi umani l’elenco dei brevetti finora concessi è il seguente:

 

CROMOSOMA

NUMERO DEI BREVETTI

1

504

2

330

3

307

4

215

5

254

6

225

7

232

8

208

9

233

10

170

11

312

12

252

13

97

14

255

15

141

16

192

17

313

18

74

19

270

20

178

21

66

22

106

X

200

Y

14

 

Questa enorme quantità di brevetti deriva dal fatto che negli USA, al contrario di quanto è accaduto in Europa e in Canada, le questioni etiche sulla brevettabilità della vita, sono state ampiamente ignorate e, almeno fino al 2001 è stato possibile brevettare qualsiasi “cosa fatta dall’uomo” comprese le cose viventi che incorporassero un intervento umano. Tutto risale ad una famosa sentenza del 1972, riguardante Ananda M. Chakrabarty, un ingegnere della General Electric, che aveva presentato domanda di brevetto per un ceppo del batterio Pseudomonas in grado di sciogliere le chiazze di petrolio. A quell’epoca le tecniche di splicing del DNA ricombinante, che permettono di ottenere le sequenze genetiche desiderate, non erano ancora state inventate e quindi l’ufficio brevetti respinse la domanda con la motivazione che “ i prodotti della natura che sono organismi viventi non possono essere brevettati”. Ma Chakrabary fece ricorso alla Corte Suprema, che nel 1980, quando il panorama della biologia molecolare era radicalmente mutato, con 5 voti a favore e 4 contrari, accolse il ricorso, considerando quel batterio un prodotto dell’ingegno umano  e aprendo così la strada ai “brevetti sulla vita”.

L’atteggiamento degli uffici brevetti sia europeo che canadese sono stati sempre molto più restrittivi, sostenendo che “i prodotti della natura” non sono brevettabili. Le autorità politiche e giuridiche americane raramente tengono conto di questioni etiche, filosofiche o sociali nei processi decisionali che riguardano i brevetti perché

“ l’ingegnosità merita un incoraggiamento liberale”.

Ma, dal 2001, anche l’ ufficio brevetti degli USA ha perfezionato in senso restrittivo tale direttiva riguardante i brevetti in campo biotecnologico sostenendo che definire una sequenza di DNA semplicemente come sonda genica o marcatore di cromosomi non basta, occorre che, per ottenere il diritto alla proprietà intellettuale, “la ricerca abbia un’utilità specifica e sostanziale”.

Ma il valore di tanti di questi brevetti , almeno da un punto di vista commerciale, si è ridotto a zero dopo che, nel 2000, Bill Clinton e Tony Blair rilasciarono una dichiarazione che afferma che” i dati fondamentali sul genoma umano, inclusa la sequenza del DNA e le sue variazioni devono essere rese disponibili liberamente agli scienziati di tutto il mondo”.

AZIENDE E MERCATI

Biochip e microarray sono una piattaforma tecnologica di grande interesse per i futuri prodotti diagnostici. Finora il loro principale uso ha riguardato il sequenziamento del genoma sia umano che di molti animali e piante ma è già iniziata una nuova fase di studi e ricerche per cercare di inquadrare ed approfondire non solo le strutture ma anche le funzioni dei singoli geni sia in condizioni fisiologiche che patologiche.

Attualmente, dato che ci si trova ancora in una fase orientativa. si è costretti ad operare spesso con centinaia ed anche migliaia di spots valutati in parallelo. In futuro, allorché i principali markers delle malattie umane saranno stati identificati, è probabile che si tenderà ad utilizzare sistemi con numeri più limitati di variazioni delle sequenze e delle relative funzioni.

Comunque, come già abbiamo accennato, mentre il mercato dei tests sugli acidi nucleici ha già diversi anni di espansione, quello dei microarray per le proteine, causa le maggiori difficoltà tecnologiche, di cui abbiamo fatto cenno stanno progredendo più lentamente nel passare dai laboratori di ricerca al più vasto mercato dei laboratori d'analisi.

Comunque un aspetto che va chiarito che si tratta di mercati piuttosto vasti e complessi che abbracciano non solo vari tipi di diagnostici, ma anche vari tipi di macchine, accessori e servizi che le diverse aziende offrono.

In questo ambito gli USA, dove queste tecnologie sono nate, sono ovviamente all'avanguardia, ma si delinea che, già nel 2006, il mercato europeo dei tests per gli acidi nucleici dovrebbe superare quello USA. Inoltre è previsto che al mercato dei microarray saranno interessati in tutto il mondo, sempre nel 2006, circa 400.000 ricercatori che muoveranno un valore di vendite, per i soli tests diagnostici, superiore ai 2 miliardi di dollari.

Infatti i microarray commerciali offrono una serie di vantaggi su quelli che, per un certo tempo, molti laboratori hanno preferito produrre in proprio. Infatti hanno certamente un miglior potere di risoluzione, una maggiore stabilità, maggiori opzioni di software, assistenza tecnica e, probabilmente, alla fine, un costo inferiore.

Dato che questa tecnologia tende ad espandersi in maniera esplosiva, è previsto anche, che in un futuro non troppo lontano, il numero delle macchine di lettura eccederà le 100.000 unità, per un valore di circa 5 miliardi di dollari.

Le società commerciali che producono microarray o attrezzature dedicate sono ormai numerose.  Riportiamo qui di seguito un parziale elenco con il nome dei prodotti ed un cenno delle caratteristiche principali, ed un altro elenco di compagnie, prevalentemente europee, che producono microarray e di alcuni che producono microarray per proteine di cui forniamo anche gli indirizzi di posta elettronica:

 

NOME

COMPAGNIA

CARATTERISTICHE

Affibody

Affymetrix

Leganti anticorpi simili

Atlas

Clontech

Kits fluorescenti

Bio Door

BioDoor

Kits per DNA

Coming microarray technology

Corning

Vetrini ricoperti

Esensor

Motorola LS

Cdna

HyChip

Hyseq

5-mer oligos

ISAC

VBC Genomics

Kits per allergeni

GEM

Incyte pharm

PCR frammenti

GeneChip

Affymetrix

Oligos su silicio

Gene Connection

Sratagene

Kit completi

LabCffiP

Caliper

Microchanels

LumiCyte

LumiCyte

Chips cattura proteine

MicroMax

NEN

Kits completi

Nano Chip

Nanogen

Spots oligo-electroactivi

ProteinChip

Ciphergen

Proteine per caratterizzazione

Proteo Plex

Novagen

Kits per citochine umane

Schleicher & Schuell

Schleicher & Schuell

Vetrini rapidi

The CelI Chips

Cellomics

Kits per cellule vive

Trinectin

Phylos

Reagenti per cattura

UniGEM

Synteni

0,5-5 kb cDNAs

Universal Reference RNA

Stratagene

RNA umani di riferimento

 

 

Compagnie che offrono microarray per proteine:

 

-Adaptive  Screening

Cambridge UK

www.adaptive-screening.com

-Aspira Biosystems

San Francisco, CA

www.aspirabiosystems.com

- Biancore

Uppsala Svezia

www.biacore.com

- BioArray Solutions

Warren NJ

www.bioarrays.com

- Cambridge Antibody Technology

Cambridge UK

www.cambridgeantibody.com

- Discerna

Cambridge UK

www.discerna.co.uk

- Jerini Array Technologies

Berlin Germania

www.jerini.com

- Nanotype

Grafelfing Germania

www.nanotype.de

- Pepscan

Lelystad Olanda

www.pepscan.nl

- SmartBead Tecnologies

Cambridge UK

www.smartbead.com

- VBC-Genomics

Vienna Austria

www.vbc.genomics.com

- Zeptosens

Witterswill Svizzera

www.zeptosens.com

 

Comunque va sottolineato il merito ed il valore di un'azienda, sia perché è stata l'antesignana, avendo iniziato il 1990, sia perché è, forse. ancora quella che offre la più vasta gamma di prodotti e di servizi, ed è l'Affymetrix di Santa Clara in California, fondata da Stephen Fodor.

Qualcuno ha affermato che quest'azienda, nel suo ambito, ha velleità monolitiche non dissimili da quelle di Bill Gates. ma, ormai è strettamente tallonata da altre che spesso sono emanazioni dirette o indirette di multinazionali, come riferiamo, più in particolare, nel capitolo seguente.

E' facilmente prevedibile che, durante questo secolo, ci sarà una progressiva enorme espansione di test diagnostici di alta qualità basati su microarray sia per gli acidi nucleici che per le proteine.

Molti, se non quasi tutti gli attuali tests diagnostici potranno essere sostituiti da tests basati su microarray per malattie infettive, tumori, malattie cardiache, malattie degenerative, ecc. che riguardano non solo gli uomini ma anche gli animali, oltre a tutta una serie di aspetti fondamentali riguardanti anche tutto il mondo vegetale e per gli alimenti.

La posta in gioco è il sogno delle scienze della vita: è la comprensione solistica, integrale e integrata di ogni sistema vivente. E' la nuova scienza, che alcuni chiamano genomica funzionale ed altri biologia dei sistemi. Ma i nomi non hanno molta importanza. Quello che importa è che ormai ci sono le premesse per credere che, dopo avere sconfitto le malattie infettive, non dovremmo essere lontani dal controllare e sconfiggere anche le malattie degenerative, compreso l'Alzheimer, ed i tumori, che sono certamente il risultato di un danno al DNA cellulare.

Un altro aspetto della massima importanza è che, con i microarray, si sta completando lo studio dell'interazione fra le proteine umane all' interno dei tessuti umani nel corso dell' infiammazione.

La reazione infiammatoria è all'origine di molte patologie molto importanti, perché si innesca automaticamente come risposta dell' organismo a qualsiasi fenomeno che tenda a compromettere o danneggiare le nostre cellule. Questo ci permetterà, intanto, di approfondire l'attività antinfiammatoria dei farmaci che già esistono, per capire come migliorare la loro azione a livello molecolare, ma poi, è certo, che l'approfondimento della proteomica, porterà ad individuare un gran numero di nuove molecole importanti per la profilassi o la terapia di forme morbose verso le quali le nostre capacità d'intervento sono ancora carenti.

Le previsioni descrivono un settore in crescita vertiginosa: Infatti l’ultimo rapporto della Frost & Sullivan stima che da un mercato di 963 milioni di dollari del 2000, si raggiungeranno facilmente i 5,6 miliardi entro il 2006.

COLLABORAZIONI E FINANZIAMENTI

Queste enormi prospettive di sviluppo di questo settore hanno naturalmente attirato l'interesse delle multinazionali e dei governi avveduti, primo fra tutti quello degli USA, per le interessantissime applicazioni che tale tecnologia potrà avere in molti settori di primaria pubblica utilità. Ne riferiamo alcuni esempi:

La Molecular Dynamics, che già era una compagnia pubblica, ossia di cui ognuno poteva acquistare le azioni in borsa, è stata rilevata poi dalla Amersham Pharmacia Biotech.

La Hyseq, che già vantava una propria clientela internazionale in questo settore, ha firmato un contratto di ampio respiro con la Perkin-Elmer per sviluppare tutto ciò che riguarda la diagnostica in qualche modo collegata alla genetica.

La Nanogen è entrata nell'orbita della Becton Dickinson per attuare più rapidamente una serie di programmi collegati alla tipizzazione genica collegata alle malattie infettive e aIe applicazioni forensi. La Nanogen sta anche sviluppando alcuni tipi di elettrodi in grado di apprezzare direttamente l'avvenuta ibridazione degli spots.

La Caliper ha sottoscritto un contratto con la Agilent per sviluppare particolari strumenti di lettura che siano relativamente più economici di quelli attualmente presenti sul mercato. Anche la stessa Affymetrix, che ha precorso i tempi in questo settore, ha firmato un accordo con la BioMerieux per mettere a punto pannelli per eseguire gli antibiogrammi utilizzando particolari agenti patogeni.

Ma chi sta certamente investendo molto in questo settore è la Motorola che ha sottoscritto un accordo con la Packard Instruments ed insieme stanno fInanziando una serie di progetti dell' Argonne National Laboratori, della Orchid, della Genometrix e della Biochip Systems per sviluppare un completo sistema di analisi con particolari microarray, rivestiti di un particolare gel e che siano leggibili anche con strumenti abbastanza semplici, addirittura portatili.

Negli USA i finanziamenti pubblici a questo settore d'avanguardia naturalmente non mancano.

Ricordiamo quelli della DARPA ( Defense Advance Resarch Projects Agency ) che vuole selezionare un sistema portatile e a risposta rapida in grado di svelare la presenza in campioni di agenti patogeni:

La Chepheid, con questo stesso fine, ha sottoscritto un contratto con una copertura di 5 milioni di dollari per tre anni.

La Nanogen ha anche presentato sue proposte progettuali simili ed ha ricevuto un finanziamento di 2,8 milioni di dollari.

La Orchid, in questo stesso ambito, ha presentato un progetto integrato per un sistema analitico rapido ed ha sottoscritto un finanziamento di 12 milioni di dollari.

Altri enti finanziatori negli USA di progetti riguardanti i microarray sono:

The National Institute of Standards and Technology

The Department of Energy

The Human Genome Project

The National Institutes of Health

E' auspicabile che in Europa queste ricerche ricevano adeguati finanziamenti nell'ambito del sesto programma per la Ricerca e lo Sviluppo Tecnologico, che dovrebbe svilupparsi lungo tre direttive.

Concentrare e integrare la ricerca comunitaria.

Strutturare lo spazio europeo della ricerca.

Rafforzare le basi dello spazio europeo della ricerca.

Questo programma è molto più ambizioso dei precedenti perché intende realizzare per l'Europa una base di ricerca profondamente innovativa che possa permettere di colmare il divario con gli USA e porre le basi per il rilancio della ricerca in Europa. Il proposito della Unione Europea. stando alle dichiarazioni date al Consiglio europeo di Lisbona del 2000 è di " divenire, entro il 2010 l'economia basata sulla conoscenza più competitiva e dinamica del mondo".

NUOVO EQUILIBRIO DEL SAPERE

Nel corso degli ultimi due decenni l'automazione sempre più spinta del modo di eseguire le analisi è stata certamente agevolata dall'uso prima di piastrine con 96 pozzetti del volume di 0,5 mI, poi si è passati ai 384 pozzetti ed infine ai 1536 pozzetti e a volumi di microlitri.

Oggi si tende a realizzare quello che gli anglosassoni chiamano " the lab-on-a chip " che implica il rivoluzionario concetto di operare con poche molecole e di far confluire in un unico modulo una serie di processi finora svolti manualmente e separatamente.

Tutto ciò richiede una miniaturizzazione molto spinta delle operazioni ed una accelerazione funzionale con accurata integrazione delle fasi e dei passaggi eseguiti ovviamente in automazione.

Un'altra sicura tendenza sarà quella di realizzare macchine e sistemi portatili che possano operare, anche in spazi limitati, presso il letto del malato o comunque dove richiesti per le applicazioni più diverse. Non dimentichiamo che si va verso un tipo di medicina sempre più personalizzata: Sia la diagnosi ed ancor più la terapia dovrà tener conto delle caratteristiche peculiari genetiche e fisico chimiche dei singoli pazienti in base ad una serie di dati che ancora oggi in gran parte non ci sono noti. Sarà uno scanner collegato ad un computer a stabilire chi siamo veramente, qual è l'origine dei sintomi che avvertiamo e che tipo e dosaggio di terapia sarà più indicato. Quindi l’attività ed la funzione del medico sarànno molto diverse dall'attuale.

Serviranno software in grado di elaborare miliardi di dati e informazioni generati dalle combinazioni di  sequenze, in modo che i medici possano cominciare ad usarle in medicina, bisognerà forse cominciare a stilare una lista prioritaria contenete le variazioni genetiche più importanti su cui concentrare le ricerche

Ma la rivoluzione che si profila non finisce qui perché sarà essenziale determinare gli effetti che l’accesso diffuso a tale tecnologia potrà avere sulla vita delle persone.

E' uno scenario da fantascienza quello illustrato da Rodotà nell'ultima relazione annuale dell'Ufficio del Garante della Privacy: "La retina dell'occhio per identificare una persona, chip inseriti sotto pelle per seguirne i movimenti o che, come ha proposto una società statunitense, possono sostituire una comune Carta di credito.

Si va insomma verso quella che è stata chiamata giustamente la " Networked Person " perché ciascuno di noi, trasmettendo e ricevendo impulsi sarà completamente inquadrato e schedato, sarà sempre rintracciabile per cui abitudini, movimenti e contatti non potranno più sfuggire.

La prospettiva che questo genere d’informazioni personali diventi d’improvviso ampiamente disponibile, solleva anche preoccupazione sul possibile uso improprio dei dati da parte di assicuratori, datori di lavoro, forze dell’ordine, ma anche parenti ed amici. Infatti non è chiaro, per esempio, in che modo si potrà  garantire la privacy e la correttezza nell’uso delle informazioni genetiche personali a cominciare dalle decisioni di natura sia clinica che riproduttiva. Nessuno può prevedere come vivremo e cosa faremo nell’era dei genomi personali finchè non ne sperimenteremo direttamente pregi e difetti

Il nostro corpo sarà rivelato in tutti i suoi più profondi dettagli, per cui diventeremo trasparenti a chiunque voglia sapere tutto di noi e di quello che potrà essere il nostro divenire.

La nostra parola conterà ben poco perché solo una macchina ci dirà cosa veramente siamo. Rodotà ha recentemente esclamato: " Non tutto ciò che è tecnologicamente possibile è socialmente desiderabile, eticamente accettabile, giuridicamente legittimo.”

Noi, in quanto medici protagonisti di questa radicale trasformazione del sapere che, coinvolgendo ogni aspetto della vita vegetale, animale, e quindi anche umana, dovremo tenerne conto e fare in modo che a tale nuovo equilibrio dei nostri rapporti con tutto ciò che ci circonda, si possa arrivare conservando la nostra personalità, anzi rendendola più ricca, proprio perché saremo  consapevoli che, volendo,sarà totalmente evidenziabile.


Torna all'indice

BIBLIOGRAFIA


CAPITOLO UNO

Coffey D.S.

Self-organization,complexity and chaos: The new biology for medicine.

Nature Medicine 4- 882- 1998

 

Cross S. S.,Cotton D. W.k

Chaos and antichaos in pathology

Human Pathology 25- 630- 1994

 

Freeland 8. , Hurst L, D.

The genetic code is one in a million.

J. Mol. Evolution 47- 238- 1998

 

CAPITOLO DUE

 

Altman R,B., Raychaudhuri 8.

Whole genome expression analysis challenges beyond clustering.

Curro Opin. 8truct. BioI. 11- 340- 2001

 

Arcellana -Pandilio M., Robbins 8.M

Global gene expression profiling using DNA microarrays.

Am. J. Phys. Gastr. LiverPhysiol. 282- 397- 2002

 

Baggerly KA et al.

Identifying differentially expressed genes in cDNA microarray experiments.

J. Comput. BioI. 8- 639- 2001

 

Banks R. E. , Dunn M J. et al.

Proteomics: new perspectives,new biomedical opportunities.

Lancet 356- 1749- 2000

 

Brown P.O., Botstein D.

Exploring the new world of the genome with DNA microarray

Nat. Genet. 21 ( Suppl. 1 ) 33-1999

 

Burgess J .K.

Gene expression studies using microarray.

Clin. Exp. Pharmacol. Physiol. 28- 321- 2001

 

Duggan D.J., Bittner M. et aI.

Expression profiling using cDNA microarrays.

Nat. Genet. 2 ( Suppl. 1) 10- 1999.

 

Evans G.A.

Designer science and the “ omic” revolution

Nature Biotecnology 18- 127- 2000

 

Garrod A.E.

The incidence of alkaptonuria: A study in chemical individualty.

Lancet ii-1616-1902

 

GeshwindD. H.

Sharing gene expression data: An array of options.

Nat. Rev. Neurosci. 2- 435- 2001

 

Greenfield A.

Application of DNA microarrays to the transcriptional analysis of mammalian genomes. Mamm.

Genome 11- 600- 2000

 

Harvell L. H.  et al.

From molecular to modularcell biology

Nature 402- 47- 1999

 

Schuchhardt J. Beule D. et al.

Normalization strategies for cDNA microarrays.

Nucleic Acids Res. 28- 47- 2000

 

Schulze A. , Downward J.

Analysis of gene expression by microarrays: cell biologist's gold mine or minefield?

J. Cell. Sci. 113- 4151- 2000

 

Schulze A. , Downward J.

Navigating gene expression using microarrays. A technology review.

Nat. Cell. BioI. 3- 190- 2001

 

Torna all'indice

CAPITOLO TRE

 

Alan R., Gorska M.

Genomic microarrays. Arraying order in biological chaos?

Am. J. Respir. Cell Mol. BioI. 25-405 -2001.

 

Dangond f.

Chips around the world: Proceedings from the Nature Genetics Microarray Meeting.

Physiol. Genomics 2- 53- 2000.

 

Deyholos M.K., Galbraith D. V.

High density microarray for gene expression analysis.

Cytometry 43- 229- 2001

 

Draghici S., Kuklin A. et al..

Experimental design, analysis of variance and slide quality assessment in gene expression array

Curro Opin. Drug Discov. Devel. 4- 332- 2001

 

Fenandez Zapico M.B., Ahmad U.S. et al.

DNA microarrays: revolutionary insight into the living genome.

Surgery 130- 403- 2001

 

Fodor S. P. , Read J. L. et al.

Light directed spatially addressable parallel chemical synthesis.

Science 251- 767- 1991

 

Foster W.R., Huber R. M.

Current themes in microarray experimental design and analysis.

Drug Discov. Today 7- 290- 2002

 

Freeman W.M., Robertson D. J. et al.

Fundamentals of DNA hybridization arrays for gene expression analysis.

Biotecniques 29-1042- 2000

 

Friend S. H., Stoughton R.B.

The magic of microarrays

Sci. Am. 286- 44- 2002

 

Fung E. T., Thulasiraman V. et al.

Protein biochips for differential profiling.

Curr.Opin. Biotechnol.12. 65. 2001

 

Gasterland T., Bekiranov S.

Making the most of microarray data

Nat. Genet. 24- 204~ 2000

 

Gabig M. , Wegrzyn G.

An introduction to DNA chips. Principles, technology, applications and analysis.

Acta Biochim. Pol. 48- 615~ 2001

 

Kane M. D., Jatkoe T. A. et aI.

Assessement of the sensitivity and specificity of oligonucleotide ( 50 mer ) microarrays

Nucleic Acids Res. 28- 4552~ 2000

 

KhanJ., BittnerM. L. et al.

DNA microarray technology. The anticipated impact on the study of human diseases

Biochim. Biophys.Acta 1423~ 17~ 1999

 

Leung Y.F., Lam D. S. et al.

The miracle of microarray analysis.

Genome. BioI. 2~ 2001

 

Maughan N.J., Lewis F. A. et al.

An introduction to the arrays.

J. Pathol. 195~ 3~ 2001

 

Schena M. .Shalon D. et al.

Parallel human genome analysis. Microarray based expression monitoring of 1000 genes.

Proc. Natl. Acad. Sci. USA 93- 10614- 1996

 

Snijders A. M. , Meijer G. A. et al.

Microarray techniques in pathology: Tool or toys?

Mol. Pathol. 53- 289- 2000

 

Southern E.

Detection of specific sequences among DNA fragments separated by gel electrophoresis

J. Mol. BioI. 98- 503- 1975

 

Southern E. , Mir K. et al.

Molecular interaction on microarrays.

Nat. Genet. 21 ( Suppl. 1 )- 5- 1999

 

Steel A. B. ,Torres M. et aI.

Immobilization of nucleic acids at solid surfaces. Effect of oligonucleotide length on layer assembly.

Biophys J. 79- 975- 2000

 

Stillman B. A., Tonkinson J. L.

FAST' slides: A novel surface for microarrays.

Biotechniques 29- 630- 2000

 

Stoll D. , Templin M. F. et aI.

Protein microarray technology.

Front. Biosci. 7- 13- 2002

 

WuT.D.

Analysing gene expression data from DNA microarrays to identify candidate genes.

J. Pathol. 195- 53- 2001

 

Zammatteo N. , Jeanmart L. et al.

Comparison between different strategies of covalent attachment of DNA to glass surfaces to build DNA microarrays.

Anal. Biochem. 280- 143- 2000

 

Zhu H. Bilgin M. et aI.

Global analysis of protein activities using proteome chips.

Science 293- 2101- 2001

 

Zhu H , Sneider M.

Protein arrays and microarrays.

Curro Opin. Chern. Bioi. 5- 40- 2001

 

Ziauddin J. , Sabatini D. M.

Microarrays of cells expressing defined cDNAs

Nature 411-107- 2001

 

Torna all'indice

CAPITOLO QUATTRO

 

Allen J. F.

Bioinformatics and discovery: Induction beckons again.

Bioassays 23- 104- 2001

 

Amaratunga D. , Cabrera J.

Exploration and analysis of DNA microarray and protein array data.

Ed. John Wiley and Sons 2004.

 

Andersen C.L. et al.

Improved procedure for fluorescence in situ on tissue microarrays.

Cytometry 45- 83- 2001

 

Avseenko N. V. et ai.

Immobilization of proteins in immunochemical microarray fabricated by electrospray deposition.

Anal. Chern. 73- 6047- 2001

 

Basarsky et al.

Overview of microarray scanner: Design essentials for an integrated acquisition and analysis platform.

In M. Schena ed. Microarray Biochip Technolgy. Eaton Publishing. Natick MA. 265

2000.

 

Brown C.S., Goodwin P .C. et al.

Image metrics in the statistical analysis of DNA microarray data.

Proc. Natl. Acad Sci. USA 98- 8944- 2001

 

Call D.R., Chandler D.P. et al.

Fabrication of DNA microarrays using unmodified oligonucleotide probes.

Biotechniques 30- 368- 2001

 

Che D., Bao Y., Muller U.R.

Novel surface and multicolor charge coupled device based fluorescent imaging system for DNA microarrays. '

J.Biomed, Opt. '6- 450- 2001

 

Cheung V.G., Morley M. et al.

Making and reading microarrays.

Nat. Genet. 21 (Suppl. 1) 15-1999

 

Diehl F., Grahlrnann S. et al.

Manufacturing DNA microarrays of high spot homogeneity and reduced background signal.

Nucleic Acids Res. 29- 38- 2001

 

Engler D.

Production of microarrays on porous substrates using non contact piezoelectric dispensing.

In M. Schena. Ed. Microarray Biochip Technology. Eaton Publishing. Natrick. MA. 231- 2000,

 

Epstein C.B., Butow R. A.

Microarray technology. Enhanced versatility, persistent challenge.

Curr.Opin.Biotechnol.l1- 36- 2000

 

Galbraith D. W. , Macas J. et al.

Printing DNA microarrays using the Biomek 2000 laboratory automation workstation.

Methods Mol. Biol.170-131-2001

 

Gardiner-Garden M , Littlejohn T. G.

A comparison of microarray databases.

Brief. Bioinform. 2- 143- 2001

 

Goryachev A.B. , Mac Gregor P. P.

Unfolding of microarray data.

J. Comp. Biol. 8- 443- 2001

 

Graves D. J., Su H J. et al.

Four laser scanning confocal system for microarray analysis.

Biotechniques 32- 346- 2002

 

Graves D.J., Su H.J, et aJ.

System for preparing microhybridation arrays on glass slides.

Anal. Chern. 70-5085- 1998

 

Harris T.M., Massimi A. et al.

Injecting new ideas into microarray printing.

Nat. Biotecnol. 18- 384- 2000

 

HeckD.E. , Laskin J.D. etal.

Nucleic acid microarray technology for toxicology. Promise and practicalities.

Adv. Exp. Med. BioI. 500- 709- 2001

 

Hughes T. R., Mao M. et aI.

Expression profiling using microarrays fabricated by an ink-jet oligonucleotide synthesizer.

Nat. Biotechnol. 19- 342- 2001

 

Johnson K. F."Lin S.M.

Critical assessment of microarray data analysis: The 2001 challenge.

Bioinformatics 17- 857- 2001

 

Kalocsai P., Shams S.

Use of bioinformatics in arrays

In DNA Arrays Methods and Protocols

Humana Press, Totowa, New Jersey 2001

 

Kamb A. ,Ramaswami M. A.

A simple method for statistical analysis of intensity differences in microarray derived gene expression data.

BMC Biotechnol. 1- 8- 2001

 

Kanehisa M.

Post-genome informatics

Oxford University Press 2000

 

Kellam P.

Microarray gene expression database: Progress towards an international repository of gene expression data.

Genome Bull. 2- 2001

 

Kerr M.K. , Martin M. et al.

Analysis of variance for gene expression microarray data.

J. Comput. BioI. 7- 819- 2000

 

Khitrov G.

Use of inexpensive dyes to calibrate and adjust your microarray printer.

Biotechniques 30- 748- 2001

 

Kricka L.J.

Nucleic acid detection technologies-labels, strategies and formats.

Clin. Chem. 45-453-1999.

 

Lee M. .Walt D.R. et al.

A fiber optic microarray biosensor using aptamers as receptors.

Anal. Biochem. 282- 142- 2000

 

Kooperberg C. Fazzio, T.G. et al.

Improved background correction for spotted Cdna microarrays.

J.Comput.Biol. 9-55-2002

 

Lee M. L., Kuo F.C. et al.

Importance of replication in microarray gene expression studies: Statistical methods and evidence from repetitive cDNA hybridizations.

Proc.Natl. Acad. Sci. USA 97- 9834- 2000

 

Lee P. H. , Sawan S. P. et al.

An efficient binding chemistry for glass polynucleotide microarrays.

Bioconjug. Chern. 13- 97- 2002

 

Luo I. Y. , Diamandis E.P. et al.

Preliminary examination of time resolved fluorometry for protein array applications.

Luminescence 7- 409- 2000

 

Macas J., Nouzova M. et al.

Adapting the Biomeck 2000 Laboratory Automation Workstation for printing DNA microarrays.

Biotechniques 25- 106- 1998

 

MacBeath G. , Schreiber S. L.

Printings proteins as microarrays for high-throughput function determination.

Science 289- 1760- 2000

 

Marti G.E., Galgalas A. et al.

Recent developments for analyzing cells and microarrays.

Cytometry 42- 263- 2000

 

Moerman R., Frank J. et al.

Miniaturized electrospraying as technique for the production of microarrays of reproducible micrometer-sized protein spots.

Anal. Chern. 73- 2183~ 2001

 

Morozov V. N., Morozova T. Y.

Electrospray deposition as method for mass fabrication of mono and multicomponent microarrays of biological and biologically active substances.

Anal. Chern. 71~ 3110~ 1999

 

Okamoto Y. , Suzuki T. et at.

Microarray fabrication with covalent attachment of DNA using bubble jet technology.

Nat. Biotechnol. 18- 438- 2000

 

Park P. J. , Pagano Met al.

A nonparametric scoring algorithm for identifying informative genes from microarray data.

Pac. Symp. Biocomput. 52~ 63- 2001

 

Petron M. ,Bosdogianni P.

Image Processing:The fundamentals.

John Wiley and Sons, New York

 

Proudnikov D., Tirnofev E. et al.

Immobilization of DNA in polyacrilamide gel for manufacture of DNA and DNA oligonucleotide microchips.

Anal. Biochem. 259- 34- 1998

 

Quackebush L.

Computational analysis of microarray data.

Nat. Rev. Genet. 2- 418- 2001

 

Roda A. , Guardigli M et al.

Protein microdeposition using a conventional ink-jet printer.

Biotechniques 28- 492- 2000

 

Schena M. , Shalon D. et al.

Quantitative monitoring of gene expression patterns with a complementary DNA microarray.

Science 270- 467- 1995

 

Schoenberg Fejzo M., Slamon D. J.

Frozen tumor tissue microarray technology for analysis of tumor DNA, RNA and proteins.

Am. J. Pathol. 159- 1645- 2001

 

Soille P.

Morphological immage  analysis: Pricipless and applications. 2nd Ed. (2003) Springer Verlag, New York

 

Sturn A. , Quackenbush J. et aI.

Genesis: Cluster analysis of microarrays data.

Bioinformatics 18- 207- 2002

 

Thompson A. , Lucchini S. et al.

It's easy to build your own microarrayer !

Trends Microbiol. 9- 154- 2001

 

Thompson M. , Furtado L.M. et al.

High density oligonucleotide and DNA probe array for analysis of target DNA.

Analyst 124- 1133- 1999

 

Tran P.H., Peiffer D.A. et al.

Microarray- optimizations : incrising spot accuracy and automated identification of true microarray signals.

Nucleic Acids  Res. 30-54- 2002

 

Tsodikov A. ,. Szabo A. et al. Adjustments and measures of differential expression for microarray data.

Bioinformatics 18- 251- 2002

 

Wang X.,Ghosh S et al.

Quantitative quality control in microarray image processing and data acquisition.

Nucleic Acids.Res 29-75-2001

 

Wegner G.J. et al.

Surface plasmon resonance imaging measuraments of DNA,RNA, and protein interactions in biomulecular arrays  In :Protein Microarray Tecnology. Ed.Wiley-WCH 2003

 

Yang Y. H., Dudoit S. et aI.

Normalization for c DNA microarray data. A robust composite method addressing single and multiple slide systematic variation

Nucleic Acid Res. 30- 15- 2002

 

Torna all'indice

CAPITOLO CINQUE

 

Blohm D.H., Guiseppi-Elie A.

New developments in microarray technology.

Curr. Opin.. Biotechnol. 12- 41- 2001

 

Bowell D.D.,

Options available- from start to finish- for obtaining expression data by microarray.

Nat.Genet 21 ( Suppl. 1 ) 25- 1999.

 

Fellemberg K., Hauser N.C. et al.

Correspondence analysis applied to microarray data.

Proc. Natl. Acad. Sci. USA 98- 10781- 2001

 

Hegde P.Q., Abernathy K. et al.

A concise guide to cDNA microarray analysis.

Biotcniques 29- 548- 2000

 

Hollon T.

Comparing microarray data: What technology is needed?

J. Natl. Cancer Inst. 93- 1126- 2001

 

Mirzabekov A. , Kolkhinsky A.

Emerging array based technologies in proteomics.

Curr. Opin. Chern. BioI. 6- 70- 2002

 

Mousses S. , Kllioniemi A. et al.

Clinical and functional target validation using tissue and cell microarrays.

Curr. Opin. Chern. BioI. 6- 97- 2002

 

Rampal J. B.

DNA arrays. Methods and protocols

Ed. Umana Press 2001

 

Rajeevan M.S. , Ranamukaarachchi D. G. et al.

Use of real-time quantitative PCR validate the results of DNA array and differential display PCR tecnologies.

Methods 25- 443- 2001

 

Taylor E. , Cogdel D. et al.

Sequence verification as quality control step for the production of cDNA microarrays.

Biotechnique 31- 62- 2001

 

CAPITOLO SEI

 

Almeida R., et al.

From genomes to vaccines: Leishmanias as model. Philos Trans R.

Soc. Lond B Bio., Sci.. 357- 5 -2002

 

Ameen M., Smith.C.H., Barker J.N. Pharmacogenetics in clinical dermatology.

Brit. J. Dermatol. 146- 2- 2002

 

Baba Y.

Development of novel biomedicine based on genome science.

Eur. J. Pharm. Sci. 13- 3- 2001

 

Bains W. ,Smith G.C.

A novel method for nucleic acid sequencing.

J. Theor. Biol. 135-303-1988

 

BarryC. E., SchroederB.G.

DNA microarrays: Translational tools for understanding the biology of Mycobacterium tuberculosis.

Trends Microbiol 8- 209- 2000

 

Bavykin S.G. et al.

Portable system for microbial sample preparation and oligonucleotide microarray analysis.

Appl. Environ Microbiol. 67- 922- 2001

 

Behr MA. et al.

Comparative genomics of BCG vaccines by whole genome DNA microarray.

Science 284- 1520- 1999.

 

Bertucci F., Loriod B. et al.

DNA array. Technological aspects and applications.

Bull. Cancer 88- 243- 2001

 

Bigger C. B. , Brasky K. M. et al.

DNA microarray analysis of chimpanzee liver during acute resolving C virus infection.

J. Virol. 75- 7059- 2001.

 

Blader I. J., Manger ill. et al.

Microarray analysis reveals previously unknown changes in toxoplasma gondii infected human cells.

J.Biol. Chem. 276- 24223- 2001

 

Bubendorf L.

High-throughput microarray technologies from genomics to clinics.

Eur. Urol. 40- 231- 2001

 

Bubendorf L. , Kolmer M.

Hormone therapy failure in human prostate cancer. Analysis by complementary DNA and tissue microarrays.

J. Natl. Cancer Inst. 91- 1758- 1999.

 

Bull J.H.,Ellison G. et al.

Identification of potential diagnostic markers of prostatic cancer and prostatic intraepithelial neoplasia using cDNA microarray.

Brit. J. Cancer 84- 1512- 2001

 

Chaib H. , Cockerell E.K. et al.

Profiling and verification of gene expression patterns in normal and malignant human prostatic tissue by cDNA microarray analysis.

Neoplasia 3- 43- 2001

 

Chizhikov V., Rasooly A.

Microarray analysis of microbial virulence factors.

Appl. Environ Microbiol. 67- 3258- 2001

 

Cojocaru G.S., Rechavi G. et al. The use of microarray in medicine.

Isr. Med. Assoc J. 3- 292- 2001

 

Coombes B. K.. Mahony B.

cDNA array analysis of altered gene expression in human endothelial cells in Chlamydia pneumoniae infection.

Infect. Immun. 69- 1420- 2001

 

Cooper C. S.

Application of microarray technology in breast cancer research.

Breast Cancer Res. 3-158- 2001

 

Cummings C.A, ReIman D.A.

Using DNA microarrays to study host- microbe interaction.

Emerg, Infect. Dis. 6- 513- 2000

 

Dhiman N., Bonilla R. et al.

Gene expression microarrays: A 21 st century tool for directed vaccine design.

Vaccine 20- 22- 2001

 

Dorell N., Mangan J.A et al.

Whole genome comparison of Campylobacter jejuni human isolates using a low cost microarray reveals extensive genetic diversity.

Genome Res. 11-1706-2001

 

Favis R., Barany F.

Mutation detection in K-ras, BRCA 1, BRCA 2 and p 53 using PCR/LDR and a universal microarray.

Ann. N. Y. Acad. Sci. 906- 39- 2000

 

Ghazal P.

DNA microarray technology and integrative viral genomics.

Drug Discov. Today 6- 1046- 2001

 

Ghazizadeb M., Kawanami O. et al.

Assessment of gene expression profile by cDNA microarray analysis.

J. Nippon Med. Sci. 68- 460- 2001

 

Grouse L. H., Munson P. J. et al,

Sequence databases and microarrays as tools for identifying prostate cancer biomark

Urology 57 (Suppl.l) 154 -2001

 

Hacia J. G.

Resequencing and mutational analysis using oligonucleotide microarrays.

Nat. Genet. 2 (Suppl. 1) 42- 1999.

 

Hacia J. G., Collins S. E.

Mutational analysis using oligonucleotide microarrays.

J. Med. Genet. 36- 730- 1999.

 

Hacia J. G., Edgemon K. et al.

Oligonucleotide microarray based detection of respective sequence changes.

Human Mutat 10- 354- 2000

 

Hanash S. M.

Global profiling of gene expression in cancer using genomics and proteomics.

Curro Opin. Mol. Ther. 3- 538- 2001

 

Harkin D.P.

Uncovering functionally relevant signaling pathways using microarray based expression profiling.

Oncologist 5- 501- 2000

 

Hegde P.Q., Gaspard R. et al.

Identification of tumor markers in models of human colorectal cancer using a 19.200 element complementary DNA microarray.

Cancer Res. 61- 7792- 2001

 

Heller R.A., Schena M. et al.

Discovery and analysis of inflammatory disease related genes using cDNA microarray.

Prato Natl. Acd. Sci. USA 94- 2150- 1997

 

Hippo Y., Taniguchi H et al.

Global gene expression analysis of gastric cancer by oligonucleotide microarray.

Cancer Res. 62- 233- 2002

 

Horvath L., Henshall S.

The application of tissue microarrays to cancer research.

Pathology 33- 125- 2001

 

Howell S. B.

DNA microarrays for analysis of gene expression

Mol. Urol. 3- 295- 1999

 

Hsieh H.B., Lersch R.A.

Monitoring signal trasduction in cancer cDNA microarray for semiquantitative analysis.

Histochem. Cytochem. 49- 1057- 2001

 

Hui A. B., Lo K. W. et at.

Genome wide detection of oncogene amplifications in nasopharyngeal carcinoma by array base comparative genomic hybridization.

Int. J. Oncol. 20- 467- 2002

 

Israel D. A. , Salama N. et al.

Helicobacter pilori strain specific differences in genetic content, identified by microarray influence host inflammatory responses.

J. Clin. Invest. 107- 611- 2001

 

Kan T. , Shimada Y. et al.

Gene expression profiling in human esophageal cancers using cDNA microarray.

Biochem. Biophys. Res. Commun. 286- 792- 2001

 

Kannan K., Amariglio N. et al.

DNA microarray identification of primary and secondary target genes regulated by p53.

Oncogene 20- 2225- 2001

 

Kannan K. , Kaminski N. et al.

DNA microarray analysis of gene involved in p53 mediated apoptosis. Activation of Apf 1.

Oncogene 20-3449- 2001

 

Kato-Maeda M.~ Gao Q. et al.

Microarray analysis of pathogens and their interaction with hosts.

Cell Microbiol. 3- 713- 2001

 

Kellam P.

Post genomic virology: The impact of bioinformatics, microarrays and proteomics on investigating host and pathogen interactions.

Rev. Med. Virol. 11-313- 2001

 

Kelly D. L. , Rizzino A.

DNA microarray analysis for genes regulated during the differentiation of embryonic stem cells.

Mol. Reprod. Dev. 56- 113- 2000

 

Khan J., Simon R. et al.

Gene expression profiling of alveolar rhabdomiosarcoma with c DNA microarray.

Cancer Res. 58- 5009- 1998

 

Kitchen W. H, Byrne M. C. et al.

Using a DNA chips to unravel the genetics of type 1 diabetes.

Diabetes Technol. Ther 2- 249- 2000

 

Lau W. Y. , LaiP.B. et al.

Differential gene expression of epatocellular carcinoma using cDNA microarray analysis.

Oncol. Res. 12- 59- 2000

 

Li J., Chen S. et al.

Typing and subtyping influenza virus using DNA microarrays and multiplex reverse transcriptase PCR.

J. Clin. Microbiol. 39- 696- 2001

 

Lucchini S. , Thompson A. et al.

 Microarray for microbiologists

Microbiology 147- 1403- 2001

 

Lueking A., Horn M. et al.

Protein microarrays for gene expression and antibody screening.

Anal. Biochem. 270- 103- 1999

 

Markert J.M., Fuller C.M. et al.

Differential gene expression profiling in human brain tumors.

Physiol. Genomics 5- 21- 2001

 

Masters J. R. , Lakhani S.R.

How diagnosis with microarray can help cancer patients.

Nature 404- 921- 2000

 

Mezzasoma I., Bacarese-Hamilton T. et al.

Antigen microarrays for serodiagnosis of infectious diseases~.

Clin. Chern. 48- 121- 2002

 

Miller J. C. ,Butler E. B. et al.

The application of protein microarray to serum diagnostics: Prostate cancer as a test case.

Dis. Markers 17- 225- 2001

 

Mills J. C. , Roth K. A. et al.

DNA microarray and beyond completing the journey from tissue to cell.

Nat. Cell. Bull 3-175- 2001

 

Mirnic K.

Microarray in brain research: The good, the bad and the ugly.

Nat. Res. Neurosci. 2- 444- 2001

 

Moch H. , Schraml P.

Identification of prognostic parameters for renal cell carcinoma by cDNA arrays and cell chips.

Verh. Dtsch. Ges.Pathol. 83- 225- 1999

 

NoordewierM. O., Warren P.V.

Gene expression microarrays and the integration of biological knowledge.

7 Trends Biotechnol. 19- 412- 2001

 

Nuwaysir E. F.~ Bittner M. et al.

Microarrays and toxicology. The advent of toxicogenomics.

Mol. Carcinog. 24- 153- 1999

 

Okabe H. , Satoh S. et al.

Genome wide analysis of gene expression in human hepatocellular carcinomas using cDNA

microarray. Identification of gene involved in viral carcinogenesis and tumor progression.

Cancer Res. 61- 2129- 2001

 

Ono K. , Tanaka T. et al.

Identification by c DNA microarray of gene involved in ovarian carcinogenesis.

Cancer Res. 60- 5007- 2000.

 

Pinheiro N.A., Caballero O.L. et al.

Significant overexpression of oligophrenin-1 in colorectal tumors detected by cDNA microarray

analysis.

Cancer Lett. 172- 67- 2001

 

Pollack J.R , Perou C. M. et al.

Genome wide analysis of DNA copy number changes using cDNA microarrays.

Nat. Genet. 23- 41- 1999

 

Ramarathnam R., Subramaniam S.

A novel microarray strategy for detecting genes and pathways in microbes with unsequenced

genomes. .

Microb. Comp. Genomics 5. 153- 2000

 

Revel A. T., Talaar A. M. et al.

DNA microarray expression in Borrelia burgdorferi, the Lyme disease spirochetes

Proc. Natl. Acad. Sci. USA 99- 1562- 2002

 

Rew D.A.

DNA microarray technology in cancer research.

Eur. J. Surg. Oncol. 27- 504- 2001

 

Rubin M. A.

Use of laser capture microdissection cDNA microarrays, and tissue microarrays in advancing our understating of prostate cancer

J. Pathol. 195- 80- 2001

 

Saiki R, Walsh P.S. et al.

Genetic analysis of amplified DNA with immobilized sequence specific oligonucleotide probes.

Proc. Natl. Acad. Sci. USA  86-6230- 1989

 

Sallinen S.L. Sallinen P .K. et al.

Identification of differentially expressed genes in human gliomas by DNA microarray and chip techniques.

Cancer Res. 60- 6617" 2000

 

Schena M

Genome analysis with gene expression microarrays.

Bioassays 18" 427- 1996

 

Schraml P., Kononen J. et al.

Tissue microarrays for gene amplification surveys in many different tumor types.

Clin. Cancer Res. 5- 1966- 1999

 

Selaro F. M. , Zou T. et al.

Global gene expression profiling in Barrett's esophagus and esophageal cancer. A comparative analysis using cDNA microarrays.

Oncogene 21- 475- 2002

 

Soini H. .Musser J. M.

Molecular diagnosis of mycobacteria.

Clin. Chern. 47- 809- 2001

 

Southern E. M.

Detection of specific sequences among DNA fragments  separated by gel electrophoresis.

J. Mol. Biol 98-503-1975

 

Stephens C.

Bacterial cell cycle. Seeing the big picture with microarrays.

Curro BioI. 11- 222- 2001

 

Takemasa I. , Higuchi H. et at.

Construction of preferential cDNA microarray specialized for human colorectal carcinoma: molecular sketch of colorectal cancer.

Biochem. Biophys Res. Commun. 285 1244- 2001

 

Triche T. J. , Sholfield D. et al.

DNA microarrays in pediatric cancer.

CancerJ. 7" 2- 2001

 

Tsirulnikov N. , Shoat M.

Microarray technology -Clinical aspects.

Harefua 140- 1072- 2001

 

Wallace R H, ShafferJ.,et. Al.

Hybridazation of synthetic oligodeoxyribonucleotides to X 174 DNA.

Nucleic Acids  Res. 6-3543-1979

 

Wang K. , Gan L. et al.

Monitoring gene expression profile changes in ovarian carcinomas using cDNA microarray.

Gene 229- 101- 1999

 

Xerri L.

Recent advance in the classification of tumors using microarrays.

Annal. Pathol. 20- 396- 2000

 

YeR. W. ,WangT. et al.

Applications of DNA microarrays in microbial systems.

J. Microbiol. Methods 47- 257- 2001

 

ZhangH. , Yu C. Y. et al.

Recursive partitioning for tumor classification with gene expression microarray data

Proc. Natl. Acad. Sci. USA 98- 6730-2001

 

Torna all'indice

CAPITOLO SETTE

 

Barrans J. D. , Stamatiou D. et al.

Construction of a human cardiovascular cDNA microarray: Portrait of the failing heart.

Biochem. Biophys. Res. Commun. 280- 964- 2001

 

Braxton S., Bedilion T.

The integration of microarray information in the drug development process.

Curr. Opin. Biotechnol. 9- 643- 1998

 

Brockman P., Tamminga C.A.

The human genome: Microarray expression analysis.

Am. J. Psychiatry 158- 1199- 2001

 

Cartwright C.P.

Pharmacogenetics: The Dx Perspective

Expert Review of Molecular Diagnostics 1-371- 2001

 

Chen C.C., Shieh B. et aI.

Microarray profiling of gene expression patterns in bladder tumor cells treated with genistein.

J. Biomed. Sci. 8- 214- 2001

 

Clarke P .A., Poe1e R. et al.

Gene expression microarray analysis in cancer biology, pharmacology, and drug development progress and potential.

Biochem. Pharmacol. 62- 1311- 2001

 

Debouk C., Goodfellow P.N.

DNA microarray in drug discovery and development.

Nat. Genet. 21 ( Suppl. 1) 48-1999

 

Dramac,R. ,Crkvenjakov R

Method of sequencing of genomes by hybridization with oligonucleotidi probes Domanda di brevetto iugoslavo a cui poi è seguita la U.S. Patent no 5,202,231 ( 1993).

 

Friend S.H.

How DNA microarrays and expressions profiling will affect clinical practice.

Brit. Med. J. 319- 1306- 1999

 

Genoud T., Trevino Santa Cruz M.B. et al. Numeric simulation of plants signaling networks.

Plant Phisiol.126- 1430" 2001

 

Gmuender H.

Perspectives and challenges for DNA microarrays in drug discovery and development.

Biotecniques 32- 152- 2002

 

Greemberg S.A.

DNA microarray gene expression analysis technology and its application to neurolog disorders.

Neurology 57- 755- 2001

 

Haab B. B.

Advances in protein microarray technology for protein expression and interaction profiling.

Cuur. Opin. Drug Discov. Devel 4- 116 2001

 

Harmer S.L., Kay S.A.

Microarray determining the balance of cellular trascription.

Plant Cell. 12- 613 2000

 

Harris B.D.

Differential PCR and DNA microarrays. The modem era of nutritional investigations.

Nutrition 16- 714- 2000

 

Hertzberg M, , Sievertzon M.

c DNA microarray analysis of small plant tissue samples using a cDNA tag target amplification protocol.

Plant J. 25" 585- 2001

 

Hess P., Cooper D.

Impact of Pharmacogenetics on the Clinical Laboratory

Molecular Diagnostics 4- 289- 1999

 

Ho I., Guo Y. et al.

Altered expression of a-type but not b-type synapses isoform in the brain of patients of high risk for Alzheimer's disease assessed by DNA microarray technique.

Neurosci. Lett. 298- 191- 2001

 

Ibarrola N. , Pandey A.

Integrating DNA and tissue microarrays for cancer profiling.

Trends Biochem. Sci. 26- 589- 2001

 

Ivanov I.. Schaab C. et al.

DNA microarray technology and antimicrobial drug discovery.

Pharmacogenomics 1- 169- 2000.

 

Jain K. K.

Application of biochip and microarray systems in pharmacogenomics.

Pharmacogenomics 1- 289- 2000

 

Kallioniemi O.P.

Biochip technology in cancer research.

Ann. Med. 33- 142- 2001

 

Kallioniemi O. P., Wagner U. et al.

Tissue microarray technology for high throughput molecular profiling of cancer.

Hum. Mol. Genet. 10- 657- 2001

 

Kanamaru R.

Cancer diagnosis using microarray technologies.

Gan. To Kagaku Ryobo 27- 949- 2000

 

Kauraniemi P., Barlund M. et al.

New amplified and highly expressed genes discovered in the ERBB 2 amplicon in breast by cDNA microarray.

Cancer Res. 61- 8135- 2001

 

Kehoe D. M. , Villand P. et al.

DNA microarray for studies of higher plants and other photosynthetic organisms.

Trends Plant Sci. 4-38- 1999

 

Kihara C. , Tsunoda T. et aI.

Prediction of sensitivity of esophageal tumors to adjuvant chemotherapy by cDNA mic analysis of gene expression profiles.

Cancer Res. 61- 6474- 200 1

 

Knezevic V. , Leethanakul C. et at.

Proteomic profiling of the cancer microenvironment by antibody arrays.

Proteomics 1- 1271- 2001

 

Kricka L. J.

Microchips, microarrays, biochips and nanochips. Personal laboratories for the 21 st century

Clin. Chim. Acta 307- 219- 2001

 

Kuipers O. P., de Jong A et al.

DNA microarrays and food biotechnology

Antonie Van Leuwenhoeck 76- 353- 1999

 

Kurella M. , Hsian L.L. et aI.

DNA microarray analysis of complex biologic processes.

J. Am. Soc. Nephrol 12- 1072- 2001

 

Lewohl J. M , Dodd P.R. et al.

Application of DNA microarrays to study human alcoholism.

J. Biomed. Sci. 8- 28- 2001

 

Macoska J. A.

The progressing clinical utility of DNA microarrays.

CA Cancer J. Clin 52- 50- 2002

 

McCormack G. W.

Subcellular micromolecular pharmacotherapy using computer assisted microarray analysis.

J. Natl. Cancer Inst. 95-1350- 2000

 

McMichael T.

Malattia, uomo e ambiente. La storia ed il futuro

Edizioni Ambiente 2002.

 

McMeldrum D.

Automation for genomics, part two: sequencers, microarrays, and future trends.

Genome Res. 10- 1288- 2000

 

Schmitz G., Aslanidis C., Lackner K. J.

Pharmacogenetics: Implications for Laboratory Medicine.

Clinica Chimica Acta 308-43- 2001

 

Mimics K. , Middleeton F. A. et aI.

Molecular characterization of schizophrenia viewed by microarray analysis of gene expression in prefrontal cortex.

Neuron 25- 53- 2000

 

Miyachi H.

The present status and future prospect of the molecular diagnostic tests.

Rinsho Byori 49- 139- 2001

 

Moch H. , Kononen T. et al.

Tissue microarrays. What will they brig to molecular and anatomic pathology ?

Adv. Anat. Pathol. 8- 14- 2001

 

Nelson N.

Microarrays pave the way to 21 st century medicine.

J. Nat!. Cancer Inst. 88- 1803- 1996

 

Nguyen D. V., Roch D. M. et al.

Tumor classification by partial least squares using microarray gene expression data.

Bioinformatics 18- 39- 2002

Pasinetti G. M

Use of cDNA microarray in the search for molecular markers involved in the onset of Alzheimer disease dementia.

J. Neurosci. 65- 471- 2001

 

Paweletz C.P., Charboneau I. et at.

Reverse phase protein microarrays witch capture disease progression show activation of pro survival pathways at the cancer invasion front.

Oncogene 20- 1981- 2001

 

Petrik J.

Microarray technology. The future of blood testing?

Vox Sang. 80- 1- 2001

 

TsangW. M.

Surveys on the use of cardiac markers in the UK

Ann.Clin. Biochem. 40- 138- 2003

 

Richmond T. , Somerville S.

Chasing the dream. Plant EST microarrays.

Curro Opin. Plant Bioi. 3- 108- 2000

 

Rockett J. C., Dix D. J.

Application of DNA arrays to toxicology.

Environ. Health Pespect. 107- 681- 1999.

 

Rowland O. , Jones J. D.

Unraveling regulatory networks in plant defense using microarrays.

Genome BioI. 2- 200 1

 

Schaffer R., Landgraf J. et al.

Microarray analysis of diurnal and circadian- regulated genes in arabidopsis .

Plant Cell 13- 113- 2001

 

SchneiderM. D., SchwartzR. J.

Chips ahoy: Gene expression of falling hearts surveyed by high density microarrays.

Circulation 102- 3026- 2000

 

Sinclair D.A.

Toward a unified theory of caloric restriction and longevity regulation.

Mechanisms of ageing and development  126-987- 2005

 

Srivastava M. , Edelman O. et al.

Pharmacogenomics of the cystic fibrosis transmembrane conductance regulator ( CFTR ) and the cystic fibrosis drug CPX using genome microarray analysis.

Mol. Med 5- 753- 1999

 

Steinman I.

Gene microarrays and experimental demyelinating disease. A tool to enhance serendipity.

Brain 124- 1897- 2001.

 

Tannapfel A, Geissler F. et al.

Analysis of liver allograft rejection related genes using cDNA microarrays in liver allograft specimen.

Traspl. Proc.33-3283-2001

 

Thomas R. S. , Rank D. R. et al.

Identification of toxicologically predictive gene sects using cDNA microarrays.

Mol. Pharmacol. 60- 1189- 2001

 

Thusher V. G. ,Tibshirani R. etal

Significance analysis of microarrays applied to the ionizing radiation response.

Proc. Nat. Acad. Sci. USA 98- 5 I 16- 200 I

 

Unger M..A. Rishi M. et al.

Characterization of adjacent breast tumors using oligonucleotide microarrays.

Breast Cancer Res. 3- 336- 2001

 

Van't Ver L. J. , De Jong D. et al.

The microarray way to tailored cancer treatment

Nat. Med. 8- 13- 2002

 

VawterM. F. , Barret T. et al.

Application of cDNA microarrays to examine gene expression differences in schizophrenia.

Brain Res. Bull. 55- 641- 2001

 

WangH. WangH. etal.

Tissue microarrays: Applications in neuropathology research, diagnosis and education.

Brain Pathol. 12- 95- 2002

 

Wiltshire S. , 0' Mailey S. et al.

Detection of multiple allergen specific IgEs on microarrays by immunoassay with rolling circle amplification

Clin .Chern. 46- 1990- 2000

 

Witowski N. E. , Leiendecker-Foster C. et al.

Microarray - based detection of select cardiovascular disease markers.

Biotecniques 29- 936- 2000

 

Yano K, Miki Y.

Perspectives of postgenome medicine.

Cancer Nippon Rinsho 59- 31 ~ 2001

 

Zanders E. D.

Gene expression analysis as an aid to the identification of drug targets.

Pharmacogenomics 1- 375- 2000

 

Torna all'indice

CAPITOLO OTTO

Church G.

Let us go forth and safety multiply.

Nature 438-449-2005

 

Endy D.

Foundation for engineering biology

Nature 438-449 2005

 

CAPITOLO NOVE

Jensen K.,Murray F.

Intellectual Property Landscape of the human genome.

Science 310-239-2005

 

Rampal J. B. .

DNA Arrays. Methods and Protocols

Ed. Humana Press 2001

 

Schena M.

Microarray analysis.

Ed .Wiley.Liss 2002

 

Shendure J.,Mitra R .D. et al.

Advanced sequencing technologies:Methods and goals.

Nature Reviews Genetics 5-335-2004

 

Spellman P. T.

The future of publishing microarray data.

Brief Bioinform. 2- 316- 2001

 

Sreekumar A. , Nyan M. K. et aI.

Profiling of cancer cells using protein microarrays. Discovery of novel radiation- regulated proteins.

Cancer Res. 61- 7585- 2001

 Download formato libro