Le tappe storiche del Progetto Genoma Umano e gli eventi successivi
- Articolo del prof. Sergio Barocci (Università della terza età – UNITRE Genova e UNIGE Senior)
Il sistema Roche 454 è stato il primo sequenziatore NGS (Next Generation Sequencing) lanciato sul mercato nel 2007 come 454 GS FLX Titanium , basato sul pyrosequencing, una tecnologia così chiamata per via dell’incorporazione di pirofosfati sfruttati nella reazione di sequenziamento del DNA. Il sequenziatore 454 riconosce la sequenza grazie al susseguirsi di segnali luminosi causati dal distacco di un pirofosfato ogni volta che un nucleotide è incorporato nel filamento in crescita.
I frammenti che compongono la libreria di DNA (DNA library cioè l’insieme dei frammenti preparati per mezzo dell’aggiunta di adattatori) vengono denaturati allo scopo di ottenere filamenti singoli catturati da piccole sfere (amplification beads) sulla cui superficie vengono ancorati oligonucleotidi che riconoscono e legano gli adattatori o adaptors, opportunamente aggiunti alle estremità di ogni filamento.
Segue poi un processo chiamato PCR in emulsione (emulsion PCR). Successivamente gli amplificati sono posti su un supporto (picotiter plate) su cui avviene la reazione di sequenziamento vera e propria. Da qui, gli amplificati vengono cimentati con una soluzione contenente un solo dNTP (deossinucleoside trifosfato) per volta (insieme ad altri reagenti che hanno lo scopo di catalizzare l’eventuale reazione luminosa).
Se il dNTP somministrato (dATP, dGTP, dCTP o dTTP) risulta complementare alla prima base da copiare, esso viene incorporato nel filamento in crescita, scatenando una reazione luminosa causata dal rilascio del pirofostato. Il dNTP in eccesso viene poi degradato da un enzima apirasi e lavato via. Gli amplificati , quindi, trattati con il dNTP successivo e così via. Le reazioni luminose che avvengono sono registrate ed elaborate dalla macchina, il cui software ricostruisce la sequenza. Questo sistema, in cui i dNTP vengono aggiunti uno alla volta ad ogni ciclo successivo, si dice sistema a interrogazione di singolo nucleotide.
Ma perché sequenziare l’intero genoma umano?

La conoscenza dell’intero genoma umano conduce a possedere tutte le pagine del manuale necessario per costruire il corpo umano.
Ma la cosa importante è come leggere il contenuto di queste pagine e comprendere come le singole parti funzionano e interagiscano. Tutto questo vuole dire cercare di identificare i geni che controllano i vari passaggi di ciascuna via metabolica e di scoprire quali variazioni sono associate a patologie o predispongono a malattie. Quindi, avere a disposizione l’intera sequenza del genoma permette di sviluppare metodi diagnostici efficaci con la finalità di inquadrare meglio le necessità sanitarie delle persone, basandosi sulla composizione genica dell’individuo permettendo lo sviluppo di nuovo farmaci più efficaci e mirati.
La nascita del Progetto Genoma Umano

A partire dagli anni’70 due nuove tecnologie cambiarono radicalmente il campo della ricerca biologica, consentendo la lettura del genoma di ogni organismo vivente. La prima di queste tecnologie fu il clonaggio del DNA che ha permesso di preparare le genoteche di DNA (collezione completa di frammenti di DNA, inseriti singolarmente in un vettore di clonaggio che può essere un plasmide, un cosmide o un fago; possono essere di DNA genomico o di cDNA); la seconda, invece, fu rappresentata dall’invenzione dei metodi di sequenziamento del DNA: il metodo di taglio chimico sviluppato da Allan Maxam (28ottobre 1942 – ) e Walter Gilbert (21marzo 1932 – ) e il metodo enzimatico di Frederick Sanger per stabilire con precisione come sono disposte una dopo l’altra le quattro basi azotate, A = adenina, G = guanina, C = citosina, T = timina, in lunghissime sequenze di milioni o miliardi di basi.
Walter Gilbert, biochimico statunitense, ha vinto il Premio Nobel Premio Nobel per la Chimica nel 1980, per il suo lavoro pionieristico nell’ideazione di metodi per determinare la sequenza dei nucleotidi nel DNA. Frederick Sanger, chimico britannico, ha conseguito anche lui il Premio Nobel per la Chimica nel 1980 per il sequenziamento degli acidi nucleici.
l’anello di congiunzione fra la ricerca genetica e la ricerca genomica

Pertanto, oggi, possiamo affermare che il Progetto Genoma Umano ha rappresentato, sostanzialmente, l’anello di congiunzione fra la ricerca genetica e la ricerca genomica.
Tale Progetto, chiamato in inglese HGP (Human Genome Project), ebbe le sue origini ideologiche già a partire dai primi anni ’80, quando i due più importanti laboratori per lo sviluppo della genetica umana in relazione allo sviluppo delle armi nucleari rispettivamente a Los Alamos (Nuovo Messico) e a Livermore (California) incominciarono a lavorare al progetto Biblioteca Genetica.
In particolare, tale progetto iniziò a prendere la sua vera forma grazie ai precedenti anni di lavoro finanziati dal Dipartimento dell’Energia degli Stati Uniti d’America (DOE) interessato, a quel tempo, alla valutazione degli effetti provocati dalle mutazioni nell’ambito di programmi nucleari civili e militari e poi dopo un workshop, nel mese di dicembre del 1984 ad Alta nello Stato dello Utah, organizzato dallo stesso Dipartimento per valutare l’efficacia delle tecnologie utilizzate all’identificazione di mutazioni.
La possibilità di decodificare il genoma umano per intero

Tuttavia, la possibilità di decodificare il genoma umano per intero, per la prima volta, fu presa in considerazione nel maggio del 1985 da un certo Robert Sinsheimer (1920 – 2017) dell’Università della California di Santa Cruz durante un convegno da lui stesso organizzato, mentre nel mese di dicembre dello stesso anno Kary Mullis ( 1944 – 2019) alla Cetus Corporation sviluppava la tecnica dell’amplificazione a catena polimerasica o PCR (Polymerase Chain Reaction) per amplificare le sequenze del DNA, che ben presto rivoluzionerà il modo di fare biologia molecolare.
Infatti, in precedenza, i metodi di studio del DNA richiedevano enormi quantità di materiale genetico, specialmente di buona qualità ma che non sempre era possibile ottenere.
Questa tecnologia ha permesso di analizzare singoli tratti di singoli geni a partire da quantità di DNA infinitesimali, dal momento che questa molecola poteva essere amplificata grazie a dei speciali enzimi come la Taq polimerasi e prodotta in quantità sufficienti per la sua analisi
FATTIBILITà

Il biochimico statunitense Kary Mullis ha ricevuto il Premio Nobel per la Chimica nel 1993, per aver messo a punto la tecnica della PCR.
Nel febbraio del 1986 Sidney Brenner del Medical Research Council, Cambridge, U.K. propose all’Unione Europea di mettere a punto un programma che riguardava la mappatura e il sequenziamento dell’intero genoma. Ma l’importanza e la fattibilità di questo progetto furono ribadite nel marzo del 1986 a Santa Fè nel Nuovo Messico in un meeting organizzato dal Ministero dell’Energia degli Stati Uniti.
Il biologo sudafricano Sydney Brenner ha condiviso con H. Robert Horvitz (8maggio 1947 – ) e John E. Sulston (24marzo 1942 – 6marzo 2018) il premio Nobel per la Medicina nel 2002 “per le loro scoperte sulla regolazione genetica dello sviluppo degli organi e sulla morte cellulare programmata“.
LA BIOLOGIA MOLECOLARE DELL’Homo Sapiens

Nel mese di giugno 1986 gli aspetti salienti del Progetto Genoma Umano furono caldamente dibattuti al Congresso “The Molecular Biology of Homo Sapiens” tenutosi al Cold Spring Harbor Laboratory nello stato di New York e nello stesso mese giunse l’annuncio da parte di Leroy Edward Hood e di Lloyd Smith (3ottobre 1954 – ), del California Institute of Technology (Caltech, Pasadena ), della creazione della prima macchina automatica per il sequenziamento del DNA.
Nello stesso periodo di tempo, Renato Dulbecco (1914 – 2012) del Salk Institute di La Jolla California, espose in un editoriale pubblicato dalla rivista «Science» l’idea di mappare il DNA umano per poter sconfiggere il cancro e per capire alcuni dei fenomeni biologici che lo coinvolgevano. Renato Dulbecco è stato un biologo e medico italiano, insignito del premio Nobel per la medicina nel 1975, per la scoperta del meccanismo d’azione di virus tumorali nelle cellule animali.
alcune iniziative sul genoma umano

Si arrivò così all’anno 1987 dove nel mese di aprile la DOE pubblicò un documento nel quale furono individuate alcune iniziative sul genoma umano che dovevano essere potenziate : a) la realizzazione di mappe fisiche dei cromosomi umani a diverse risoluzioni, b) lo sviluppo di tecnologie di supporto per la ricerca sul genoma umano, c) il potenziamento della divulgazione delle informazioni e in particolare la realizzazione di un apposito software di database.
Agli inizi del Progetto Genoma Umano, le librerie di DNA genomico disponibili contenevano inserti lunghi fino a 40 kb, i cloni cosmidici. Una libreria di questo tipo con inserti di tali dimensioni avrebbe dovuto essere costituita da diverse centinaia di migliaia di cloni differenti affinché il 100% del genoma umano fosse rappresentato nella libreria.
cromosomi artificiali

Ecco che, per ridurre il numero dei cloni, nel maggio del 1987, Maynard Olsen e colleghi svilupparono alla Washington University di S. Louis, Missouri, dei nuovi metodi che utilizzavano dei vettori impiegati nella tecnologia del DNA ricombinante, i cosiddetti cromosomi artificiali di lievito o YACs (Yeast Artificial Chromosomes). Combinando piccole sequenze derivate da questi cromosomi di lievito con grossi frammenti di DNA umano fu possibile produrre molecole ibride contenenti inserti umani lunghi anche alcune megabasi (Mb), ma che nelle cellule di lievito si comportavano ancora come cromosomi.
Questo processo consentì un loro uso, inizialmente intensivo, negli studi sui genomi degli eucarioti superiori.
YAC & BAC

Ma poi, quando si scoprì che il DNA clonato nei vettori YAC poteva essere costituito da DNA proveniente da posizioni diverse del genoma, il Progetto Genoma Umano iniziò a muoversi verso altre direzioni: la creazione di mappe geniche cioè di trascritti ad alta risoluzione e l’utilizzo di mappe di siti STSs (sequence tagged sites) impiegando cloni di nuova generazione 3 ottenuti non più da YAC ma da altri tipi di vettori artificiali di DNA come i cromosomi batterici artificiali o BAC (bacterial artficial chromosome) basati sul plasmide F isolato da Escherichia coli, i quali, nonostante i loro inserti fossero più piccoli della lunghezza di 100-200 kb, rimediavano alle problematiche di stabilità e di affidabilità riscontrate con i cloni YAC. Da questo momento come stampi fisici per il sequenziamento venne utilizzata una varietà di librerie diverse di BAC umani.
Helen Donis Keller

Ad Ottobre del 1987 Helen Donis-Keller e il suo gruppo di ricerca produssero la prima mappa genetica dell’intero genoma umano mentre altri scienziati di un’azienda chimica, la Du Pont fondata a Wilmington nello stato del Delaware, svilupparono, invece, un sistema per il sequenziamento rapido del DNA con dideossinucleotidi marcati con fluorocromi diversi (ddNTPs) a terminazione di catena.
In tal modo, anziché quattro reazioni distinte per ogni nucleotide modificato, si fornì la possibilità di effettuare una sola reazione utilizzando i quattro ddNTPs marcati con fluorocromi in modo diverso tra loro con l’uso di lettori ottici appropriati (ogni filamento di DNA fu così in grado di emettere una luce di colore diverso in base al nucleotide, ddNTP, col quale terminava).
Il vettore YAC

Il vettore YAC (Yeast Artificial Chromosome), è un cromosoma artificiale di lievito (organismo eucariote) in cui viene inserito un grande inserto di DNA da 100 Kb sino a 3000 Kb da sequenziare.
Basandosi su questa procedura, la Società Applied Biosystems nel 1987 mise in commercio la prima macchina a sequenziamento automatico ad alta velocità del DNA basata sulla tecnologia sviluppata da Leroy Hood, successivamente impiegata per il Progetto Genoma Umano. Con questa procedura completamente automatizzata, si ottenne un grosso risparmio in termini tempo, potendosi così identificare 12.000 paia di basi al giorno.
Il biologo statunitense Leroy Hood ha sviluppato strumenti scientifici all’avanguardia, che hanno reso possibili importanti progressi nelle scienze biologiche e nelle scienze mediche, come il primo sequenziatore automatizzato di DNA, per identificare l’ordine dei nucleotidi nel DNA.
Il sequenziatore automatico di DNA

Il sequenziatore automatico di DNA dell’Applied Biosystems (ABI 373 A) marcava con coloranti fluorescenti i nucleotidi del DNA, che divenivano così leggibili attraverso uno scanner laser.
Nel febbraio del 1988 il National Research Council statunitense (NRC) approvò il Progetto Genoma con durata di 15 anni e nel frattempo James Wyngaarden, direttore del National Institute of Health (NIH), ad un Congresso organizzato nella città di Reston nello stato della Virginia, rimarcò la necessità che la gestione del Progetto Genoma doveva essere affidata allo stesso NIH, il quale qualche mese dopo istituì un Organo competente per questa materia all’interno della sua organizzazione. e precisamente un Ufficio per la Ricerca del Genoma Umano, rinominato poi come “National Center for Human Genome Research”.
COMITATI DI RICERCA

In seguito a questi eventi, nell’ottobre del 1988 il NIH ed il DOE costruirono un Comitato congiunto, stanziando i fondi necessari e formalizzando la loro collaborazione con un documento in cui si proposero di coordinare la ricerca e le procedure tecniche per lo studio del genoma.
Nel 1989 incominciarono a svilupparsi nuove tecnologie per il sequenziamento automatico che impiegavano sistemi per la rilevazione della fluorescenza.
L’introduzione della marcatura fluorescente permise, in tal modo, il passaggio dal sequenziamento manuale a quello automatico con corsa elettroforetica su gel di poliacrilamide, su supporto a lastra o a capillare. In entrambi i casi la migrazione dei vari frammenti era seguita rilevando le emissioni in fluorescenza a diverse lunghezze d’onda dei diversi fluorocromi dopo eccitazione provocata dal laser.
marcatura fluorescente

Le emissioni era raccolte e analizzate da una camera CCD (charge coupled device) che elaborava i diversi segnali di fluorescenza con elevata sensibilità e la sequenza delle bande di DNA marcato fu così visualizzata in un unico grafico, detto elettroferogramma, caratterizzato da una successione di picchi di quattro colori diversi, che corrispondevano alle emissioni fluorescenti dei diversi fluorocromi, ogni volta che i vari frammenti di diversa lunghezza nucleotidica raggiungevano, lungo la corsa elettroforetica, la posizione del rilevatore.
Nel gennaio del 1989 la prima riunione del Comitato per il programma HGP fu gestita da Norton Zinder (7novembre 1928 – 3febbraio 2012) della Rockfeller University a New York (famoso per aver scoperto la trasduzione genetica, cioè quel meccanismo che consente il trasferimento virale di DNA da un batterio ad un altro).
Nel mese di settembre Leroy Hood, Maynard V. Olson, David Botstein e Charles Cantor (26agosto 1942 – ) pubblicarono, sulla rivista Science, una nuova strategia di mappatura attraverso brevi tratti di DNA, lunghi da 100 sino a 500 paia di basi o bp distribuiti su tutta una regione genomica o su tutto il genoma, chiamati STSs (Sequence Tagged Sites) rilevabili facilmente con la reazione di PCR con specifici primer per la costruzione di mappe genetiche e fisiche da dati di sequenza.
elettroferogramma

In un elettroferogramma sono mostrati i risultati di un’analisi di un campione di DNA, in cui i frammenti di DNA vengono separati per dimensione mediante elettroforesi e quindi rilevati. Ogni picco nel grafico rappresenta un frammento di DNA di una determinata lunghezza. La posizione del picco indica la lunghezza del frammento, mentre l’altezza del picco indica la quantità di DNA di quella lunghezza. A ciascuna base viene assegnato un colore diverso (Adenina-verde, Guanina-giallo o nero, Timina-rosso, Citosina-blu) mentre i siti eterozigoti vengono indicati da altre lettere secondo il sistema IUPAC (W = A + T , K = T + G ,Y = C + T; R = A + G).
Sequence Tagged Sites

I STSs, siti con tag di sequenza, sono sequenze di DNA brevi e uniche, in genere 200-500 bp che possono essere amplificate mediante PCR e fungere da marcatori genetici. Sono stati utilizzati per creare mappe fisiche dei genomi e identificare regioni specifiche sui cromosomi.
Gli STS sono risultati preziosi per mappare i geni, per rilevare le variazioni genetiche e per comprendere la funzione genica.
Gli STSs saranno in seguito anche utilizzati nel sequenziamento detto “shotgun” (un metodo utilizzato per determinare la sequenza del DNA di un organismo rompendo casualmente il DNA in piccolo frammenti e riassemblando le sequenze con regioni sovrapposte per la ricostruzione della sequenza originale.
lo shotgun

Il nome “shotgun“ è derivato dal processo di frammentazione casuale e simile all’esplosione di un fucile. L’avvio delle ricerche iniziò nel 1990 quando venne pubblicato un piano quinquennale degli istituti coinvolti; tra gli obiettivi, indicati ci furono:
1) il sequenziamento e la mappatura di organismi comunemente impiegati nei laboratori di ricerca genetica (quali il batterio Escherichia coli, il lievito Saccharomyces cerevisiae e il moscerino della frutta Drosophila melanogaster), e della specie umana; 2) la diffusione dei dati tra i vari centri; 3) lo sviluppo delle tecnologie di laboratorio.
sviluppo di tecnologie

Ciò fu reso possibile, dopo che negli anni ’80 vennero affinate:
a) la tecnica di Sanger, sviluppata nel 1977 e ampiamente utilizzata in quegli anni, passando dai quattro ddNTPs marcati con radioattivi ai quattro ddNTPs marcati con fluorocromi in modo diverso tra loro utilizzando lettori ottici appropriati in modo che ogni filamento di DNA era in grado di emettere una luce di colore diverso in base al nucleotide (ddNTP) col quale terminava,
b) la messa a punto di un metodo di sequenziamento chiamato “shotgun” che utilizzava due strategie, reciprocamente complementari per la frammentazione e la ricostruzione delle sequenze di centinaia di migliaia di frammenti di DNA: A) il sequenziamento gerarchico o top down (clone by clone), B) il sequenziamento su larga scala o bottom – up (whole genome shotgun)
sequenziamento gerarchico

Nel sequenziamento su larga scala, lo hierarchical shotgun sequencing, (clone by clone) un singolo cromosoma viene spezzettato in larghi frammenti e poi clonati in vettori artificiali (BAC o YAC). I cloni vengono ordinati in contigs e ciascuno ulteriormente suddiviso in altri cloni ordinati. Quando i cloni raggiungono dimensioni appropriate, essi vengono successivamente sequenziati. Ogni clone si sottopone a fingerprinting (pattern di restrizione o STSs) e il risultato è una mappa fisica di cloni ordinati e delle loro rispettive sequenze. La sequenza finale viene ottenuta allineando le sequenze dei singoli cloni.
Un contig (da contiguo) è un insieme di segmenti di DNA sovrapposti che insieme rappresentano una regione di consenso del DNA.
sequenziamento su larga scala

Nel sequenziamento su larga scala (whole genome shogun sequencing) il DNA viene spezzettato in maniera random in numerosi piccoli frammenti di dimensioni sequenziabili. Tali sequenze vengono denominate reads (piccole sequenze di DNA di sintesi ottenibili da una reazione di sequenziamento). Le reads vengono poi assemblate come in un puzzle sfruttando le regioni di sovrapposizione alle estremità di ciascuna read. Dall’allineamento delle reads si ottengono sequenza più lunghe dette contig o contigue ( tratti di sequenza assemblata senza discontinuità) che a loro volta vengono riuniti in sequenze di dimensioni maggiori dette scaffold le cui estremità sono in diversi contig ma di cui non si conosce la regione centrale. Questi scaffolds vengono ulteriormente allineati fino a costruire un assemblato finale o assembly. L’assembly genomico non rappresenta altro che un genoma completo.
l’elettroforesi capillare

Nello stesso anno (1990) tre gruppi di ricercatori, guidati da Lloyd Smith del Nucleic Acid Research, Barry Karger dell’Analytical Chemisty e Norman Dovichi del Journal of Chromatography, svilupparono l’elettroforesi capillare per la separazione di frammenti marcati con fluorocromi in sistemi automatizzati per la rilevazione della fluorescenza, consentendo un notevole aumento della processività della tecnica.
L’elettroforesi avveniva lungo dei sottilissimi capillari del diametro di 50 nm contenenti al loro interno un polimero da corsa, automaticamente caricato dal sistema. Lo strumento dopo aver prelevato il prodotto della reazione di marcatura con i fluorocromi sottoponeva la reazione stessa ad elettroforesi capillare in vetroresina di diversa lunghezza d’onda (lambda) a seconda delle esigenze. Un raggio laser, a questo punto, colpiva il capillare eccitando i fluorocromi marcanti i frammenti di diversa lunghezza. Successivamente una cellula fotoelettrica rilevava e memorizzava i segnali fluorescenti.
sequenze disponibili nelle banche dati

La quasi totalità delle sequenze disponibili nelle banche dati sino a quel periodo di tempo furono ottenute attraverso il sequenziamento enzimatico di Sanger.
Successivamente si svilupparono modelli di sequenziatori automatici in grado di eseguire anche corse elettroforetiche multiple su apparecchi multicapillari.
Nel mese di aprile 1990 il NIH e il DOE pubblicarono un piano di 15 anni i cui obiettivi compresero una mappa genetica completa, una mappa fisica con marcatori ogni 100 Kb e il sequenziamento di un aggregato di DNA di 20 Mb in organismi modello entro l’anno 2005.
Nel mese di agosto 1990 l’NIH iniziò lo studio del sequenziamento su larga scala di quattro organismi modello rappresentati da Escherichia coli, Mycoplasma capricolum, Caenorhabditis elegans e Saccharomyces cerevisiae, mentre nel mese di ottobre dello stesso anno NIH e DOE dichiararono ufficialmente l’inizio del Progetto Genoma Umano della durata di circa 15 anni e un costo di 15 miliardi di dollari, sotto la guida di James Watson, lo scienziato che elaborò nel 1953 lo storico modello del DNA a doppia elica con Francis Crick.
PROGETTO GENOMA

Negli anni successivi, al Progetto Genoma si unirono anche i ricercatori appartenenti al Regno Unito, Giappone, Francia, Germania e Cina costituendo con gli Stati Uniti il Consorzio Pubblico Internazionale (IHGSC, International Human Genome Sequencing Consortium). Per l’ Italia il progetto genoma nacque nel 1987 ma si interruppe nel 1995 per mancanza di fondi.
Nello mese di ottobre 1990 David Lipman ed Eugene Myers pubblicarono sulla rivista Journal of Molecular Biology la creazione dell’algoritmo BLAST (Basic Local Alignment Search Tool) un programma informatico che sarà utilizzato per l’allineamento delle sequenze di DNA.
Il Progetto Genoma Umano incominciò ad avere un’ingente mole di finanziamenti dell’ordine di alcuni miliardi di dollari e catturò anche l’attenzione dell’opinione pubblica specialmente per la presenza di figure di notevole spicco scientifico che si erano adoperati alla sua realizzazione anche se a dire il vero la sua storia risulterà spesso molto travagliata.
1991

Nel 1991 il Progetto genoma umano, iniziò cosi a funzionare a pieno ritmo. Tutti i centri del NIH furono subito operativi, incominciando ad occuparsi della mappatura genetica umana (Homo sapiens) e del Mus musculus (topo). La mappatura genetica e le attività di sequenziamento furono realizzate anche da decine di altri laboratori, ognuno dei quali svolse attività iniziate autonomamente e finanziate dai NIH. I dati relativi al genoma ottenuti sulle due sponde dell’Atlantico furono immagazzinati in alcuni data base centralizzati, inclusi quelli del Laboratorio Europeo di Biologia Molecolare, del National Laboratory di Los Alamos e del Centro di Ricerche sul Genoma dei NIH a Washington.
Tutti gli enti coinvolti in tale progetto concordarono sul principio base secondo il quale la Comunità Scientifica Mondiale poteva accedere gratuitamente ai dati raccolti.
John Craig Venter

Tuttavia, il Progetto Genoma Umano forse non si sarebbe mai potuto completare se un biologo statunitense del NIH, John Craig Venter (1946 – ), non avesse sollevato una serie di questioni che riguardavano questo principio. Infatti, nel 1987 il suo laboratorio operava come centro di verifica delle nuove tecniche di sequenziamento automatico (il sequenziatore automatico di DNA che marcava con coloranti fluorescenti i nucleotidi leggibili attraverso uno scanner laser e identificando così circa 12.000 paia di basi al giorno) sviluppate presso il California Institute of Technology e prodotte dalla Applied Biosystems.
Nel giugno del 1991, J. C. Venter annunciò una strategia per individuare i geni espressi, utilizzando dei brevi frammenti di circa 200 – 800 bp chiamati EST (Expressed Sequence Tag) che derivavano dal sequenziamento di una parte di un maturo RNA messaggero proveniente da cloni di cDNA o DNA complementare. Le EST potevano essere utilizzate per stabilire l’estensione e la diversità dei geni e il grado di trascrizione di ciascuno di essi.
Venter e i National Institutes of Health

In questo modo Venter fu in grado di produrre notevoli quantità di EST così rapidamente e un mese più tardi in occasione di una audizione congressuale lo stesso Venter rivelò che l’NIH si era impossessata del brevetto su un migliaio di EST. Tale iniziativa venne denunciata in Europa e negli Stati Uniti, perché rischiava di porre seri ostacoli alla ricerca.
Nonostante tutte queste controversie, il Progetto Genoma Umano in quel periodo burrascoso andò avanti ugualmente. Vennero, infatti, messi a punto dei programmi elaborati, per affiancare all’identificazione di sequenze potenzialmente codificanti, anche altre caratteristiche, come ad esempio la presenza di giunzioni tra esoni (le regioni del trascritto primario che si ritrovano nel trascritto maturo) e introni (le parti rimosse nel corso della maturazione e di norma non contenenti regioni codificanti).
Altre caratteristiche utilizzate furono il riconoscimento di strutture tipiche dell’inizio e della fine della catena polipeptidica o dell’RNA, come pure sequenze normalmente presenti nelle regioni contenenti promotori, gli elementi funzionali necessari all’espressione di un gene.
GRAIL

Così, nel dicembre del 1991, nacque il primo di molti programmi denominato “GRAIL” (Gene Recognition and Assembly Internet Link), sviluppato all’Oak Ridge National Laboratory nel Tennessee, il primo di molti programmi. Il programma GRAIL fu aggiornato più volte per aggiungere caratteristiche che non erano presenti nella versione originale e in grado, oggi, di riconoscere promotori, esoni, siti di aggiunta di poli-A, sequenze ripetitive e isole CpG (regioni genomiche che contengono un’elevata densità di siti CpG la cui lunghezza è compresa tra le 300 e le 3.000 paia di basi e si trovano all’interno e nelle vicinanze dei promotori dei geni umani; la “p” nella notazione CpG si riferisce al legame fosfodiesterico tra la citosina e la guanina) e dotato anche di interfaccia grafica.
1992

Si arrivò al 1992. In quell’anno e precisamente nel mese di aprile, J. Watson dopo una disputa con il direttore del NIH Bernardine Healy, si dimise dal suo incarico di direttore del Progetto genoma umano, per una questione dei brevetti per i geni. Nel mese di giugno C. Venter lasciò l’ NIH per guidare il TIGR (The Institute for Genomic Research) a Rockville nel Maryland, una nuova organizzazione non profit, che aveva ottenuto un finanziamento decennale di 70 milioni di dollari dalla Healthcare Investment Corporation.
Nel mese di giugno un biologo, imprenditore e filantropo statunitense William Haseltine (1944 – ) già fondatore di diverse società di biotecnologia divenne amministratore delegato della Human Genome Sciences, una società che in seguito aprirà la strada nell’applicazione della genomica alla scoperta di nuovi farmaci, per la commercializzazione dei prodotti sviluppati dalle ricerche del TIGR mentre nel mese di luglio entrò nel Progetto Genoma Umano una società di ricerca britannica, la Wellcome Trust con sede a Londra.
materiale per il Progetto Genoma

Melvin Simon e il suo gruppo nel frattempo svolsero un ruolo importante nel Progetto Genoma Umano sviluppando non solo un vettore batterico artificiale di DNA o BAC (bacterial artificial chromosome) ma costruendo anche molte delle librerie iniziali che fornirono materiale per il Progetto Genoma.
Nei mesi seguenti vennero completate alcune mappe fisiche rispettivamente del cromosoma Y ad opera del ricercatore statunitense David Page del Whitehead Institute con sede a Cambridge nello stato del Massachusetts e del cromosoma 21 da parte, invece, del ricercatore francese Daniel Cohen del Centre d’Etude du Polymorphisme Humain (CEPH), un centro di genetica internazionale situato a Parigi e dal Genethon a Evry
Successivamente, vennero anche completate quelle genetiche del topo da Eric Lander (1957 – ) dell’Institute Whitehead per una regione genetica di 4 cM e da Jean Weissenbach del CEPH per una regione invece di 5 cM per l’uomo.
1993

Si arrivò all’anno 1993 dove si rivide e si aggiornò il piano quinquennale prima della sua scadenza, elaborando procedure sperimentali più efficienti a causa dei molti progressi che erano stati compiuti in tempi più rapidi rispetto a quelli previsti. La scadenza fu prorogata al 1998 e alla quale si aggiunsero nuove finalità, tra cui la ricerca di marcatori genetici e la messa a punto di nuove tecniche di mappatura.
Francis Collins (1950 – ) e John Sulston (1942 – 2018) assunsero il ruolo nel 1993 rispettivamente di direttori del National Human Genome Reserach Center negli U.S.A. e del Sanger Center in Inghilterra. Da questo preciso momento, questi due Enti diventarono i due più importanti laboratori di sequenziamento del Consorzio Internazionale.
il database GeneBank
Nello stesso periodo di tempo il database GeneBank (un banca dati open access, con tutte le sequenze di nucleotidi) ufficialmente venne mossa da Los Alamos al National Center for Biotechnology Information o NCBI, un Centro Nazionale per le InformazionI Biotecnologiche con sede a Bethesda nel Maryland e finalmente si concluse quella bagarre che per anni aveva coinvolto i NIH e il DOE per il controllo del Progetto Genoma Umano.
1994

Nel 1994 furono pubblicati alcuni lavori sullo sviluppo di coloranti per il sequenziamento (PNAS) e sulla scoperta di nuove polimerasi termostabili su Nature mentre Science venne pubblicata nel 1995 sequenza nucleotidica completa di Hemophilus Influenzae di 1,8 Mb e di Mycoplasma genitalium di 0,59 Mb con l’approccio della cosiddetta metodologia “whole genome shotgun sequencing”.
La sequenza completa di questo primo organismo vivente fu resa possibile grazie a J. C. Venter e a Claire Frase del TIGR e a Hamilton Smith, dell’Università Johns Hopkins di Baltimora, che convinse Venter, in questo studio, ad utilizzare un metodo di sequenziamento radicalmente nuovo, differente da quello convenzionale il cosiddetto “sequenziamento gerarchico”, detto anche clone by clone, adoperato dal Consorzio Pubblico, che prevedeva di scomporre in frammenti il DNA contenuto in ogni cromosoma e di determinare l’ordine in cui i segmenti si succedevano. Una volta costruita questa mappa fisica del DNA, ogni segmento veniva sequenziato.
utilizzo di enzimi di restrizione

La nuova metodologia di sequenziamento consisteva nell’utilizzare enzimi di restrizione che avrebbero tagliato il DNA in tanti piccoli frammenti; poi i frammenti così ottenuti potevano essere sequenziati e l’ordine dei frammenti nel DNA originario avrebbe potuto essere ricostruito con il computer.
In questo modo, si evitava la fase della costruzione della mappa fisica, che richiedeva molto tempo e che era decisamente dispendiosa, accelerando e rendendo meno costoso il processo di sequenziamento del genoma.
In seguito questa nuova tecnologia di sequenziamento sarebbe stata chiamata “shotgun sequencing” o metodo a colpo di fucile, in quanto venivano prodotti a caso frammenti di DNA.
Nel dicembre del 1995, alcuni ricercatori al Whitehead e al Genethon, guidati rispettivamente da Thomas Hudson e da Eric Lander pubblicarono su Science una mappa fisica del genoma umano che conteneva 15.000 marcatori.
Gli eventi successivi
Nel mese di febbraio del 1996 fu organizzato un congresso alle isole Bermuda finanziato dal Wellcome Trust in cui i più importanti laboratori coinvolti nella ricerca del progetto internazionale sul Genoma Umano (HPG) sottoscrissero un accordo in base al quale si impegnavano a rendere liberamente accessibili i dati, così da massimizzare i benefici sociali della ricerca.
Molti furono gli scienziati che riposero le loro speranze nel progetto pubblico internazionale sullo studio del genoma
Nel mese di aprile si sviluppò la tecnologia Gene Chip una tecnica rivoluzionaria per studiare l’espressione genica e per il sequenziamento, grazie alla collaborazione tra il Dipartimento di Biochimica dell’Università di Stanford e la Società americana Affymetrix Inc. con sede a Santa Clara in California, che resero disponibili commercialmente dei DNA microarray (microscopiche sonde di DNA attaccate ad una superficie solida come un chip di silicio formanti un array o matrice che permettevano di esaminare simultaneamente la presenza di moltissimi geni all’interno di un campione di DNA).
sequenziamento del genoma di Escherichia coli

Nel mese di luglio 1996 fu sequenziato il genoma di Escherichia coli di 4,64 Mb e nel mese di settembre si avviarono, invece, sei progetti pilota con finanziamenti di diversi milioni di dollari per sequenziare le estremità finali dei cloni BAC.
Contemporaneamente Pal Nyren e Mostafa Ronaghi (1968 – ) presso il Royal Institute of Tecnology di Stoccolma svilupparono il pirosequencing o pirosequenziamento, una metodologia che prevedeva non più l’utilizzazione di nucleotidi fluorescenti ma che si basava, invece, sul metabolismo del pirofosfato (PPi) rilasciato durante la reazione di sequenziamento da parte di una miscela di enzimi.
Questa tecnologia rappresenterà, in seguito, l’innovazione tecnologica del sequenziatore 454 della Roche di nuova generazione che verrà messo in commercio nel 2007.
completamento della prima sequenza di un genoma eucariotico

Nel mese di ottobre 1996 , da parte di diversi laboratori, situati negli Stati Uniti, in Europa, in Canada e in Giappone, ci fu il completamento della prima sequenza di un genoma eucariotico, quello del lievito di birra, Saccharomyces cerevisiae, il cui DNA era formato da 12 milioni di basi e infine nel mese di dicembre i ricercatori del centro giapponese Riken guidati da un biologo molecolare, Yoshihide Hayashizaki, completarono la lunghezza del primo set di cDNA del topo.
Nel mese di gennaio del 1997 venne istituito il National Human Genome Research Institute mentre il DOE creò il Joint Genome Institute.
Nel mese di settembre 1997, Fred Blattner, Guy Plunkett e l’Università di Madison del Wisconsin completarono la sequenza del DNA di E. Coli di 5 Mb. che fu pubblicata su Science mentre l’Amersham Biosciences/Molecular Dynamics introdusse il MegaBACE, una macchina di sequenziamento del DNA a elettroforesi capillare.
1998

Nel 1998 incominciarono ad essere lanciati altri grandi progetti detti ‘antropo molecolari‘. Si ebbe anche un nuovo accordo quinquennale tra NIH e DOE che fissava al 2003 il completamento dei lavori. Inoltre, all’obiettivo originario si aggiunse anche quello sullo studio della variabilità genetica del genoma umano e della sua funzione.
L’NIH annunciò nel mese di gennaio un altro nuovo progetto per trovare gli SNPs cioè polimorfismi a singolo nucleotide (single nucleotide polymorphisms). Per esempio: se le sequenze individuate in due soggetti sono rappresentate da AAGCCTA e da AAGCTTA, è presente uno SNP che differenzia i due alleli C e T.
Gli SNPs sono presenti nelle regioni codificanti ma anche in quelle non codificanti o introni e appaiono con frequenza elevata (da 1 circa ogni 1000 basi a 1 ogni 100 – 300 basi). Nel mese di febbraio vi furono alcune rappresentative del Giappone, degli U.S.A., della Cina e della Corena del Sud ad accordarsi a Tsukuba (Giappone) per stabilire delle linee guida per una collaborazione internazionale sulla sequenza del genoma del riso.
software ed hardware

Nel mese di marzo 1998 Phil Green e Brent Ewing dell’Università di Washington svilupparono il software “Phred” per l’analisi di sequenza di DNA e nel mese di maggio 1998 la PE Applied Biosystems Inc. introdusse, invece, l’analizzatore di DNA PE Prism 3700, un sistema automatizzato ad elettroforesi capillare.
Nello stesso anno, C. Venter diede inizio alla corsa del sequenziamento fondando e dirigendo una nuova compagnia privata, chiamata Celera Genomics, con lo scopo di sequenziare l’intero genoma umano entro il 2001, molto prima della data originariamente indicata nel progetto pubblico.
Tale dichiarazione fu ispirata non solo dal successo del metodo shotgun sequencing ma anche dalla disponibilità di sequenziatori più potenti che potevano elaborare fino a un milione di basi di DNA al giorno.
In risposta, la Wellcome Trust raddoppiò il suo sostegno per il progetto genoma al Consorzio Pubblico con un grande sforzo economico di diversi milioni di dollari.
sequenziamento del genoma di Caenorhabditis elegans

Nel mese di dicembre J. Sulston del Wellcome Trust Sanger Center e Robert Waterstan dell’Università di Washington completarono il sequenziamento del genoma di Caenorhabditis elegans di 100 Mb (un verme nematode cilindrico privo di apparato respiratorio e circolatorio, lungo circa 1 mm e fasmidario cioè provvisto di fasmidi, organi chemio recettori posti sull’estremità posteriore del corpo), rivelando che nel genoma di questo organismo erano presenti 19.099 geni, il 30 % dei quali simili ai geni umani ma, nella maggior parte dei casi, mai osservati prima di allora.
1999

Nel mese di marzo del 1999 Phil Collins, che aveva già sostituito J. Watson nel 1993 all’NIH, lanciò un nuovo obiettivo con la creazione di un’altra bozza di lavoro sul genoma umano dichiarando che da quel momento in poi sarebbero stati utilizzati nuovi sequenziatori che avrebbero consentito di definire ‘la prima bozza’ del genoma, completa solo al 90 % per la primavera del 2000, e la cui sequenza sarebbe stata ultimata nel 2003.
Tutti questi sforzi sul sequenziamento su larga scala furono concentrati rispettivamente nel Centro Whitehead, dell’Università di Washington e nel Sanger Center a Cambridge e al Joint Genome Institute del DOE.
Nel mese di dicembre, sulla rivista Nature, fu pubblicata la sequenza completa del cromosoma 22, uno dei più piccoli fra i cromosomi umani. A completare il sequenziamento furono gli scienziati britannici del Sanger Center che si erano sinora sobbarcati quasi un terzo di tutto il lavoro del settore pubblico all’interno del Progetto Genoma Umano.
2000

Nel mese di marzo del 2000 la Celera completò ,in collaborazione con la Berkeley Drosophila Genome Project (BDGP), il sequenziamento del genoma del moscerino della frutta, la “Drosophila melanogaster,” il più grande genoma sinora sequenziato, composto da 140 Mb, convalidando in questo modo l’utilizzo del nuovo metodo genomico dello “shotgun sequencing“ per sequenziare un genoma complesso. La sequenza completa fu poi pubblicata sulla rivista Science.
F. Collins del Consorzio Pubblico per il Progetto Genoma cercò di stabilire un rapporto di collaborazione con la società ma i suoi sforzi risultarono vani in quanto la Celera rivendicò sui dati genomici una serie di diritti commerciali esclusivi.
Infatti, la società Celera aveva tutto da guadagnare da questa situazione di stallo, in quanto poteva sfruttare tutti quei dati che venivano prodotti dal progetto pubblico continuamente aggiornati e pubblicati sul web.
la sequenza completa del cromosoma 21

Nel mese di maggio 2000, il Consorzio Pubblico guidato da ricercatori tedeschi e giapponesi pubblicarono su Nature la sequenza completa del cromosoma 21, il più piccolo dei cromosomi umani, mentre nel mese di giugno durante un incontro alla Casa Bianca, alla presenza dell’allora Presidente degli Stati Uniti Bill Clinton e (in videoconferenza) dell’allora Primo Ministro britannico Tony Blair, il Consorzio Pubblico e la Celera Genomics annunciarono congiuntamente il completamento del genoma umano.
In realtà, poiché nessuno dei due gruppi rivali era riuscito a mappare completamente il DNA umano, diplomaticamente , si parlò più esattamente di una bozza preliminare o “working draft“, senza entrare troppo nei dettagli.
La Casa Bianca e la Comunità Scientifica si prestarono molto volentieri a quell’annuncio ma che comunque, in ogni caso, portava a casa un risultato importante cioè quella filosofia che aveva animato i fondatori del Progetto, la cosiddetta “condivisione libera e gratuita dei dati“ che sarebbero scaturiti da tale progetto. Il messaggio trasmesso fu abbastanza chiaro, i dati sul Genoma Umano dovevano essere di patrimonio comune, di dominio pubblico e disponibili a tutti gratuitamente.
condivisione libera e gratuita dei dati

C. Venter, ottenuta la soddisfazione mediatica, a questo punto si fece da parte e lasciò campo libero al Consorzio Pubblico.
Nel mese di dicembre 2000 il Consorzio Pubblico completò la sequenza del genoma di una prima pianta, l’Arabidopsis thaliana di 125 Mb e si arrivò così al 2001, anno in cui la bozza completa del genoma umano fu pubblicata nel mese di febbraio su Science quella della Celera Genomics, e nel mese di giugno su Nature quella del Consorzio Pubblico.
Il 2002 fu l’anno in cui venne annunciato il sequenziamento completo del genoma murino e nell’aprile del 2003 formalmente chiuso il Progetto Genoma Umano con due anni di anticipo rispetto ai tempi stabiliti, con una sequenza del genoma umano solo del 92% e con un accuratezza del 99,9% riportata nel mese di maggio del 2004 (porzioni eucromatiche). Nel maggio del 2006 venne, invece, pubblicata dall’NIH, via Internet, la sequenza del cromosoma 1, il cromosoma più lungo e più difficile da analizzare.
l’era post-genomica

Il Progetto Genoma Umano ha rappresentato il coronamento di molti anni di ricerca biologica, una impresa davvero titanica e l’inizio di una nuova era, l’era “post-genomica”.
Inizialmente, il Progetto è stato fortemente condizionato dalle difficoltà di sequenziare il DNA e dalla necessità di ridurre al minimo il quantitativo di sequenze da effettuare ma fortunatamente, in seguito, l’ostacolo è stato largamente superato con lo sviluppo di sequenziatori automatici in grado di produrre circa 400.000 basi/giorno.
Il Progetto Genoma Umano ha visto anche concorrere fra loro, in una corsa contro il tempo, due cordate scientifiche di scienziati : a) una cordata pubblica, quella del Consorzio Internazionale HPG non profit, i cui risultati erano di dominio pubblico e disponibili gratuitamente da tutti, sostenuta sia con denaro pubblico che da grandi fondazioni filantropiche come la britannica Wellcome Trust ; b) l’altra privata, la Celera Genomics (operante in maniera centralizzata), una impresa a scopo di lucro in quanto vedeva nella lettura del DNA un business da sfruttare, i cui risultati erano consultabili solo su abbonamento e a prezzi molto alti.
DUE CORDATE: UNA PUBBLICA ED UNA PRIVATA

Il Progetto, inoltre, si articolava in due fasi: nella prima si localizzarono i geni presenti su ciascun cromosoma per ottenere una “mappa”; nella seconda sequenziarono i geni e nonostante le due cordate avessero concezioni diverse della ricerca, alla fine i loro approcci metodologici risultarono ugualmente utili: quello della Celera per l’efficienza, l’automazione e la rapidità, quello del Consorzio per ordinare esattamente le sequenze ripetute.
Parallelamente si studiarono e sequenziarono anche i genomi di molti altri organismi, (topo, E. coli, S. Cerevisiae, C. elegans, Drosphila ecc.) e il confronto del nostro genoma con quello di questi organismi modello ha permesso di conoscere cosa ci accomuna con essi e le ragioni della nostra peculiarità.
Le tecniche impiegate per il sequenziamento del genoma sono state diverse.
tecniche impiegate per il sequenziamento

1) la tecnica del sequenziamento whole genome shotgun adottata dalla Celera Genomics, in cui un campione contenente un patrimonio genetico umano intero veniva suddiviso in frammenti; questi erano analizzati separatamente dai sequenziatori. Dei calcolatori elettronici elaboravano i dati in modo da ricomporre il puzzle delle sequenze di basi. Alla fine, si doveva procedere alla mappatura;
2) la tecnica del sequenziamento gerarchico (o clone by clone) adottata dai laboratori del Consorzio Pubblico che procedevano a disgregare il DNA in frammenti, mappando i geni di ciascuna porzione e sequenziando infine la molecola dell’acido nucleico.
ALTRI PROGETTI

Infine, il Progetto Genoma Umano ha posto anche le basi per lo sviluppo di altri progetti come il Gene Ontology Consortium istituito allo scopo di definire un concetto di funzionalità genica applicabile a tutti gli organismi; l’International SNP Consortium Ltd che ha prodotto una mappa umana basata sugli SNP cioè polimorfismi a singoli nucleotidi; l’International HapMap Project, che ha coinvolto varie nazioni con lo scopo di identificare e catalogare le differenze e le somiglianze genetiche degli individui rappresentanti le quattro principali popolazioni umane mondiali, il Progetto Encode (Encyclopedia of DNA elements) per identificare tutti gli elementi funzionali della sequenza del genoma umano e il 1000 Genomes Project (Progetto 1000 genomi) per catalogare le varianti genetiche umane.
Il risultato finale:

1. i geni umani identificati sono all’incirca 20.000 dopo sequenziamento di oltre 3 miliardi di basi costituenti
2. il genoma umano è lungo circa 3200 Mb, organizzato in 23 coppie di cromosomi. Questi cromosomi, 22 autosomi e due cromosomi sessuali (X e Y), contengono le informazioni genetiche necessarie per lo sviluppo e il funzionamento dell’organismo. Inoltre, il genoma comprende anche il DNA mitocondriale, contenuto all’interno dei mitocondri, una struttura cellulare che genera energia.
In breve, ogni cromosoma contiene segmenti specializzati come: a) un centromero, b) due telomeri alle estremità c) numerose origini di replicazione
3. Dei 3200 Mb di lunghezza, solo meno del 2% (48 Mb di DNA) codifica per le proteine (esoni) mentre il restante 98,5 % rappresenta il cosiddetto DNA non codificante. In passato non gli si diede molta importanza, arrivando appunto a chiamarlo “junk DNA o DNA spazzatura“ ma grazie alle più recenti tecniche di sequenziamento si sono svelate più cose di quante potessero aspettarsi. E’ stato scoperto che svolge un ruolo importante nella regolazione dell’espressione genica, nella risposta immunitaria, nella protezione del genoma e nella comprensione dell’evoluzione. In questo modo, quest’ultimo concetto è stato così definitivamente mandato in soffitta.
DNA non codificante
Una parte del DNA non codificante risulta, infatti, costituita da sequenze altamente ripetute di lunghezza variabile. Tra queste, ci sono i telomeri: sequenze che ricoprono le estremità dei cromosomi, che contribuiscono a mantenerne l’integrità e che hanno un ruolo nell’invecchiamento cellulare. Ci sono poi i trasposoni, segmenti di DNA “mobili” che possono cambiare la loro posizione all’interno del genoma, e gli pseudogeni, la cui natura è ancora in fase di approfondimento ma che sembrano essere resti di geni accidentalmente duplicati e poi degradati. Molte delle ripetizioni presenti nelle cellule non hanno uno scopo noto e possono essere acquisite e perse nel corso dell’evoluzione, apparentemente senza effetti negativi.
Il sequenziamento a lettura lunga e i progressi delle piattaforme NGS

Sebbene il Progetto Genoma Umano nel 2003 avesse annunciato il completamento del genoma umano (in realtà era stata raggiunta una mappatura del 92%) , esistevano ancora numerose regioni del DNA umano per la presenza di sequenze ripetute del DNA non codificante, a causa di alcune limitazioni tecniche. Per sequenziare l’8% che ancora mancava è stato necessario non solo disporre di una tecnologia altamente innovativa ma anche di un approccio diverso. Le tecnologie che erano impiegate dal Progetto Genoma Umano non consentivano il sequenziamento del DNA ripetuto, poiché non si prevedeva di leggere tutto il genoma dall’inizio alla fine, ma di spezzarlo in frammenti più piccoli contenenti ciascuno solo alcune centinaia di basi azotate.
il restante 8%
Per ogni frammento venivano lette le sequenze di A, T, C e G presenti e poi si procedeva a rimettere i frammenti insieme tramite un software. Anche se questo poteva rappresentare un approccio utile, tuttavia, non poteva funzionare con sequenze ripetute poiché non esisteva una maniera di comprendere in quale ordine dovevano essere rimessi insieme i frammenti che le contenevano dato che erano sempre le stesse lettere ripetute.
La risposta di queste ripetizioni era, infatti, contenuta nei centromeri, cioè quelle strutture che tengono insieme le due parti di un cromosoma (svolgono un ruolo chiave nei processi di divisione cellulare e sono ricchi di quelle ripetizioni che mettono a dura prova i sequenziatori automatici) e nei telomeri, cioè le quattro estremità di ogni cromosoma (svolgono un ruolo essenziale nel proteggere il DNA durante la replicazione e nel mantenere l’integrità strutturale del cromosoma).
Il balzo in avanti

Il balzo in avanti è stato reso possibile per l’avanzamento di due piattaforme di sequenziamento (Oxford Nanopore Technologies e PacBio Hi Fi) che hanno permesso di produrre letture sempre più lunghe in un’unica volta anche fino ad un milione di coppie di basi o bp, per decifrare regioni genomiche considerate più ostiche, chiamate zone d’ombra.
In questo modo, si è potuto ottenere nel 2022 una lettura accurata del DNA, portando a oltre 3 miliardi il totale di lettere di cui è composto il libro della vita. Ciò ha significato un aumento del 4,5% rispetto al conteggio precedente (che era di 2,95 miliardi) con un incremento del totale dei geni codificanti proteine dello 0,4% aggiungendo, inoltre , 115 geni per arrivare ad un totale di 19.969. Numeri che possono apparire irrisori ma che assumono un profondo valore nella ricerca delle chiavi di regolazione dei geni.
Lo sforzo che ha permesso di superare queste limitazioni è stato compiuto dal Consorzio T2T (Telomere to Telomere) che nel 2023 ha anche prodotto la prima mappa completa del cromosoma Y, l’ultimo dei cromosomi che non era stato completato.
Il nuovo Genoma umano di riferimento

Il nuovo Genoma di riferimento T2T – CHM13 completa il genoma di riferimento umano standard, noto come GRch38 (Genome Reference Consortium build 38) che ha avuto le sue origini nel progetto Genoma Umano e continuamente aggiornato dalla prima bozza. Quindi, il T2T- CHM13, oggi, rappresenta un perfezionamento del precedente modello a cui mancavano sequenze di molti geni codificanti e di diverse altre regioni.
Tuttavia, è da tenere presente che il punto di partenza di questa nuova impresa non è stato il DNA di un individuo bensì un ovocita privo del nucleo fecondato da uno spermatozoo e più precisamente di una linea cellulare (CHM13) proveniente dalla fecondazione. Questa linea cellulare presenta però un’anomalia, cioè due copie degli stessi 23 cromosomi, invece di due diverse copie come avviene normalmente nelle cellule umane. Questa scelta è stata motivata da esigenze che hanno reso più semplice il passaggio analitico ma che ha sollevato le obiezioni sul fatto che le differenze osservate potessero essere il frutto di residui accumulatisi durante il processo di propagazione delle cellule in coltura. Un’altra limitazione è che la linea CHM13 è priva del cromosoma Y, poiché lo spermatozoo che ha fecondato l’ovocita era portatore del cromosoma X.
perchè, oggi, è importante avere un genoma completo?
In conclusione, perchè, oggi, è importante avere un genoma completo?
1) per comprendere come funzionano i genomi,
2) per identificare delle varianti genetiche in alcune zone oscure implicate specialmente nello sviluppo di malattie genetiche,
3) per comprendere la diversità umana e l’evoluzione della specie ma anche per quanto possono fornire i possibili risvolti futuri positivi nella medicina personalizzata come la terapia genica e l’editing genomico che hanno rivoluzionato interi settori della ricerca.
Bibliografia essenziale:
- Maxam AM & Gilbert W “A new method for sequencing DNA” Proc Natl Acad Sci U.S.A.
1977 , 74 : 560 – 564 - Sanger F., Nicklen S., Coulson AR “DNA sequencing with chain-terminating inhibitors“ Proc Natl Acad Si U.S.A. 1977, 74 : 5463 – 5467
- Nyren P , Petterson, Uhler M “Solid phase DNA minisequencing by an enzymatic luminometric inorganic pyrophosphatase detection assay“ Anal Biochem 1993, 208 : 171 – 175
- Ronaghi M “Pyrosequencing sheds light on DNA sequencing“ Genome Res 2001,11 : 3 – 11
- International Human Genome Sequencing Consortium, “Initial sequencing and analysis of the human genome“, Nature, 2001 , 409 : 860 – 921
- Venter JC et al. “The sequence of the human genome” Science 2001, 291: 1304 – 1351
- Sulston J & Ferry G: “The common thread: a story of science, politics, ethics, and the human genome“, London-New York, Bantam, 2002.
- International Human Genome Sequencing Consortium, Finishing the euchromatic sequence of the human genome, in Nature, 2004, 431, 931
- International HapMap consortium et al. “Integrating common and rare genetic variation in diverse human populations“. Nature 2010, 467, 52
- Gerstein MB, Kundaje A, Hariharan M, et al. “Architecture of the human regulatory network derived from ENCODE data“. Nature. 2012, 489 , 91.
- Rhie A, McCarthy SA, Fedrigo O, et al. “Towards complete and error -free genome assemblies of all vertebrates species“ Nature. 2021, 592: 737 – 746
- Nurk S, Koren S, Rhie A et. al. “The complete sequence of a human genome“ Science. 2022 , 376 :44 – 53
- Rautiainen M, Nurk S, Walenz BP et al. “Telomere – to – telomere assembly of diploid chromosomes with Verkko” Nat Biotechnol. 2023, 41 : 1474 -1482

Questa storia del Progetto Genoma Umano sembra essere più complicata della sequenza di un genoma umano non codificante! Due gruppi si sfidavano come se si giocassero a Go su un tabellone gigante di DNA, uno usando il metodo shotgun (a colpo di fucile) e laltro il metodo gerarchico (collezione di cloni). La Celera sembrava avere la vantaggio, ma il Consorzio Pubblico, con la sua generosità (e forse un po di pazienza) e la condivisione dei dati, alla fine ha vinto la corsa e ha pubblicato la bozza del genoma umano. Un vero sequenziale!Grow a garden tier list
Ah, il Progetto Genoma Umano! Unimpresa titanica, un po come afferrare il caffè nel mattino presto. La corsa tra il Consorzio Pubblico e la Celera Genomics era un po come una partita a scacchi tra un vecchio ma esperto e un giovane full stacker, entrambi determinati a vincere la partita del DNA. La condivisione libera dei dati è stata un vero capolavoro di open source, un po come condividere la ricetta del pizza margherita online. Il DNA non codificante, una volta chiamato spazzatura, si è rivelato essere più importante della teoria della relatività. In definitiva, avere un genoma completo è come avere la mappa di una città sconosciuta: ci aiuta a capire dove siamo andati, dove ci troviamo e dove dobbiamo andare.basketball stars unblocked
Questa storia del Progetto Genoma Umano sembra una commedia dellappendice scientifica: due gruppi si sfidavano a colpi di fucile (DNA) e bozze preliminari, finché non hanno dovuto tirarsi una mano sulla copertina di Time. Lhumorino sta nel contrasto tra la serietà scientifica e la corsa alla primavera mediatica. La parte più divertente è la creazione del genoma di riferimento con un ovocita anomalo e senza cromosoma Y: sembra che i genetisti abbiano pensato pratico, meno complicato. Comunque, un bel traguardo per lumanità, anche se qualche frammento ancora manca e lultima battuta è sulla comprensione del DNA non codificante: forse il nostro genoma è più divertente della nostra vita quotidiana.vòng quay may mắn