domenica 27 ottobre 2013

LA "VISCO-DENS" E LA DIFFERENZA TRA DENSITA' E VISCOSITA'

Prima di cominciare, sarebbe meglio mettere in chiaro un particolare abbastanza evidente sin dall'inizio: il titolo. Non si tratta di un nomignolo "campato per aria" o una mia creazione durante un momento di delirio, quanto di un inusuale compito per casa assegnatoci dal nostro professore di scienze: andare dai nostri genitori, spiegare loro la differenza tra densità e viscosità e annotarne la reazione. Ma prima di arrivare al sodo, sarebbe opportuno fare alcune considerazioni sull'argomento. Nella vita quotidiana, siamo abituati a ricollegare il termine "densità" alla resistenza allo scorrimento dei fluidi (dovuta alla forza di legame all'interno del liquido stesso); tuttavia quest'ultima è, in realtà, la definizione di viscosità. La densità è, in realtà, la concentrazione di materia all'interno di un'unità di misura ben definita, nei liquidi, ad esempio, i fluidi con densità minore tendono a galleggiare su quelli di densità maggiore (ne è un celebre esempio il galleggiamento dell'olio sull'acqua). Arriviamo quindi al compito vero e proprio. Su richiesta del professore ho esposto questa "tesi" a miei genitori, ma non mi sarei mai aspettato la loro reazione: sono rimasti completamente impassibili, e ad un certo punto mio padre, sogghignando ha detto: "Tu sai che ho a che fare con densità, viscosità e numeri di Reynolds ogni giorno con il mio lavoro?" Infatti, essendo un tecnico dell'impiantistica, queste nozioni gli sono fondamentali per calcolare eventuali resistenze o cali di pressione all'interno delle tubature.

domenica 20 ottobre 2013

LA STORIA DELLA TERRA

La Terra si formò circa 4,6 miliardi di anni fa, quando una massa di polveri e gas vaganti nello spazio della nostra galassia cominciò a contrarsi e a raffreddarsi. La (parte) centrale diede origine al Protosole, mentre tutti gli altri residui si agglomerarono tra loro creando i vari pianeti della galassia, tra cui la Terra stessa.  Le rocce più antiche sulla Terra hanno dai 3,8 ai 4,2 miliardi di anni; tuttavia, mediante le datazioni radiometriche, il nostro sistema solare avrebbe "soltanto" 4560 milioni di anni e i meteoriti più antichi circa 4559 millioni di anni. Attualmente si pensa che la Terra si sia formata mediante l'unione disordinata di vari oggetti che colpivano la sua superficie. Con questa ipotesi si può anche spiegare la formazione della Luna la quale, secondo gli scienziati, sarebbe stata creata da un impatto gigantesco del nostro pianeta con un corpo celeste poco più grande di Marte (quest'ultimo vanta circa 6800 km di diametro). Frammenti provenienti sia dal corpo sia dalla Terra furono scagliati nello spazio, dove si aggregarono dando vita al nostro satellite; questa ipotesi è stata confermata anche grazie alla datazione delle rocce lunari (4,47 miliardi di anni). In seguito, una pioggia continua di planetesimi, (oggetti rocciosi primordiali che colpivano la Terra entrando nella sua orbita) urtò la superficie dei vari corpi celesti fino a 3800 milioni di anni fa, eliminando la crosta primitiva della Terra e creando i vari crateri della Luna, di Mercurio, di Marte. La Terra, a causa dei numerosi impatti, aumentò di dimensioni pian piano e cominciò a surriscaldarsi mediante tre principali fenomeni:
1.       l'energia cinetica rilasciata dagli impatti dei planetesimi sulla superficie terrestre si convertì in energia termica, che in parte venne dispersa nello spazio. In alcune zone gli impatti erano talmente frequenti da "seppellire" completamente sottoterra l'energia venutasi a creare;
2.       L'aumento della pressione all'interno del pianeta, dovuto al continuo accumulo di materiali nelle zone esterne e alla scarsa conduttività delle rocce, generò ulteriore calore;
3.       La radioattività degli elementi naturali, i quali erano presenti sulla Terra in quantità maggiore di circa quindici volte rispetto ad oggi, trasmettevano calore ai materiali circostanti mediante l'energia cinetica delle particelle che rilasciavano.
Si è calcolato che tutti questi elementi abbiano portato ad una temperatura interna di circa 1000°C.
Dopo un periodo compreso tra i 300 milioni e il miliardo di anni, a causa della disintegrazione radioattiva, la temperatura interna aumentò progressivamente fino a raggiungere nelle zone più interne la temperatura di fusione del ferro il quale, a causa della sua elevata densità, sprofondò "colando"  verso il centro della Terra e trascinando con se vari materiali più leggeri. Questo fenomeno viene definito dagli scienziati "catastrofe del ferro". Questo evento, tuttavia, provocò la stratificazione della Terra e la creazione di un nucleo liquido e un conseguente aumento della temperatura di altri 2000°C. Nel pianeta, ormai in gran parte allo stato fuso, si venne a creare una differenziazione gravitativa che permise ai materiali più leggeri di migrare verso l'esterno e di formare la crosta terrestre.
Riguardo all'atmosfera, le collisioni cancellarono di sicuro l'eventuale atmosfera primordiale venutasi a creare nel frattempo. Dai dati in possesso si ipotizza che i materiali volatili si crearono dal degassamento delle rocce contenute nel mantello, ossia la zona intermedia tra crosta e nucleo, tra 4000 e 3500 milioni di anni fa. Secondo le teorie degli scienziati, i planetesimi che formarono la terra contenevano ghiaccio, acqua e altre sostanze. L'acqua migrò verso l'esterno sotto forma di vapore acqueo durante la fusione parziale del pianeta; l'atmosfera primordiale venne a crearsi grazie ai gas rilasciati dalle continue eruzioni vulcaniche ossia azoto, diossido di carbonio e idrogeno (questo si disperse nello spazio).

Infine, si ipotizza che la crosta terrestre si sia originata mediante la lava proveniente dalle continue eruzioni vulcaniche a cui seguivano rifusioni delle rocce consolidate e, anche grazie all'azione degli agenti atmosferici, si venne a formare il primo strato di regolite.

mercoledì 16 ottobre 2013

CHE COSA SONO LE SCIENZE DELLA TERRA?

Lo studio del pianeta Terra era affidato ad una branca della scienza chiamata geologia; tuttavia questo termine è diventato col tempo sempre più specialistico fino a ridursi ad identificare la semplice analisi delle rocce sulla crosta terrestre in tutti i loro aspetti. Attualmente viene utilizzato il termine di SCIENZE DELLA TERRA per indicare la branca di studi che esamina il nostro pianeta nella sua totalità. Quest'ultima si suddivide in molti aspetti collegati tra loro:
·         Meteorologia   -->   studio dei fenomeni fisici che avvengono nella troposfera responsabili del tempo atmosferico;
·         Climatologia   -->   studio del clima e delle condizioni meteo nel raggio di 20/30 anni;
             Oceanografia   -->   studio degli oceani e dei loro processi chimici, fisci e biologici;
·         Idrologia   -->   studio del movimento, della chimica e della biologia delle masse d'acqua del pianeta;
·         Paleontologia   -->   studio degli esseri viventi vissuti nel passato attraverso l'analisi dei loro fossili;
·         Mineralogia   -->   studio delle caratteristiche fisiche e chimiche dei minerali;
·         Petrologia   -->   studio delle rocce attraverso analisi di varia natura;
·         Geochimica   -->   studio delle unità geologiche e delle loro componenti mediante la chimica;
·         Vulcanologia   -->   studio dei fenomeni vulcanici;
·         Geofisica   -->   studio delle proprietà fisiche del pianeta Terra;
·         Geografia fisica   -->   branca della geografia che studia le caratteristiche fisiche della Terra;
·         Geomorfologia   -->   branca della geografia che studia la morfologia della Terra;
·         Geologia ambientale   -->   studio delle interazioni tra uomo e ambiente;
·         Geologia strutturale   -->   studio della deformazione delle rocce a causa delle forze agenti all'interno della crosta;
·         Stratigrafia   -->   studio della datazione delle rocce;
·         Geologia storica ;
·         Sedimentologia   -->   studio dei processi di sedimentazione;
·         Geologia marina ;
·         Geodinamica   -->   studio delle forze alla quale è sottoposta la Terra.

Tuttavia negli ultimi tempi si è pensato al passaggio da scienze della Terra a scienza integrata del sistema Terra, a causa dell'ormai divenuto elevato rischio ambientale, per poter studiare al meglio le modificazioni del sistema su scala globale e le loro possibili evoluzioni. Va anche tenuto conto che, a partire dalla rivoluzione industriale, i cambiamenti effettuati dall'uomo sull'ambiente hanno influenzato quest'ultimo in maniera tale da poter paragonare l'attività umana come forza della natura vera e propria. I cambiamenti oggi attualmente in atto sono, infatti, senza precedenti come dimensione e velocità di mutamento; si necessita quindi di un'accurata conoscenza di questi processi naturali in modo da poter comprendere anche ciò che potrebbe accadere in futuro.

mercoledì 11 settembre 2013

Recensione Blog: Prosopopea

Ed ecco un altra recensione. Questa volta non si tratterà di libri fantascientifici o di scrittori russi, bensì di un altro blog scientifico decisamente molto, ma molto più grande e meglio strutturato del mio "abbozzo". Si tratta di Prosopopea, sito gestito da tale DoppiaM. Quello che mi ha colpito fin da subito non è tanto la qualità molto buona dei post o la tipologia di argomenti scientifici trattati, bensì il modo in cui sono esposti al lettore. Normalmente si è abituati a vedere gli argomenti dei vari blog attinenti alle scienze esposti in maniera fin troppo formale, tanto da risultare noiosa soprattutto a chi ne è poco avvezzo. In questo caso le cose non stanno così; difatti ci si ritrova spesso coinvolti in momenti dove la serietà lascia spazio a brevi ma intense risate (senza l'ausilio di battute "pesanti"), invogliando quindi il lettore a continuare a leggere fino alla fine. Ovviamente tutto questo senza perdere professionalità nell'esposizione e senza cadere nel ridicolo.
Non posso far altro che consigliare a tutti di dare un'occhiata, perchè questo blog merita davvero!

Ecco il link: http://prosopopea.wordpress.com/

Recensione Libro: Fondazione

"La violenza è l'ultimo rifugio degli incapaci." (Cit. Salvor Hardin)

Come si sarà ben dedotto dal titolo, decisamente "anomalo" rispetto a ciò che è solito comparire in questo blog, ho voluto inserire questa breve analisi di un libro letto durante l'estate che mi sembrava giusto condividere con i lettori in quanto offre non solo una narrazione originale e ben strutturata, ma anche vari spunti di riflessione su altrettanti vari argomenti.
Ma andiamo con calma...
Il libro fa parte di un gruppo di romanzi, composti tutte dallo scrittore russo Isaac Asimov, chiamato "Ciclo delle Fondazioni", il quale può essere considerato uno dei capostipiti della fantascienza classica. 
L'opera si presenta composto di 47 capitoli divisi in cinque storie che possono essere considerate singolarmente ma è preferibile leggerle in ordine essendo legate tra loro da un filo conduttore: Prologo, Prima Crisi, Seconda Crisi, Intercrisi, Terza Crisi.
Qui di seguito, per chi fosse interessato, vi è un breve riassunto dell'opera il quale contiene dei piccoli spoiler. Ho segnalato l'inizio e la fine per poterli saltare.
**[SPOILER]**
La storia inizia con uno psicostorico di nome Hari Seldon che riuscendo a prevedere imminente dell'Impero Galattico mediante complessi calcoli matematici, si fa esiliare su un pianeta lontano di nome Terminus affermando di voler salvare tutto il sapere conosciuto nell'Enciclopedia, un'enorme opera che permetterà di ridurre gli imminenti 30000 anni di "medioevo" a soli mille. Tempo dopo, sul pianeta prima citato, il capo della comunità Lewis Pirenne e il sindaco Salvor Hardin devono fare i conti con il regno di Anacreon, che vuole assoggettare la loro popolazione a sudditi; sfruttano quindi la loro ricchezza scientifica per far sì che l'invasione non abbia mai inizio. Successivamente, Hardin trasforma la scienza in una religione e la usa per assoggettare le masse ad Anacreon e controllarle con i suoi macchinari, visti dalla gente comune come "attrezzi divini". Superata la seconda crisi, un mercante di nome Limmar Ponyets approfitta di una missione segreta della Fondazione per commerciare in segreto macchinari con il pianeta Askone, dove la tecnologia della Fondazione è severamente vietata. Passano gli anni ed un altro mercante, Hober Mallow, si ritrova ad allacciare i contatti con il pianeta Korell, in conflitto con Terminus. Mallow diventa poi sindaco di Terminus, riuscendo a conquistare economicamente Korell grazie al benessere portato sul pianeta ostile.
***[FINE SPOILER]*** (Ho scritto di proposito la trama a grandi linee per invogliare a leggere l'opera completa!)
Come già detto in precedenza quest'opera offre spunti di riflessione i quali mettono ben in luce come la scienza e la tecnologia, opportunamente combinati con altri campi come commercio e religione, possano essere utilizzati per scopi molto più grandi del semplice piano teorico/studioso. Il tutto senza fare ricorso alla violenza.
Per concludere, non posso che ritenermi soddisfatto di quest'opera e ne consiglio la lettura non solo agli appassionati del genere. Più che promosso!
VOTO: 9

martedì 14 maggio 2013

LA REGOLAZIONE GENICA

Per regolazione genica si intende la capacità delle cellule di controllare i propri geni, il quale avviene attivando/disattivando i geni a seconda della necessità. Cio' avviene anche a causa di "problemi di energia", dato che alcuni geni opererebbero a vuoto in alcuni processi vitali. Questo avviene, per esempio, nel batterio E. coli quando quest'ultimo assorbe lattosio per indurre il processo di demolizione
Negli eucarioti, invece, questo procedimento di regolazione puo' servire per eseguire funzioni molto piu' complesse, come per esempio il corretto sviluppo di un embrione: un organismo pluricellulare comincia il suo sviluppo da una cellula fecondata chiamata zigote, il quale si divide dando vita a molte cellule che, ad un certo punto, iniziano a dividersi in varie tipologie restando pero' accomunate dal genoma, ossia dal patrimonio genetico, e differenziandosi dal proteoma, il patrimonio proteico. Ovviamente tutte le informazioni genetiche dello zigote sono presenti in qualsiasi cellula dell'organismo. A dimostrare cio' fu il biologo britannico J.B. Gurdon. Nei procarioti questo procedimento con il legame dell'mRNA polimerasi ad un determinato sito di DNA (promotore),che apre la doppia elica; l'mRNA, quindi, si stacca. Durante la trascrizione sono presenti geni regolatori che agiscono mediante proteine dette fattori di regolazione della trascrizione; queste possono eseguire controllo positivo o negativo.
Un segmento di DNA codificante è noto come gene strutturale; questi ultimi lavorano in sequenza e possono includere catene polipeptidiche che costituiscono determinati enzimi. I geni codificanti vengono, di solito, trascritti in un filamneto di mRNA composto da un insieme di segmenti delimitato da codoni di avvio e di arresto: l'estremità 5' della molecola di mRNA ha una sequenza leader mentre l'estremità 3' ha una sequenza trailer, le quali non codificano per nessuna proteina. Esistono proteine indispensabili per la cellula e i loro geni codificanti sono sempre attivi (geni costitutivi).
Negli eucarioti la trascrizione è controllata da vari fattori: gli attivatori/repressori regolano l'attività dell'RNA polimerasi; è possibile regolare l'azione mediante molecole effettrici; inibizione del DNA mediante gruppo metile; presenza di attivatori che alterano la cromatina in alcune strutture del DNA.

MUTAZIONI GENETICHE

Agli inizi del Novecento il botanico olandese Hugo De Vries defini' per la prima volta le mutazioni genetiche: secondo lui erano caratteristiche appartenenti al fenotipo. Attualmente è stato dimostrato che queste, invece, appartengono ai genotipi: una mutazione è un cambiamento della sequenza e/o del numero di nucleotidi in un segmento dell'acido nucleico. Queste anomalie possono manifestarsi nei gameti o nelle loro cellule d'origine e vengono trasmesse alle generazioni successive. La maggior parte delle mutazioni riguardano la sostituzione, l'aggiunta o la perdita di un singolo nucleotide: vengono dette mutazioni puntiformi. Esistono anche mutazioni causate dalla sostituzione di basi azotate: se viene inserito un amminoacido diverso da quello vengono dette mutazioni di senso (per esempio, l'anemia falciforme). Tuttavia, puo' anche capitare che la sostituzione di un amminoacido non comporti alcun danno a proteine o cellule: in questo caso si parla di mutazioni non senso; in tali situazioni viene provocata la fine della sintesi proteica dato che il nucleotide viene sostituito con un codone d'arresto. Si possono avere quindi disfunzioni come la distrofia muscolare di Duchenne.
Il terzo tipo di mutazioni viene detto mutazione silente quando al cambiamento di nucleotide non corrisponde nessuna sostituzione di amminoacidi durante la traduzione: non si hanno quindi danni fisici per l'individuo.
Le mutazioni possono essere di due tipi: spontanee, nel caso dell'inserimento di una base azotata errata durante la duplicazione del DNA, oppure indotte; in tal caso a provocarle sono cause ambientali (raggi X, raggi UV, sostanze mutageni).

SINTESI PROTEICA

La sintesi proteica permette di capire in che modo le informazioni contenute nel DNA e trascritte nell'mRNA vengono tradotte in sequenze di aminoacidi di una catena polipeptidica. Questo processo risulta molto piu' complicato negli eucarioti rispetto ai procarioti; nei procarioti la trascrizione avviene nel nucleo cellulare, mentre la creazione di proteine nel citoplasma. Oltre all'mRNA la sintesi proteica richiede anche la presenza dell'RNA ribosomiale e dell'RNA di trasporto. I ribosomi sono il fondamento della sintesi proteica; sono costituiti per la maggior parte da una tipologia di RNA detta ribosomiale (rRNA). Ogni ribosoma è composto da due subunita': la minore ha una "zona di collegamento" (sito di legame) con l'mRNA, mentre quella piu' grande è composta da tre siti di legame per il tRNA.
Il tRNA di trasporto funge da dizionario necessario per la traduzione degli acidi nucleici in proteine. In generale, le cellule contengono piu' di 20 molecole di tRNA, ciascuna delle quali è composta da circa 80 nucleotidi legati in una catena a forma di trifoglio, la quale termina sempre, sull'estremità 3', con una sequenza CCA; in questo punto l'amminoacido si lega al suo tRNA. Alcune parti sono comuni a tutte le tipologie di tRNA, mentre altre sono specifiche a seconda della molecola. Un secondo sito di attacco è situato sull'anticodone, ossia su tre nucleotidi localizzati all'estremità di una delle protuberanze della molecola. Un'ennesima zona, invece, funge da riconoscimento per un enzima chiamato amminoacil-tRNA sintetasi: ve ne sono 20 diverse tipologie, una per ciascun amminoacido. Questi enzimi vengono utilizzati per legare determinati tRNA e amminoacidi.
Il processo di sintesi proteica viene detto traduzione e si divide in tre parti: inizio, allungamento e terminazione. La prima fase inizia quando la subunità minore del ribosoma si unisce all'estremità 5' del ribosoma. Nei procarioti, tra cui E. coli, traduzione e trascrizione possono avvenire contemporaneamente: infatti l'estremità 5' puo' attaccarsi al ribosoma anche se il resto della molecola è ancora in trascrizione.Il primo tRNA si appaia poi con il codone d'inizio dell'mRNA (generalmente è il codone 5'-AUG-3'); nei procarioti il tRNA trasporta il primo amminoacido della catena, ossia l'fMet (formilmetionina), che verrà rimosso al termine della traduzione. La "struttura" formatasi dall'unione tra subunitàm minore, mRNA e tRNA viene chiamata complesso d'inizio. Successivamente, l'unità maggiore si collega a quella minore e il tRNA si unisce al sito P, dando inizio alla seconda fase (allungamento). Qui il secondo codone dell'mRNA combacia con il sito A della subunità maggiore, dove va ad inserirsi un secondo tRNA con l'amminoacido seguente. Viene quindi a formarsi un legame peptidico tra gli aminoacidi e l'mRNA comincia a "scorrere" in direzione 5'-3' librando il sito A, il quale viene ancora occupato da un nuovo tRNA. Il processo si ripete fino al raggiungimento del codone di stop; a quel punto ad intervenire è una proteina detta fattore di rilascio, che libera la catena polipeptidica formatasi e dissocia la subunità del ribosoma.

MRNA NELLE CELLULE EUCARIOTE

Una delle piu' grandi scoperte avvenute sullo studio del DNA è la presenza di sequenze nucleotidiche non tradotte che interrompono le sequenze di geni codificanti. Queste sequenze non codificanti vengono chiamate introni, mentre quelle "funzionanti" sono denominate esoni. Gli introni vennero scoperti durante gli esperimenti di ibridazione tra mRNA e DNA: due filamenti singoli di acidi nucleici creano, mediante appaiamento, un doppio filamento solo dove le basi risultano complementari. Scaldando una doppia elica di DNA i filamenti si staccano a causa della rottura dei legami a idrogeno: questo procedimento viene detto denaturazione del DNA. Raffreddando uno dei filamenti in presenza di mRNA è possibile notare l'affinita dei due acidi nucleici. Grazie a questo lavoro i ricercatori scoprirono che non vi era una perfetta somiglianza tra RNA maturo e geni. Si dedusse quindi che gli introni vengono trascritti prima della traduzione e vengono eliminati prima di quest'ultima. Il numero di introni puo' variare a seconda della specie. Durante l'ibridazione DNA-mRNA le sequenze dei due acidi sono unite da legami a idrogeno. Se dei segmenti di DNA non hanno corrispondenze con l'mRNA vengono create delle anse esterne, che corrispondono agli introni.

lunedì 29 aprile 2013

TRASCRIZIONE ED ELABORAZIONE DELL'RNA MESSAGGERO

L'assemblamento di molecole di RNA inizia da uno dei due filamenti di DNA secondo lo stesso principio della duplicazione dell'acido desossiribonucleico. Alla stessa maniera del DNA, una molecola di RNA ha un'estremità 5' e una 3'. I nucleotidi si aggiungono alla catena di RNA, dove perdono due gruppi fosfato. Questo processo viene chiamato trascrizione, dato che il suo scopo è proprio quello di "ricopiare" un segmento di DNA (e di conseguenza un'informazione) in una molecola di RNA, la quale prende il nome di trascritto. Alcune sequenze di nucleotidi del DNA vengono chiamate promotori (o promoters) e fungono da siti di legame per l'enzima RNA polimerasi. In questi punti i filamenti di DNA si separano e continuano la loro divisione a mano a mano che l'RNA polimerasi si sposta lungo la molecola. L'assemblamento dell'RNA avviene in direzione 5'-3' mentre l'RNA polimerasi "analizza" il filamento di DNA nella direzione inversa. A terminare il processo di trascrizione vi sono le sequenze di arresto, le quali segnalano i punti dove la "copiatura" deve finire. Al termine dell'operazione, il DNA resta all'interno del nucleo per essere riutilizzato; l'mRNA, invece, si scompone fino a che non sarà necessario eseguire nuovamente il procedimento.


INTRODUZIONE SULL'RNA

Le ricerche di Pauling dimostrarono che il DNA è l'insieme delle istruzioni di sintesi delle strutture e le funzioni cellulari. La sequenza degli aminoacidi corrisponde ad una precisa proteina, e sorse quindi un quesito legato alla traduzione delle basi. Si scoprì quindi l'RNA (acido ribonucleico), ossia una sostanza chimicamente affine al DNA, era fondamentale per la traduzione dei segmenti di DNA in esatte sequenze di aminoacidi, permettendo la creazione delle strutture proteiche. Dalle ricerche eseguite si constatò che le cellule ricche di RNA sono in grado di sintetizzare grandi quantità di proteine; inoltre nelle cellule eucariote l'RNA abbonda nel citosol, dove ha luogo la maggior parte della sintesi proteica. Infine, si scoprì che alcuni virus non possiedono DNA e sono quindi composti esclusivamente da DNA e proteine, come per esempio il virus del mosaico del tabacco. Si dedusse, grazie a queste ricerche, che l'RNA contiene informazioni sulla struttura proteica alla stessa maniera del DNA; si scoprì inoltre che ben tre tipi di RNA possono agire nelle strutture proteiche: l'mRNA (RNA messaggero), l'rRNA (RNA ribosomiale) e il tRNA (RNA transfer).

domenica 14 aprile 2013

LA FORMA DEL DNA

Fu dimostrato che il DNA è composto da una serie di "mattoni" definiti nucleotidi, i quali sono composti dal desossiribosio (uno zucchero), un gruppo fosfato e una tra quattro basi azotate (adenina, guanina, citosina, timina). Fosfati e zuccheri creano, unendosi, lunghe catene polimeriche. Altri esperimenti dimostrarono che il rapporto adenina-timina e guanina-citosina sono costanti. La cristallografia a raggi X ha dimostrato che il DNA ha una forma a doppia elica, simile ad una scala a pioli ritorta. I primi a scoprire la composizione della sua struttura tridimensionale furono James Watson e Francis Crick nel 1953 al laboratorio Cavendish di Cambridge, in Inghilterra. I due scienziati dimostrarono che il DNA era l'alternanza di molecole di desossiribosio e di fosfato a creare il montante della scala, mentre i pioli sono composti dalle accoppiate adenina-timina e guanina-citosina.

L'ESPERIMENTO
Nel 1953 Francis e Crick pubblicarono il primo modello molecolare di DNA, interessati a determinarne la struttura basandosi su ciò che si era scoperto dal punto di vista chimico. In precedenza, Levene aveva dimostrato che i nucleotidi erano composti da gruppi fosfato aggregati a zuccheri desossiribosio i quali erano legati a una delle quattro basi azotate (A, G, C, T), dove gli zuccheri e i fosfati sono collegati tra loro in successione. Tuttavia vi era un errore in questa teoria: non era presente un'"intelligenza" che controllasse la successione di informazioni, indispensabile per creare le informazioni di un singolo essere vivente. Erwin Chargaff, nel frattempo, isolò il DNA da diversi organismi e noto che la quantità di adenina e timina erano costanti, cosi come la coppia guanina-citosina. Si noto però che i rapporti delle due coppie differivano da organismo a organismo, cosa che non poteva accadere se la successione di DNA fosse stata identica per tutti gli esseri viventi. Sempre nello stesso periodo, Linus Pauling usò la cristallografia ai raggi X per determinare una struttura a trivella. La cristallografia a raggi X prevedeva di far deviare questi raggi in modo da crearne un'immagine su pellicola fotografica. Si ottenne una struttura a forma di X, la quale corrispondeva ad un andamento ad elica, il cui diametro resta sempre invariato. Si determinò l'altezza di un giro d'elica pari a 34 Angstrom, mentre la distanza tra due basi come 3,4 Angstrom. Di conseguenza, ci sono dieci nucleotidi in un giro di elica. Dagli studi si determinò anche che l'elica del DNA doveva essere doppia con i gruppi fosfato all'esterno e le basi all'interno. Si cercò successivamente di determinare l'incastro delle eliche e la disposizione delle basi azotate. Linus Pauling avanzò la sua ipotesi, proponendo una struttura a tripla elica, dove mise i gruppi fosfati all'interno di ogni elica e le basi azotate rivolte all'esterno. Tuttavia, considerando le cariche negative sui gruppi fosfato, la struttura di Pauling sarebbe esplosa a causa delle repulsioni magnetiche. Venne quindi determinato da Watson e Crick che le basi azotate dovevano essere disposte in coppia di uguale lunghezza per creare una struttura regolare. Gli unici accoppiamenti soddisfacenti furono adenina-timina e guanina-citosina. Venne quindi fabbricato il primo modello di DNA tridimensionale e pubblicarono un articolo di 900 parole sulla rivista Nature.

mercoledì 3 aprile 2013

LA COMPOSIZIONE DEL GENE

Negli anni '20 si scoprì che alcuni batteri "inoffensivi" potevano diventare pericolosi se mescolati a batteri "infetti" uccisi in precedenza. Si ipotizzò che i batteri virulenti contenessero una particolare molecola che poteva infettare gli altri batteri innocui. Questo "meccanismo di trasformazione" fu in seguito ribattezzato gene. Negli anni '40 un gruppo di scienziati del Rockfeler Institute, capitanati da Oswald Avery, svilupparono questi esperimenti e constatarono che un estratto puro del "principio trasformante" non era intaccato dagli enzimi per la digestione di proteine, ma da un enzima che digeriva il DNA. Si concluse quindi che la molecola genetica è il DNA e non le proteine.

L'ESPERIMENTO
Oswald Avery e i suoi colleghi eseguirono una serie di esperimenti utilizzando vari ceppi di batteri Pneumococci, i quali causano la polmonite. Si notò che questi crescevano all'interno del corpo ospite e, come altri batteri, su terreni solidi o in liquidi. Nel 1928 Griffith pubblicò uno studio sui vari ceppi di Pneumococcus, due dei quali si distinguevano dalla massa: S (capsulato) e R (non capsulato). Il primo era caratterizzato da una superficie liscia dovuta da un rivestimento zuccherino dalle sembianze di una capsula, il secondo, privo di rivestimento, appariva come rugoso. Il ceppo S, a differenza di R, risultava infettivo dato che il rivestimento lo proteggeva dal sistema immunitario dell'ospite: infatti topi inoculati con il ceppo S morivano di polmonite in pochi giorni. Griffith, notando che da uno stesso paziente si potevano estrarre vari ceppi di Pneumococcus, si chiese se un ceppo poteva mutare in un altro. Eseguì quindi una nuova serie di esperimenti. Iniettò in un topo una colonia di batteri S uccisi con il calore: non procuravano nessuna infezione. Inoculò in un altro roditore sia batteri S uccisi che batteri R, i quali provocarono al topo una polmonite: Griffith rinvenne batteri S vivi nel sangue dell'animale, i quali potevano infettare altri topi. Griffith scoprì, quindi, che esisteva un "principio trasformante" trasmissibile tra colonie di batteri diverse. Avery, dopo aver letto la pubblicazione di Griffith, intraprese alcuni esperimenti insieme a Colin MacLeod e Maclyn McCarty: la differenza sostanziale fu l'utilizzo di un saggio in provetta a differenza dei topi. Si usò un detergente per lisare le cellule S uccise con il calore, e si usò il lisato come saggio di trasformazione. Si constatò che i batteri S lisati potevano trasformare ceppi R e S. Venne analizzato quindi ciascun componente del lisato per determinare quale di essi aveva attività trasformante. Il lisato venne inizialmente incubato insieme all'enzima SIII, capace di digerire il rivestimento zuccherino. Dato che il lisato poteva trasformare ancora, il lisato venne incubato con enzimi capaci di digerire proteine, tripsina e chimotripsina, notando che il principio non era nemmeno una proteina. Vennero quindi isolati da Pneumococcus il DNA e l'RNA, precipitati con alcol e sciolti in acqua. Quindi, venne prima distrutto l'RNA usando l'Rnasi. Non ottenendo risultati, il DNA venne sciolto con Dnasi e si scoprì, finalmente, che il "principio trasformante" era il DNA. I risultati vennero pubblicati nel 1944.


Gene

DNA NEI BATTERI E NEI VIRUS

I microscopi ci hanno permesso di scoprire l'esistenza di batteri a singola cellula. Tuttavia, ci fu un forte dibattito se i batteri possedessero o meno i geni e sulle eventuali caratteristiche in comune con forme di vita superiori. Si riuscì a trovare una risposta a ciò negli anni '40, quando si scoprì che anche i batteri avevano un sesso. Infatti questi ultimi, durante il processo di accoppiamento, si scambiano materiale genetico mediante un canale di appaiamento che collega i due batteri. Secondo il microscopio elettronico, anche i virus batterici effettuavano un processo simile. Un virus che attacca un batterio, infatti, inietta i suoi geni mediante la coda, molto simile ad un canale. Nel 1952 Alfred Hershey dimostrò che il DNA è responsabile della duplicazione di virus all'interno di cellule infette, confermando quindi gli esperimenti eseguiti da Avery, secondo il quale i geni sono composti da DNA. Emerse quindi che i virus, alla stessa maniera dei batteri, potevano essere utilizzati per studiare i principi della genetica.

L'ESPERIMENTO
Joshua Lederberg lavorava, nel 1945, come laureato nel laboratorio di Tatum. In quel periodo lesse l'articolo di Avery sulla capacità trasformante del DNA, cominciando ad interessarsene. Per rispondere al perché del trasferimento di DNA da un batterio all'altro, ipotizzò che questi ultimi erano in grado di accoppiarsi fisicamente scambiando il DNA. Nel frattempo Tatum eseguì delle mutazioni ai batteri E.coli per poter studiare il fenomeno per cui un gene corrisponde ad un enzima. In maniera simile a Neurospora, E.coli può sintetizzare tutti i nutrienti di cui ha bisogno. Per esempio, E.coli possiede enzimi legati a molecole di precursore convertibili in aminoacidi come metionina, prolina, theorina e biotina. Tatum creò un mutante impossibilitato a sintetizzare tutti questi nutrienti. Per esempio, il mutante #1, a causa di due mutazioni genetiche (met" e bio") non poteva produrre l'aminoacido metionina o la vitamina biotina; tuttavia era ancora in grado di produrre il resto degli aminoacidi e delle vitamine. Il ceppo mutante #2, invece, possedeva altre due mutazioni genetiche (pro¯ e thr¯) che gli impedivano si sintetizzare prolina e theonina, ma non gli altri aminoacidi o vitamine. Questi ceppi mutanti crescevano su terreni arricchiti con gli integratori adatti, sui quali erano ben visibili a occhio nudo le colonie batteriche, le quali si creano da una singola cellula batterica divisa ripetutamente. Vennero quindi adottati i mutanti #1 e #2 dato che essi erano "complementari" l'uno con l'altro. Inizialmente vennero fatti crescere in una coltura contenente tutti e quattro gli integratori. Dopo aver lasciato crescere i due ceppi, li sparse su un piatto di coltura senza "aggiunte" in modo da isolare le singole cellule batteriche dato che le cellule "sopravvissute" possiederanno tutti e quattro i geni presi in analisi. Infatti alcune colonie batteriche crebbero sulla piastra non arricchita, dimostrando che i mutanti si sono "passati" le coppie di geni mancanti tra loro. Venne calcolato che questo fenomeno poteva avvenire in un caso su un milione di batteri cresciuti insieme nello stesso contenitore. Questo processo di scambo genetico mediante contatto diretto tra batteri venne chiamato coniugazione. WH scoprì, in seguito, che la coniugazione avveniva esclusivamente mediante batteri di diversa tipologia. Il trasferimento di geni avviene mediante un canale, detto pilo, ove questi si spostano dal batterio "+" al batterio "-". Questo "accoppiamento" poteva essere interrotto agitando la coltura batterica e si notò che più tempo passava dalla "divisione forzata" delle due cellule più geni venivano trasferiti in seguito; ciò permise di studiare l'ordine di alcuni geni batterici. I batteri furono anche utilizzati per analizzare la funzione genica di organismi superiori.


Coniugazione batterica

IL GENE COME PROTEINA

Nel 1902 il medico inglese Archibald Garrod (1857-1936), grazie ai suoi studi sugli errori congeniti del metabolismo, scoprì che la malattia dell'alcaptonuria (che provoca la comparsa di urine scure) era dovuta dalla mutazione di un gene, che causava problemi nello smaltimento corretto dei liquidi residui. L'ipotesi della mutazione genetica fu dimostrata nel 1941 da George Beadle e da Edward Tatum, che utilizzarono per il loro esperimento l'organismo Neurospora, ossia la muffa del pane. I due scoprirono che le muffe esposte a radiazione perdevano la capacità di produrre nutrienti essenziali, rallentando o bloccando la loro crescita. Si scoprì, tuttavia, che era possibile ripristinarne lo sviluppo fornendo dall'esterno i nutrienti "mancanti" mediante supplementi specifici. Si concluse quindi che ciascuna mutazione disattivava la capacità di sintetizzare uno specifico nutriente. Dunque, ciascun gene ha le informazioni per creare una proteina.

L'ESPERIMENTO
Nel 1941 Beagle e Tatum eseguirono gli esperimenti con Neurospora. I loro dati confermarono la teoria di Garrod del 1902, ossia che le malattie ereditarie risultano essere "errori congeniti del metabolismo" causati da pecche o deficienze in un determinato passaggio della via biochimica dell'organismo. Venne utilizzata Neurospora per il fatto che risultava essere un organismo aploide per buona parte della vita; di conseguenza non era necessario considerare alleli dominanti o recessivi. Neurospora tende a crescere su un terreno ove siano presenti zuccheri, sali inorganici e biotina. Normalmente la muffa citata in precedenza è capace di trasformare queste sostanze in aminoacidi e vitamine necessari per la sua crescita. Si pensò quindi che, mutando ciascun gene che produceva un enzima, si sarebbe ottenuto un ceppo di Neurospora impossibilitato a crescere su di un terreno minimo, a meno che non venga inserito nel terreno stesso il prodotto dell'enzima "mancante". Nel 1927 Muller dimostrò che i raggi X provocavano mutazioni genetiche. Si pensò quindi di irradiare una coltura di Neurospora con questi ultimi, e si pensò di ottenere un mutante impossibilitato a crescere su di un terreno minimo. Si fece quindi sviluppare la discendenza di Neurospora "irradiata" su un terreno "completo" di tutte le vitamine e aminoacidi necessari. Successivamente si provò a far prosperare quest'ultima su di un terreno minimo. Si provò con la coltura 299 e si constatò che non cresceva su terreno arricchito di aminoacidi ma su terreno arricchito di vitamine: il ceppo non riusciva quindi a sintetizzare una delle vitamine. Aggiungendo successivamente alla coltura le vitamine una per una, si scoprì che la muffa non era in grado di sintetizzare la vitamina B6, essendo uno degli enzimi della via sintetica alterato (probabilmente a causa dei raggi X). Si eseguì lo stesso esperimento su vari ceppi mutati di Neurospora, riuscendo ad analizzare la via di sintesi di molte vitamine e aminoacidi. Per esempio, l'arginina (un aminoacido) è sintetizzato da vari passaggi consecutivi accelerati dagli enzimi. Ciascun passaggio della via di sintesi crea un determinato aminoacido partendo dalla molecola precursore. Tra i mutanti per l'arginina sarà quindi necessario aggiungere ornitina, citrullina o arginina al ceppo a seconda del "punto di sintesi" danneggiato: se manca citrullina, ad esempio, bisognerà aggiungerla per permettere la sintesi dell'arginina.
Si dimostrò quindi la teoria di Garrod.


Neurospora Crassa

mercoledì 20 marzo 2013

LA DUPLICAZIONE DEL DNA

Dopo la scoperta dell'accoppiamento obbligatorio tra adenina e timina e tra guanina e citosina, Watson e Crick proposero che un filamento di DNA venisse usato come base di partenza per ricreare per creare la seconda parte dell'elica durante la duplicazione del DNA. Nel 1958 si ebbe la conferma di queste ipotesi mediante due serie di evidenze sperimentali. Nel frattempo venne scoperto un enzima, chiamato DNA polimerasi, il cui scopo era quello di aggiungere nucleotidi complementari alla metà di molecola di DNA "opposta". Venne condotto, inoltre, un esperimento dove, utilizzando gli isotopi dell'azoto, si dimostrò che le generazioni di batteri successive portavano con sè nuovi filamenti di DNA, che venivano trasmessi, inalterati, alle cellule figlie. Questo tipo di filamento fungeva da modello di base per la DNA polimerasi la quale creava un secondo filamento complementare per la molecola di DNA
Come avviene la divisione del DNA?
La duplicazione del DNA avviene quando un DNA elicasi divide un segmento di DNA e rompe i legami a idrogeno tra i due segmenti di DNA. L'enzima chiamato DNA polimerase può aggiungere i nucleotidi solo al filamento che ruota in direzione 3', costruendo quindi in direzione 5'-3'. Nel filamento opposto, invece, la ricostruzione del DNA risulta più complessa. E', infatti, necessario inserire dei primer di RNA da parte dell'RNA primase; a quel punto il DNA polimerase III inserisce desossiribonucleotidi tra un primer e l'altro. Successivamente, il DNA polimerase I sostituisce i primer di RNA con DNA. Infine, il DNA ligase unisce i vari "spezzoni" di DNA mediante un legame fosfodiestere.



domenica 6 gennaio 2013

LA GEOMETRIA MOLECOLARE


Le molecole, grazie ai legami covalenti, possono creare strutture geometriche ben distinte, essendo i legami orientati nello spazio in modo da formare angoli di legame. Nel 1957 viene formulata la teoria del VSEPR (Valence Shell Electronic Pair Repulsion) la quale afferma che gli atomi di una molecola si dispongono nello spazio, intorno a un atomo centrale, in base alle forze repulsive che si stabiliscono fra le coppie di elettroni del livello di valenza. In alcune molecole esistono coppie spaiate di elettroni non impegnati dette doppietti elettronici liberi (lone pairs).
La costruzione delle molecole permette di spiegare anche alcune proprietà come la polarità ossia molecole che si comportano come piccoli dipoli elettrici, esistono però anche molecole che non risentono di questo effetto e vengono dette, quindi, apolari.

Teoria VSEPR

LA TEORIA DELL'ORBITALE MOLECOLARE


La teoria dell'orbitale molecolare tenta di spiegare ciò che la teoria del legame di valenza lascia incolmato, ossia il fatto di considerare immutati gli orbitali atomici contraenti dopo la formazione del legame e l'incapacità di spiegare le proprietà magnetiche di varie molecole.
Questa teoria fu proposta per la prima volta da Hund e Mulliken.
Secondo questa teoria: secondo il principio di Aufbau gli elettroni occupano orbitali con energia più bassa, ossia più stabili, passando a quelli con energia più elevata solo dopo averli saturati; il numero di orbitali molecolari è uguale a quello degli orbitali atomici; secondo il principio di Hund quando ci sono due orbitali con energia uguale in ognuno di essi si posiziona un solo elettrone; secondo il principio di Pauli ogni orbitale contiene due elettroni con spin antiparallelo.
Gli orbitali molecolari possono essere definiti leganti, se gli elettroni soggiornano maggiormente nello spazio tra i due nuclei ottenendo maggiori possibilità di legame, o antileganti nel caso opposto.


LEGAMI SIGMA E LEGAMI PIGRECO


La lunghezza e l'energia di un legame dipendono dalla modalità di sovrapposizione: quando i due orbitali si sovrappongono frontalmente si ottiene un legame molto solido di forma ovoidale denominato sigma; quando invece la sovrapposizione è laterale si genera un legame pigreco.

Legami sigma e pigreco

GLI ORBITALI IBRIDI

Può capitare che la distribuzione elettronica degli atomi subisca delle alterazioni ove alcune coppie di elettroni si spaiano e vanno ad occupare orbitali elettronici vuoti con energia di poco superiore: si ottiene quindi la promozione dell'elettrone all'altro orbitale.

Orbitali ibridi sp, sp2 e sp3

LA TEORIA DEL LEGAME DI VALENZA


Dopo la scoperta della doppia natura dell'elettrone si affermò, negli anni Trenta, la teoria di orbitale atomico.
La teoria del legame di valenza afferma che un legame chimico si forma spontaneamente tra due atomi che presentino orbitali semivuoti (o incompleti) al fine di completare la saturazione. In questo caso non si cerca più di completare l'ottetto elettronico, ma di saturare orbitali incompleti ed instabili. Il legame si crea quando due atomi si avvicinano sufficientemente da sovrapporre i loro orbitali; così facendo i due elettroni di legame apparterranno ad entrambi gli elettroni nella zona di legame. Dal punto di vista energetico è fondamentale una riduzione dell'energia potenziale attraverso l'aumento di forze attrattive all'interno del legame atomico (nucleo 1-elettroni 2; nucleo 2-elettroni 1). Il picco minimo di energia potenziale si trova ad una determinata distanza tra i due nuclei (nel caso del legame H-H a 74 pm) e più essi si avvicinano più l'energia potenziale tende ad aumentare, fino alla rottura del legame.


Schema energia potenziale



L'IBRIDO DI RISONANZA


Secondo la scrittura delle molecole di Lewis talvolta la creazione di una sola struttura non basta ed è necessario crearne delle ulteriori. Questo processo di "mediazione" tra le varie strutture create viene detto risonanza e la struttura molecolare viene definita ibrido di risonanza.
Nella scrittura tutte le strutture parziali vengono scritte e collegate tra loro mediante una doppia freccia ( <=> ). Per definire la stabilità delle forme limite si può calcolare la carica formale, ossia la carica dei legami di un atomo quando essi sono tutti covalenti: carica formale = e.v. tot. - (e. tot. coppie di non legame + metà e. tot. in coppie di legame).

Ibrido di risonanza


IL LEGAME DATIVO

In alcuni casi gli elettroni messi in gioco provengono da un solo atomo: tempo fa questo caso veniva chiamato legame dativo, dove vi era un atomo "donatore" e un atomo "accettatore". Tuttavia si può definire come legame covalente a tutti gli effetti.


Legame dativo (NH4)

L'ELETTRONEGATIVITA'

Quando si crea un legame può capitare che uno dei due atomi riesca a "strappare" all'altro il/gli elettrone/i messi in gioco. Ciò è determinato da un'energia chiamata elettronegatività, che viene definita come la capacità che un atomo possiede di attrarre verso di sè la coppia di elettroni messa in gioco in un legame chimico. A seconda della differenza di elettronegatività si possono ottenere formazioni diverse a seconda della differenza di elettronegatività presente tra gli atomi:

  • se questa si trova tra 0 e 0,4 si ottiene un legame covalente puro (o omopolare), dove il legame viene condiviso in egual misura; 
  • se la differenza è situata tra 0,4 e 1,9 si ha un legame covalente polare: a causa della maggiore attrazione elettronegativa di uno degli atomi si ottiene una differenza ionica positiva da una parte e negativa dall'altra; 
  • se la differenza è maggiore di 1,9 allora si crea un legame ionico (o eteropolare): si ottengono due ioni di segno opposto e le varie molecole, aggregandosi, creano una formazione ben precisa chiamata reticolo cristallino.



Legame puro

Legame polare


Legame ionico


IL LEGAME COVALENTE


Nel 1916 Gilbert Lewis crea una prima "interpretazione elettronica" del legame covalente: osservando il gruppo dei gas nobili notò che, nel livello energetico più esterno, vi erano sempre otto elettroni a cui diede il nome di ottetto elettronico. Ipotizzò quindi che ciascun atomo tende per natura a creare tale configurazione elettronica in vari modi: condividendo i loro elettroni, perdendoli o acquistandoli (dando vita, quindi, a ioni positivi e ioni negativi). Si può quindi definire il legame covalente come la condivisione da parte di due atomi di una o più coppie di elettroni di legame.
Quando viene messa in condivisione una sola coppia di elettroni si crea un legame semplice; di conseguenza una condivisione di due o tre coppie di elettroni creerà un legame doppio o triplo.

L'ENERGIA DI LEGAME


Quando un legame atomico viene scisso è necessaria una determinata quantità di energia affinchè il procedimento vada a termine. In caso contrario ossia quando viene realizzato un legame atomico, la stessa quantità di energia viene rilasciata. Questo quantitativo di energia, diverso da coppia a coppia di atomi, viene detto energia di legame.
In sintesi, l'energia di legame è la quantità di energia per mole necessaria a rompere un dato legame o anche l'energia sviluppata per mole quando si  forma tale legame.


CHE COS'E' IL LEGAME CHIMICO


Nel 20° secolo si cercò di interpretare la valenza in base alla struttura elettronica degli atomi secondo il modello atomico di Bohr. Oggi, invece, è risaputo che gli atomi sono legati tra di loro mediante gli elettroni di valenza, ossia gli elettroni presenti nel livello energetico più esterno; aggregandosi mediante legami intramolecolari danno vita alle molecole, che a loro volta sono legate tra loro grazie ai legami intermolecolari.
Secondo varie osservazioni sperimentali si è arrivati alla conclusione che gli atomi tendono spontaneamente a legarsi e a stabilizzarsi in uno strato a energia minima. Il legame si forma dato che la forza attrattiva elettrostatica di un nucleo non agisce solo sui propri elettroni ma tende a propagarsi anche sugli atomi vicini.