lunedì 25 febbraio 2008

ESERCIZI DI GENETICA

Esercizi e quesiti di genetica

1- Spiegare il significato facendo degli esempi dei concetti di: allele, genotipo, fenotipo, linea pura, omozigote, eterozigote

2- Scrivere usando la simbologia genetica il primo esperimento di Mendel fno alla F2.
3- Eseguire i seguenti incroci indicando tutti i possibili genotipi della F1: AA×aa; Aa×aa; Aa×Aa AABb ×aabb
4- Scrivere tutti i gameti possibili derivanti da organismi (vegetali o animali) con i seguenti genotipi: AaBb; AABb, aaAA, Aabb.
5- Sapendo che i geni corrispondono ai seguenti caratteri A (dominante) = alto , a= basso; B (dominante)= bello; b= brutto dire a quali fenotipi corrispondono i genotipi dell’esercizio 3
6- Eseguire i seguenti incroci indicando tutti i possibili genotipi della F1: AABb×AaBB; Aabb×aaBB; AaBb×AaBB
7- Scrivere tutti i possibili gameti derivanti da organismi con i seguenti genotipi AABbCC; AaBBCc; aaBbcc
8- Il pelo nero della cavia è un carattere dominante, quello bianco è il carattere in alternativa, recessivo.Quando una cavia nera pura viene incrociata con una bianca, quale frazione della F2 nera ci si aspetta che sia eterozigote?
9- Un gene dominante B è responsabile del colore del corpo di tipo selvatico della Drosophila , il suo allele recessivo b produce il colore nero. Un incrocio di prova a cui è stata sottoposta una femmina di tipo selvatico ha dato nell’F1, 52 figli neri e 58 di tipo selvatico. Se le femmine di tipo selvatico sono incrociate con i loro fratelli neri, quali rapporti genotipici e fenotipici sarebbero da attendersi nella F2? Si costruisca uno schema con i risultati usando i giusti simboli genetici.
10- Se hai una pianta con fiori arancio pallido, fenotipo intermedio tra il bianco e l’arancio vivace, come puoi capire se si tratta di un fenomeno di dominanza incompleta?
11- Qual è la spiegazione biologica della dominanza incompleta?
12- Un gruppo sanguigno A che genotipo ha?
13- Indagine di paternità: Un presunto padre ha gruppo A, la madre gruppo B, il figlio può avere gruppo 0? E gruppo AB?
14- Scrivere l’F1 del seguente incrocio sapendo che i geni sono associati: Abab x ABaB

UNA SCIENZA FALSA: LA FRENOLOGIA

La frenologia era una disciplina medico-scientifica fondata tra il 18o e il 19o secolo dal medico tedesco Franz Joseph Gall (1758-1828). Questi asseriva che era possibile definire le qualità psicologiche di una persona esaminando la conformazione del suo cranio. Il principio alla base di questa pratica consisteva nel fatto che, secondo Gall, il cervello fosse suddiviso in tante regioni quante erano le caratteristiche della personalità. Più una facoltà era sviluppata maggiore era il volume dell'area cerebrale corrispondente. E questo si rifletteva sulla superficie del cranio che di conseguenza si rigonfiava.

L'opera dei frenologi consisteva essenzialmente nel far scorrere le dita, o i palmi delle mani, sulla testa per distinguere ogni elevazione e depressione del cranio. Talvolta veniva usato un calibro oppure un nastro millimetrato. La "lettura" del cranio forniva cosi` una descrizione delle attitudini più o meno sviluppate di un individuo.

Gall identifico` 26 aree diverse sul cranio alle quali corrispondevano altrettanti "organi", come lui definiva le regioni cerebrali preposte alle varie caratteristiche mentali. Egli colleziono` crani animali e umani e costruì molti calchi in gesso per studiare lo sviluppo delle protuberanze. La maggior parte dei crani umani raccolti appartenevano a persone che si erano distinte in vita per particolari attitudini come il coraggio, l'intelligenza o la spietatezza nell'uccidere.

La frenologia nel giro di pochi anni divenne piuttosto popolare in Europa e in America grazie anche alla divulgazione effettuata dal più importante dei collaboratori di Gall, Johan Kaspar Spurzheim. A Edinburgo nacque la prima società frenologica, seguita da molte altre in Inghilterra e America.

Ai tempi del suo maggior sviluppo la frenologia fu applicata per diversi scopi. Si credeva che potesse indicare la carriera migliore per un giovane o individuare il compagno di vita. Alcuni datori di lavoro pretendevano l'analisi del carattere dei dipendenti per assicurarsi che fossero onesti e gran lavoratori. I frenologi venivano considerati come persone speciali, capaci di prevedere il comportamento degli individui nelle più diverse circostanze.

Gli adepti di questa disciplina la consideravano come "l'unica vera scienza della mente", ma molti la contestavano e ridicolizzavano. Verso la fine del 19o secolo fu completamente discreditata come scienza, anche se molte sue frange vissero molto oltre.

Alcuni antropologi degli inizi del 1900 sfruttarono la frenologia per confermare la loro credenza nella superiorità degli europei, in particolare della "razza ariana", sugli altri uomini.

Nel 1931, negli USA, Lavery e White inventarono lo "psicografo". Si trattava di una macchina costituita da 1954 parti all'interno di una sorta di casco metallico collegato ad un contenitore che poteva stampare dei giudizi su 32 facoltà mentali. Le facoltà erano classificate con un punteggio da 1 a 5 (da "mancante" a "molto alto"). Il punteggio veniva ottenuto dal modo in cui 5 punte delle 32 sonde del casco entravano in contatto con le varie superfici del cranio. Per ogni facoltà la macchina stampava il giudizio corrispondente al punteggio e, alla fine, si otteneva una valutazione personalizzata, dovuta alla grande varietà di combinazioni di giudizi.

Gli psicografi ebbero un gran successo negli USA dove resero ricchi i produttori. Tuttavia nel giro di una decina d'anni lo scetticismo attorno questo strumento crebbe, finche` divenne utile solo come pezzo da museo (www. mtn.org).

Il punto debole della frenologia fu che le sue basi teoriche non furono mai verificate scientificamente. I frenologi cercavano ed evidenziavano solo le conferme alle loro ipotesi, scartando tutto ciò che le contraddiceva.

Oggi si sa che parti del cervello non crescono verso l'esterno andando a modificare la configurazione del cranio. Descrivere le caratteristiche psicologiche di un individuo tastando il suo cranio e` quindi impossibile.

Tuttavia, si può dire che la frenologia aveva indovinato un fatto: diverse funzioni sono, almeno parzialmente, localizzate nel cervello. E` ben noto, infatti, che lesioni traumatiche circoscritte della corteccia cerebrale producano la disfunzione di particolari facoltà. Inoltre, la tecnica della risonanza magnetica funzionale ha dimostrato che durante l'esecuzione di specifici compiti si attivino di preferenza certe aree cerebrali e non altre.

Purtroppo le funzioni identificate da Gall (in seguito modificate ed aumentate dai suoi seguaci) non riflettono la mappa costruita dalle moderne neuroscienze. Tutti gli "organi" dei frenologi sono oggi considerati frutto della fantasia. Con un'eccezione: "la facoltà della parola" venne, casualmente, localizzata nei pressi delle aree identificate oggi come quelle che controllano il linguaggio.


Per saperne di piu:

C. Temple, Il nostro cervello. Come funziona e come usarlo. Laterza 1996
R.L. Gregory, The Oxford Companion to the Mind. Oxford Univ. Press, 1987
Oliverio A. Biologia e filosofia della mente. Laterza, 1999
www.pages.britishlibrary.net/phrenology/
www.phrenology.com
www.skeptic.com/phren.html
www.mtn.org

L'INTELLIGENZA EMOTIVA:L'AMIGDALA

L’intelligenza emotiva: l’amigdala

«Ma ciò che esce dalla bocca viene dal cuore, ed è quello che contamina l'uomo. Poiché dal cuore vengono pensieri malvagi, omicidi, adultèri, fornicazioni, furti, false testimonianze, diffamazioni. Queste sono le cose che contaminano l'uomo; ma il mangiare con le mani non lavate non contamina l'uomo». Matteo 15: 18-20

Noi tutti abbiamo avuto a che fare con l’amara esperienza della perdita del controllo emozionale... Cercate di ricordarvene qualcuna e in modo particolare soffermatevi a quello che maggiormente è rimasta impressa nella vostra mente per la sua carica emotiva.

Nei nostri cuori soggiacciono ferite emozionali attive, che al minimo sussulto sismico (esperienze che la vita comporta) emergono con una forte carica emotiva paragonabile alla potenza di un vulcano in eruzione, provocando, il più delle volte, danni irreparabili a noi stessi e alle persone che più amiamo. Gli aspetti di un io bisbetico, irrequieto, insaziabile, volubile, capriccioso, offeso, timido, pauroso, frustrato, ribelle, testardo, sottomesso, aggressivo egocentrico, passionale, paragonabili al magma, al gas, ai vapori, allo zolfo e ai prodotti piroclastici di un vulcano, costituiscono uno stato latente o palese di situazioni molto pericolose endogene ed esogene della persona.

Perché? Come mai? Che cosa succede nella nostra mente? Dove avviene questo processo di reazione emozionale fuori dalla norma e che erroneamente cerchiamo di giustificare con accuse?

L’amigdala è un centro del sistema limbico del cervello. Il termine deriva dalla parola greca che significa mandorla. É un gruppo di strutture interconnesse, a forma appunto di mandorla, posto sopra il tronco cerebrale, vicino alla parte inferiore del sistema limbico.

Il sistema limbico è il punto centrale del sistema regolare endocrino, vegetativo e psichico; elabora stimoli provenienti dall’interno del corpo e dall’esterno. Descrive le strutture cerebrali che si trovano al confine tra l’ipotalamo e le strutture connesse, da un lato, la corteccia cerebrale dall’altro.

L’amigdala, ne abbiamo due, è specializzata nelle questioni emozionali. Se viene resecata dal resto del cervello, il risultato è una evidentissima incapacità di valutare il significato emozionale degli eventi, conseguentemente si diventa cechi affettivamente (cecità affettiva).

L’amigdala funzione come un archivio della memoria emozionale ed è quindi depositaria del significato stesso degli eventi; la vita senza l’amigdala è un’esistenza spogliata di significato personale.

All’amigdala è legato qualcosa di più dell’affetto: tutte le passioni dipendono da essa. Le lacrime, un segnale emozionale esclusivo degli esseri umani, sono stimolate da essa. Asportando o resecandola negli animali, questi perdono ogni impulso a cooperare o a competere e non provano più rabbia o paura.

1. L’amigdala è un grilletto molto sensibile.

I segnali di entrata provenienti dagli organi di senso consentono all’amigdala di analizzare ogni esperienza andando, per così dire, a ‘caccia di guai’. É una sentinella psicologica che scandaglia ogni situazione e ogni percezione, sempre guidata da un unico interrogativo, il più primitivo: E’ qualcosa che odio? Qualcosa che mi ferisce? Qualcosa che temo? Se la risposta è affermativa - se in qualche modo la situazione profila un «Si» - l’amigdala scatta immediatamente, come un sorta di grilletto neurale e reagisce telegrafando un messaggio di crisi a tutte le parti del cervello.

Nell’architettura cerebrale, l’amigdala è come una di quelle centraline programmate per inviare chiamate di emergenze ai vigili del fuoco, alla polizia... ogni qualvolta il sistema di allarme istallato all’interno di un’abitazione o di una banca segnali un problema.

Quando scatta l’allarme della paura, ad esempio, l’amigdala invia messaggi di emergenza e tutte le parti principali del cervello; stimola la secrezione degli ormoni che innescano la reazione di combattimento o fuga, mobilita i centri del movimento e attiva il sistema cardiovascolare, i muscoli e l’intestino. Altri segnali vengono dati per secernere piccole quantità di adrenalina, oppure al tronco cerebrale, facendo assumere al volto un’espressione spaventata, ecc. Simultaneamente, i sistemi mnemonici corticali vengono riorganizzati con precedenza assoluta per richiamare ogni informazione utile nella situazione di emergenza contingente.

Nell’architettura del cervello l’amigdala ha una posizione privilegiata in qualità di sentinella delle emozioni capace all’occorrenza di sequestrare il cervello.

Gli input sensoriali provenienti dall’occhio o dall’orecchio viaggiano dapprima diretti al talamo e poi servendosi di un circuito monosinaptico all’amigdala (esiste un fascio molto sottile di fibre nervose che vanno direttamente all’amigdala); un secondo segnale viene poi inviato dal talamo alla neocorteccia - il cervello pesante o pensante. Questa ramificazione permette all’amigdala di cominciare a rispondere prima della neocorteccia.

Quest’ultima, infatti, elabora le informazioni attraverso vari livelli di circuiti cerebrali prima di poterle percepire in modo davvero completo e di formulare infine una risposta, che risulta quindi molto più raffinata rispetto a quella dell’amigdala.

2. L’amigdala è specialista della memoria emozionale.

Le nostre emozioni hanno una mente che si occupa di loro e che può avere opinioni del tutto indipendenti da quelle della mente razionale.

L’ippocampo (parte del lobo temporale) - per lungo tempo considerato la struttura chiave del sistema limbico - è coinvolto nella registrazione e nella comprensione degli schemi percettivi più che non nelle reazioni emotive - come in un computer.

La principale funzione dell’ippocampo sta nel fornire un ricordo particolareggiato del contesto, vitale per il significato emozionale; è l’ippocampo che riconosce il diverso significato, tanto per fare un esempio, di un orso visto allo zoo o nel cortile di casa.

Mentre l’ippocampo ricorda i fatti nudi e crudi, l’amigdala ne trattiene, per cosi dire, il sapore emozionale. Ad esempio: nel caso in cui avessimo fatto un sorpasso rischioso tale da creare un certa paura, l’amigdala, da quel momento in poi, ogni qualvolta che, in qualche modo, ci si ritrova in circostanze simili, ci fa sentire ansiosi. L’ippocampo è fondamentale per riconoscere in un volto quello di tua cugina. Ma è l’amigdala ad aggiungere che ti è proprio antipatica.

3. Meccanismi di allarme neurale e associazioni

In quanto archivio della memoria emozionale, l’amigdala analizza l’esperienza corrente, confrontando ciò che sta accadendo nel presente con quanto già accaduto nel passato. Il suo metodo di confronto è associativo: quando la situazione presente e quella passata hanno un elemento chiave simile, l’amigdala lo identifica come una associazione.

Ecco perché questo circuito è, per cosi dire, sciatto: agisce prima di avere una piena conferma. Ci comanda precipitosamente di reagire ad una situazione presente secondo modalità fissate molto tempo fa, con pensieri, emozioni e reazioni apprese fissate in risposta ad eventi forse solo vagamente analoghi - e tuttavia abbastanza simili da metterla in allarme.

Perché essa dichiari lo stato di emergenza basta solo che pochissimi elementi della situazione presente ricordino quelli di una passata circostanza pericolosa. Il guaio che oltre ai ricordi, carichi di valenze emozionali, che hanno il potere di scatenare questa risposta di crisi, possono anche essere superate le modalità di reazione. In tali momenti, l’imprecisione del cervello è aumentata anche dal fatto che molti vividi ricordi emozionali risalgono ai primi anni di vita e riguardano il rapporto fra il bambino e chi si prendeva cura di lui. Questo è vero soprattutto per gli eventi traumatici, ad esempio se un piccolo veniva percosso o apertamente trascurato.

L’amigdala può reagire con delirio di collera o di paura prima che la corteccia sappia che cosa sta accadendo, e questo perché l’emozione grezza viene scatenata in modo indipendente dal pensiero razionale, e prima di esso.

4. Il centro che controlla le nostre emozioni

Mentre l’amigdala lavora per scatenare una reazione ansiosa e impulsiva, altre aree del cervello emozionale si adoperano per produrre una risposta correttiva, più consona alla situazione. L’interruttore cerebrale che smorza gli impulsi sembra trovarsi all’estremo di un importante circuito diretto alla neocorteccia - precisamente ai lobi prefrontali o frontali.

Quest’area cerebrale neocorticale consente di dare ai nostri impulsi emotivi una risposta più analitica o appropriata, modulando l’amigdala e le altre aree limbiche. Quando si scatena un’emozione, nel giro di qualche istante i lobi prefrontali eseguono la reazione che ritengono migliore fra una miriade di possibilità, in base al criterio del rapporto rischio/beneficio… ad esempio: quando attaccare, quando darsi alla fuga e anche quando calmarsi, persuadere, cercare comprensione, tergiversare, provocare sensi di colpa, piagnucolare, indossare una maschera di spavalderia, essere sprezzanti, ecc.

La neocorteccia è al lavoro tutte le volte che registriamo una perdita e ci rattristiamo, o ci sentiamo felici dopo un trionfo, o ci maceriamo rimuginando su qualcosa che qualcuno ha detto o ha fatto facendoci sentire feriti o in collera.

Conclusione

In un certo senso, abbiamo due cervelli, due menti - e due diversi tipi di intelligenza: quella razionale e quella emotiva: Il nostro modo di comportarci nella vita è determinato da entrambe: non dipende solo dal Qi (quoziente dell’intelligenza), ma anche dall’intelligenza emotiva. La complementarietà del sistema limbico e della neocorteccia, dell’amigdala e dei lobi prefrontali (destro e sinistro), significa che ciascuno di essi è solitamente una componente essenziale a pieno diritto della vita mentale. Quando questi partner interagiscono bene, l’intelligenza emotiva si sviluppa, e altrettanto fanno le capacità intellettuali.

Come indurre i due partner, l’intelligenza razionale e quella emotiva, ad interagire bene?

Secondo il pensiero di E. G. White:

1. “Ciò di cui abbiamo bisogno è di una conoscenza che rinvigorisca mente e anima (l’intelligenza razionale ed emotiva – ndr.), e che faccia uomini e donne migliori. L’educazione del cuore è molto più importante di ogni nozione letteraria”. (Sulle Orme del Gran Medico, pag. 192)

2. “Dobbiamo disciplinare, educare e addestrare la mente in modo tale da poter compiere il servizio di Dio anche se esso non è in armonia con le inclinazioni naturali. Bisogna sopraffare le tendenze al male, ereditate e acquisite” (Idem, pag. 194).

3. “Coltivate ciò che vi è più nobile in voi, siate pronti a riconoscere le buone qualità l’uno dell’altra: il sapersi apprezzati è uno stimolo meraviglioso e una grande soddisfazione. La simpatia e il rispetto incoraggiano nella lotta per perfezionarsi, e la l’amore stesso cresce mentre sprona al raggiungimento di fini più nobili” (Idem, pag. 152).

4. “Dio ci ha dato la facoltà di scegliere, ma sta a noi fare la scelta. Non possiamo cambiare i nostri cuori, non possiamo dominare i nostri pensieri, i nostri impulsi, i nostri affetti, non possiamo renderci puri e adatti al servizio di Dio, ma possiamo scegliere di servire Dio e offrirgli la nostra volontà. Allora Egli opererà in noi «il volere e l’operare secondo il suo beneplacito»” (Filippesi 2: 15), (Idem, pag. 70).

5. Le cose migliori della vita - la semplicità, l’onestà, la veracità, la purezza e l’integrità - non si possono né comprare né vendere. esse sono a disposizione degli ignoranti e degli istruiti, dell’umile lavoratore e dell’illustre uomo di stato” (Idem. pag. 80).

Francesco Zenzale

Nota: Questo studio, tranne le citazioni di E. G. White, è stato tratto dal libro del Dr. D. Goleman, Intelligenza Emotiva, ed. CDE, Milano.

Letture consigliate:

1. Intelligenza Emotiva, D. Goleman, ed. CDE, Milano

2. Psicologia - Fisiologia, Francis Leukel, ed. Zanichelli, Bologna

3. Neorofisiologia Umana, Arthur C. Guyton, ed. Il Pensiero scientifico, Roma

Glossario

Sistema Libico: l’anello che collega varie vie e centri, tra cui il setto, il giro cingolato, l‘ippocampo, l’area entorinale, l’amigdala e il talamo anteriore.

venerdì 15 febbraio 2008

LA SCOPERTA DI RITA LEVI-MONTALCINI : L'NGF

La scoperta dell'NGF


Nell’estate del 1940, la Levi Montalcini legge un lavoro di Viktor Hamburger, eminente embriologo della Wahington University di St Louis. Hamburger era lo studioso leader nell’uso degli embrioni di pollo per lo studio dell’embriologia del sistema nervoso. Nel 1927, ancora studente, Hamburger aveva usato l’embrione di pollo per studiare lo sviluppo del midollo spinale. Le evidenze ottenute in quella ricerca e successivamente nello studio pubblicato nel 1934, indicavano che lo sviluppo del sistema nervoso fosse in qualche modo influenzato da segnali provenienti dai tessuti circostanti e in grado di indirizzare la differenziazione dei neuroni, la crescita delle fibre nervose e l’innervazione degli organi. La Levi Montalcini decideva che gli esperimenti di Hamburger costituivano la base ideale per le possibilità di indagine offerte dal suo laboratorio domestico.
L’esperimento prevedeva l’amputazione degli abbozzi di ala nell’embrione di tre giorni. Successivamente, dopo 17 giorni, la Levi Montalcini e Levi sacrificavano un embrione al giorno per fissare e studiare al microscopio il midollo spinale. L’osservazione del preparato al microscopio dimostrava l’assenza dei neuroni motori preposti all’innervazione delle ali. Hamburger aveva interpretato questa evidenza come incapacità dei neuroni di sviluppare in assenza dell’abbozzo delle ali. La Levi Montalcini e Giuseppe Levi, invece concludevano che questi stessi neuroni si erano divisi, avevano iniziato il processo di crescita e migrazione delle fibre e che poi erano morti. Così, nel laboratorio domestico i due avevano stabilito il principio della morte neuronale quale elemento normale dello sviluppo nervoso. I risultati di questo lavoro venivano pubblicati in Belgio nel 1943 sulla rivista Archives de Biologie.
Finita la guerra la Levi Montalcini e Levi riprendevano il lavoro presso l’istituto di anatomia di Torino. Nel 1946, dopo aver letto il lavoro pubblicato con Levi, Hamburger scriveva alla Montalcini invitandola negli Stati Uniti. Lo stesso anno la Montalcini partiva e raggiungeva la Washington University a St Louis. Dal punto di vista concettuale, per la scoperta dell’NGF, fu cruciale che l’incontro dei due studiosi metteva assieme ed integrava competenze diverse, che erano proprie e che mancavo rispettivamente ad ognuno dei due. Hamburger veniva dall’embriologia analitica e sperimentale, dalla ricerca biologica di base, ed aveva soltanto una nebulosa idea del sistema nervoso. La Levi Montalcini era al contrario di formazione medica ed aveva poca dimestichezza con le nozioni e i metodi della ricerca embriologica.
Nell’autunno del 1947, la Levi Montalcini dimostrava conclusivamente il fenomeno, già osservato con Giuseppe Levi, della morte cellulare nei neuroni programmati per afferire ad un territorio embriologico in corso di sviluppo ma asportato sperimentalmente. Ciò indicava fortemente che la regione amputata regolava in qualche modo ancora sconosciuto la proliferazione e lo sviluppo cellulare del tessuto nervoso destinato ad innervarla.
In quello stesso periodo, Elmer Bueker, un dottorando di Hamburger, iniziava esperimenti di innesto del sarcoma 180 (S 180), un tumore maligno del topo, in embrioni di pollo. Nel 1948, queste indagini portavano alla scoperta che l’S 180 veniva raggiunto da un’intensa proliferazione di fibre nervose emergenti dai gangli vicini. Cosa ancora più interessante era che questi stessi gangli apparivano più grandi rispetto a quelli controlaterali dell’arto non innestato con S 180. Bueker riteneva che questo effetto non fosse diverso da quello prodotto dal trapianto di un arto supplementare negli embrioni allo stesso stadio di sviluppo e dovuto in entrambi i casi alla possibilità delle fibre nervose di espandersi in un territorio più esteso.
Nel 1950 Hamburger descrisse le indagini del suo allievo alla Levi Montalcini, che decise immediatamente di riprodurle su scala più vasta e con tecniche istologiche più sofisticate. Le ricerche della Levi Montalcini confermavano le evidenze ottenute da Bueker e mettevano in evidenza ulteriori aspetti del fenomeno che peraltro non si accordavano all’ipotesi esplicativa formulata dall’allievo di Hamburger. La Levi Montalcini rilevava che l’aumento del volume dei gangli nervosi situati in prossimità dell’innesto di S 180 era sei volte maggiore di quello tipico legato al trapianto di un arto soprannumerario e perciò non assimilabile a quest’ultimo. La Levi Montalcini inoltre osservava che la distribuzione e la diffusione delle fibre nervose nel sarcoma innestato era casuale, e non portava alla effettiva connessione con le cellule tumorali, come al contrario avviene tra fibre nervose e tessuti in sviluppo embrionale. Ancora la ricercatrice italiana accertava che l’aumento del volume dei gangli non era limitato soltanto a quelli situati in prossimità del sarcoma 180 ma interessava i gangli dell’intera catena simpatica, dai quali partivano estensioni di fibre in eccesso che invadevano in modo caotico i territori circostanti. Ed infine l’ispezione degli embrioni innestati con S 180 rivelava un’altra importante infrazione delle normali traiettorie embriologiche. Le fibre del sistema nervoso simpatico penetravano nella cavità delle vene ostruendo la circolazione. Fu soprattutto quest’ultima evidenza a suggerire alla Levi Montalcini l’idea che l’effetto del sarcoma 180 fosse dovuto al fatto che le cellule tumorali rilasciassero una qualche sostanza diffusibile in grado di stimolare la differenziazione e la crescita delle cellule nervose recettive alla sua azione.
Per valutare quest’ultima ipotesi, la Levi Montalcini trapiantava frammenti di S 180 sulla membrana corio-allantoidea di embrioni tra il quarto e il sesto giorno d’incubazione, posizionadoli in modo tale da eludere qualunque contatto diretto tra i tessuti tumorali e quelli dell’embrione. I risultati coincidevano con quelli ottenuti precedentemente con gli innesti intraembrionari ed in sostanza corroboravano l’ipotesi che le cellule tumorali rilasciassero una sostanza stimolante la crescita nervosa.
Era una spiegazione che infrangeva i principi fondanti dell’embriologia del tempo, secondo i quali la differenziazione delle cellule era guidata esclusivamente dal programma genetico. Allo stesso tempo, inoltre, l’ipotesi della Levi Montalcini prefigurava per la prima volta l’esistenza di fattori secreti da cellule in grado di stimolare ed indirizzare la crescita delle cellule nervose. La freddezza e la perplessità con cui fu accolta la comunicazione fatta dalla Levi Montalcini su queste scoperte nel dicembre 1951 alla New York Academy of Science è imputabile al carattere rivoluzionario delle evidenze accertate.
La Levi Montalcini si orientava così verso un protocollo sperimentale più rapido e riproducibile, passando dalle ricerche sull’embrione a quello in vitro. La Montalcini partiva così per Rio de Janeiro, dove all’istituto di Biofisica sotto la guida di Hertha Meyer e Carlo Chagas, iniziava ad utilizzare la coltura in vitro. L’uso dell’incubazione dei tessuti in vitro confermava i risultati delle ricerche condotte sull’embrione. I tessuti coltivati in mezzo semi-solido ed in prossimità di frammenti di sarcoma 180, ma non di altri espianti neoplastici o normali, andavano incontro ad un’intensa proliferazione di fibre che si estendevano in una densa raggera. Il problema era quello isolare ed identificare questo fattore di crescita.
Quando nell’inverno 1953 la Levi Montalcini tornava a St Louis Hamburger le affiancava Stanley Cohen, un giovane biochimico, la figura essenziale per risolvere l’ultimo tassello del problema, che era ormai una questione biochimica. Nel 1954 Cohen riusciva ad isolare ed identificare una frazione nucleo-proteica tumorale in grado di stimolare la crescita nervosa, che veniva chiamata Nerve Growth Factor, NGF. Si doveva ora accertare quale delle due frazioni era l’elemento neurotrofico attivo. A questo proposito Cohen chiedeva un parere ad Arthr Kornberg, un biochimico esperto di enzimi. Kornberg suggeriva a Cohen di usare veleno di serpenti, in quanto in grado di degradare gli acidi nucleici. Quando la Levi Montalcini provò il veleno di serpente su una frazione di tessuto nervososi determinò un risultato inatteso. La sostanza produceva una stupefacente crescita nervosa, equiparabile a quella del sarcoma 180. Ma dato che il fattore neurotonico era considerevolmente maggiore nel veleno rispetto al tumore, in proporzione circa di 1 a 1000, divenne possibile identificare l’NGF in una molecola proteica della quale si determinarono sia il peso molecolare che le proprietà fisico-chimiche.
Nel 1958 veniva scoperta un’altra ricca sorgenti di NGF nelle ghiandole sottomandibolari del topo. Cohen estraeva la molecola attiva dell’NGF e la Levi Montalcini riproduceva tutti gli esperimenti sino ad allora condotti ottenendo di nuovo gli stessi risultati
La questione aperta era quella del chiarimento dell’eventuale ruolo di questa molecola nel normale sviluppo embriologico del sistema nervoso. Nel 1959, un esperimento condotto con un antisiero specifico contro l’NGF iniettato in cavie ai primi giorni di vita provava che l’inattivazione dell’NGF endogeno determinava una marcata atrofia dei gangli simpatici. Era la dimostrazione che l’NGF costituisce un fattore fondamentale nel normale sviluppo del sistema nervoso.
Dal 1960 in poi venivano determinati i meccanismi d’azione dell’NGF, le relazioni con i recettori, i vari ruoli funzionali, l’identità chimica, la dimensione genetica, l’interazione col sistema nervoso centrale, con quello immunitario e col sistema endocrino, l’influenza sul comportamento.
La ricerca sull’NGF ha aperto inoltre il filone di studio dei fattori di crescita ed è così diventata un programma di indagine a carattere paradigmatico che ha mutato il volto ed indicato nuove frontiere della ricerca nelle neuroscienze.

mercoledì 13 febbraio 2008

TERZO CLASSICO: GUERRE STELLARI

Empire of the stars: Obsession, friendship, and betrayal in the quest for
black holes

On January 11, 1935, an event that was, in the words of author Arthur Miller,
“singular in the annals of modern science,” took place at a meeting of the Royal
Astronomical Society (RAS) at Burlington House, Piccadilly Square, London. In an
elegant presentation lasting only fifteen minutes, a very young Indian astrophysicist,
Subrahmanyan Chandrasekhar (now known universally as simply Chandra) presented
his startling theory about the fate of stars which have consumed their basic fuel.
Chandra believed his theory, which predicted that stars not much larger than the sun
would collapse into compact objects now known as either neutron stars or black
holes, would solve a critical problem posed by the doyen of British astrophysics,
Sir Arthur Stanley Eddington. In a vitriolic response that immediately followed,
however, Eddington demolished Chandra’s paper. Eddington’s rhetorical flurry of
denial that such objects could possibly exist was to have lasting consequences for
both individuals. Those consequences form the basis for the remainder of this very
readable and interesting book.
Born into a Brahmin family of high intellectual achievement (his uncle C. V.
Raman was the first Indian to receive a Nobel Prize in Physics), Chandra exhibited
prodigious mathematical talent as a child. His ability was widely recognized and led
to a scholarship for graduate studies at Cambridge University, where he chose
astrophysics as an emerging field of science rather than pure mathematics. While
in transit to Britain from India, Chandra made the discovery that would plague him
for the remainder of his life, as he calculated the maximum mass of a star that could
remain stable as a white dwarf, recognizing in the process that any larger star would
collapse under the influence of its own gravity. The mathematical details of the
whole process were only worked out by Chandra after his arrival in Cambridge.
During that working out of the details, Chandra was pleased that Eddington would
visit him in his office on a frequent basis to learn about the progress of Chandra’s
work; he felt certain, on that basis, that Eddington would support his paper when
it was presented to the RAS. Thus, Eddington’s vehement attack on the paper was
a stunning surprise to all present in the RAS audience, but most of all to Chandra.
Almost as disappointing to Chandra was the failure of others like A. E. Milne who
had befriended Chandra, James Jeans who opposed Eddington on nearly everything,
and others who seemed sympathetic to Chandra’s scientific conclusions to publicly
Williams, JAAVSOVolume35, 20062
challenge Eddington. In effect, the British astrophysical community was completely
cowed by its acknowledged éminence grise.
Unfortunately for Chandra, in two subsequent opportunities when he presented
his theory in international forums, the outcome was the same—Eddington’s
vehement denial of the possibility of the collapse of a white dwarf into any smaller
body accompanied by surprising condescension to Eddington’s position by senior
astrophysicists. At the last of these occasions, an International Astronomical
Union meeting in Paris, the reluctance of those assembled to challenge Eddington
was all the more surprising in that in that same meeting Gerard Kuiper had already
presented observational evidence that tended to support Chandra’s theoretical
proposition.
Several decades passed, during which Chandra relocated to the University of
Chicago, first at Yerkes Observatory and eventually to the main campus in Chicago.
His work also moved on to demonstrate his theoretical prowess in a succession of
book length theoretical explorations, first of stellar structure, then radiative transfer,
hydrodynamics, and finally a series of papers exploring the application of general
relativity to astrophysical problems, culminating in a book on the mathematical
theory of black holes.
Progress on Chandra’s original problem, the collapse of white dwarfs of more
than 1.4 solar masses (now known as the Chandrasekhar Limit) was slow, and came
from a surprising quarter. Work on supernovae proceeded observationally from the
1930s and on with little understanding of the theoretical mechanisms involved. It
remained for physicists who were interested in high temperature nuclear reactions
to sort out the mechanisms involved. They worked under the urgent pressure to
understand the physics of thermonuclear explosions necessary for nuclear weapons
development. Supernovae and superbombs thus developed apace in both the
United States and in the Soviet Union under the pressure of cold-war geopolitics.
The story abounds with the names and personalities of well known figures from this
period like Oppenheimer, Teller, Bethe, and Fermi. Astrophysicists also made their
own contributions; thus Baade, Zwicky, Gamow, Hoyle, Gold, and Wheeler enter
the story at appropriate points. Miller also adds interesting glimpses into the
personalities and workings of astrophysics and nuclear physics in the Soviet Union,
including biographical information on Russian scientists like Landau and Zel’dovich.

lunedì 11 febbraio 2008

LEZIONE DI NEUROSCIENZE - SECONDA PARTE

Mediatori e recettori nervosi

Sino all’inizio del Novecento, i progressi nelle conoscenze sul sistema nervoso erano in gran parte legati agli sviluppi nell’anatomia e fisiologia: gli anatomisti studiavano cellule e fibre nervose, mentre i fisiologi analizzavano i rapporti tra nervo e muscolo e le caratteristiche della conduzione nervosa, il modo in cui l’impulso elettrico viaggia verso il suo bersaglio muscolare, inducendo la contrazione.
Con il Novecento emerse un altro fondamentale aspetto della funzione nervosa: si comprese infatti che i neuroni inducevano la contrazione del muscolo non per trasmissione diretta dell’impulso elettrico, ma grazie alla liberazione di sostanze chimiche in grado di agire sulla superficie muscolare eccitandola.
Oggi sappiamo che queste sostanze chimiche – i mediatori nervosi- assicurano la comunicazione tra una faccia e l’altra faccia della cosiddetta fessura sinaptica, una separazione quasi virtuale tra neurone e muscolo e tra neurone e neurone. In questo piccolissimo spazio vengono liberati i mediatori dal neurone presinaptico: in questo modo il segnale elettrico viene convertito in segnale chimico. Per giungere a queste conoscenze ci vollero diversi decenni di sperimentazione e discussioni così come ci volle molto tempo per capire che i fenomeni che avvenivano in periferia, tra nervo e muscolo, avvengono anche a livello cerebrale in modo che le diverse funzioni del cervello dipendono strettamente da un gioco di mediatori e modulatori a livello delle sinapsi.
Il dibattito maggiore era tra i sostenitori della comunicazione sinaptica di tipo esclusivamente elettrico e tra coloro che portavano avanti l’ipotesi chimica. Negli anni Trenta del Novecento , la maggior parte dei fisiologi riteneva che tutte le sinapsi fossero elettriche e che il flusso di corrente attraversasse lo spazio sinaptico per eccitare l’organo-bersaglio. I farmacologi invece ritenevano che tutte le sinapsi si scambiassero l’informazione attraverso molecole chimiche, i mediatori nervosi appunto. La posizione dei farmacologi si basava sulla loro esperienza dell’azione di blocco che alcune sostanze chimiche esercitano sugli effetti del mediatore nervoso, sostanze che possono potenziare o inibire la trasmissione sinaptica in quanto esercitano un sinergismo o competono con la molecola del mediatore nervoso.
Solo negli anni Cinquanta vennero delle indicazioni sperimentali che indicarono chiaramente che soltanto alcune sinapsi particolari utilizzano la conduzione elettrica, mentre la maggior parte utilizza un mediatore nervoso, dimostrando che i farmacologi avevano ragione.
La strada per arrivare a queste conclusioni fu lunga e faticosa. Negli anni Venti si arrivò alla conclusione che il sistema simpatico contenesse una sostanza, la “simpatina”, i cui effetti sarebbero stati simili a quelli dell’adrenalina (epinefrina per gli anglosassoni) di origine surrenale. Nel 1946 si identificò la simpatina con la noradrenalina che venne isolata nei nervi simpatici, nei surreni (che contengono soprattutto adrenalina) e in seguito in alcuni neuroni cerebrali.
Altri studiosi si dedicarono invece allo studio del sistema parasimpatico che favorisce il recupero delle risorse (mentre il simpatico mobilita le energie dell’organismo), ad esempio col rallentamento del ritmo cardiaco. Il grande fisiologo inglese Henry Dale dimostrò, negli anni Trenta, che l’acetilcolina era il mediatore del sistema nervoso parasimpatico periferico (detto per questo anche colinergico), ma pochi anni dopo si dimostrò che i neuroni colinergici esistevano anche nel cervello.
L’acetilcolina e la noradrenalina appartengono ad una ben più vasta famiglia di mediatori nervosi e lo studio di tali sostanze permise di sintetizzare molecole agoniste ed antagoniste che agiscono a livello cerebrale modificando il comportamento, in altre parole psicofarmaci.
Gli scienziati si posero poi le domande sul meccanismo di azione dei mediatori. In quale sito della membrana di un muscolo o di un neurone agiva una molecola come l’acetilcolina per svolgere un’azione eccitante? Le “chiavi” che agivano su questi siti erano estremamente specifiche oppure esistevano anche dei passepartout cioè molecole in grado di aprire diversi tipi di recettori?
La ricerca sui recettori nervosi ha dimostrato che le cellule rispondono a segnali chimici in quanto la membrana che le riveste è provvista di molecole proteiche che si legano a una specifica molecola – il mediatore nervoso – o a una molecola molto simile. I recettori hanno un’elevata affinità per la molecola con cui interagiscono che va ad incastrarsi su una determinata proteina della membrana cellulare come una chiave di sicurezza si inserisce in una determinata toppa di serratura. Tuttavia la stessa molecola chimica può inserirsi su proteine lievemente differenti: ciò comporta che una data molecola eserciti effetti diversi a seconda delle cellule su cui agisce in quanto su cellule diverse ci possono essere recettori diversi. Ad esempio l’acetilcolina, agendo su due diversi tipi di recettore, stimola la contrazione delle cellule dei muscoli scheletrici ma deprime la contrazione delle cellule del muscolo cardiaco. Qualche cosa di simile avviene anche a livello dei neuroni: alcuni di essi hanno un tipo di recettori su cui il mediatore nervoso agisce producendo effetti eccitatori ed altre persone ne hanno un altro tipo su cui lo stesso mediatore produce effetti inibitori. La nicotina ad esempio (che agisce sui recettori dell’acetilcolina) può rilassare alcuni ed esercitare un effetto eccitante su altri, a seconda del tipo di recettori che caratterizzano un dato individuo.
Un altro importante risultato nell’ambito delle neuroscienze è stata la scoperta che l’azione del mediatore è condizionata dalla presenza di altre sostanze, che vengono chiamate modulatori. Tra i modulatori ci sono anche le endorfine, o oppioidi endogeni, che fanno parte di una vasta famiglia di sostanze che attivano o inibiscono enzimi che servono per fabbricare un secondo messaggero nervoso. Questo processo, che va sotto il nome di modulazione nervosa, comporta una cascata di eventi che durano nel tempo a amplificano l’azione del mediatore: in altre parole, mentre il mediatore nervoso si limita a produrre un effetto di breve durata, come se esso accendesse o spegnesse un interruttore, grazie alla modulazione gli effetti possono essere duraturi e far sì che l’azione del mediatore sia più o meno efficace. I derivati dell’oppio agiscono in modo specifico, la morfina ad esempio agisce prevalentemente su alcune strutture nervose implicate nel dolore e nella sensazione di piacere imitando funzioni già presenti nel nostro organismo quali la capacità di resistere al dolore o di provare piacere. I derivati dell’oppio occupano i siti recettoriali delle molecole endogene cioè prodotte dal nostro organismo.
La trasmissione nervosa a livello delle sinapsi può essere di tipo rapido o lento.Quella rapida si basa sul fatto che i mediatori agiscono sui recettori , cioè su proteine della membrana cellulare, inducendo la liberazione di un’altra proteina, la proteina G che, a sua volta, agisce su una cosiddetta proteina-canale. Quest’ultima è una specie di diaframma che aprendosi lascia passare all’interno della cellula nervosa lo ione sodio, il che eccita elettricamente il neurone. La trasmissione sinaptica lenta , si basa invece sul fatto che le proteine G attivano una cascata di enzimi che, a loro volta, agiscono sulle proteine-canale grazie alla produzione di molecole che riescono a modificare l’apertura o la chiusura dei canali della membrana attraverso cui passano gli ioni quando il mediatore agisce sul recettore.

Sulla superficie della membrana dei neuroni non ci sono solo le molecole dei recettori dei mediatori ma anche altri particolari recettori su cui agiscono molecole in grado di promuovere un’azione trofica, cioè di promuovere la crescita e la sopravvivenza del neurone o di alcune delle sue strutture, come ad esempio dendriti e sinapsi che servono a connettere le cellule nervose tra di loro. I fattori trofici svolgono un ruolo importante sia nel corso dello sviluppo, quando prendono forma i circuiti nervosi, sia nel corso delle età successive, quando è necessario stabilizzare alcuni circuiti o impedire che i neuroni muoiano a ritmo troppo elevato.
Uno dei fattori trofici più noti è il fattore di crescita nervosa o NGF (Nerve Growth Factor), una proteina scoperta da Rita Levi-Montalcini. L’NGF , come altri fattori di crescita, esercita la sua azione su cellule immature appartenenti al sistema: sotto l’azione del fattore di crescita, i neuroni sviluppano una folta chioma di prolungamenti dendritici. Ricerche successive hanno mostrato che i neuroni in corso di sviluppo che non riescono a formare la giunzione sinaptica con le proprie cellule-bersaglio possono morire, mentre sopravvivono se nel tessuto viene iniettato l’NGF.
L’NGF, che si fissa su appositi recettori membranali, non è importante solo per assicurare la sopravvivenza delle cellule nervose, ma anche per dirigere le fibre dei neuroni verso le cellule-bersaglio che attraggono la porzione terminale della fibra, il cosiddetto “cono di crescita”, producendo NGF. I fattori neurotrofici sono perciò importanti nei processi plastici, cioè in tutte quelle situazioni dove si verifica una ristrutturazione dell’architettura del sistema nervoso per formare nuovi circuiti o per riparare i danni che derivano da lesioni diverse.

Nuove strategie per studiare il cervello

Gli studi sul sistema nervoso sono stati possibili grazie alla disponibilità di tecniche sempre più selettive e potenti. Ad esempio la registrazione dell’attività elettrica cerebrale è iniziata nel 1929, grazie alla messa a punto della tecnica dell’elettroencefalografia , che consente di registrare le variazione di potenziale delle aree superficiali e profonde del cervello tramite elettrodi disposti sulla superficie cranica. E’ stato necessario attendere la metà del Novecento per poter registrare l’attività elettrica di un singolo neurone tramite elettrodi sottilissimi in grado di penetrare all’interno di una cellula nervosa senza danneggiarla. Attraverso questa tecnica i ricercatori hanno potuto correlare i potenziali elettrici (potenziali di azione) di una sinapsi nervosa con le modifiche ioniche del sodio e del potassio: è stato così possibile dimostrare che è l’ingresso nella cellula di alcuni ioni (come il sodio) che provoca un’eccitazione elettrica (depolarizzazione).
Dal punto di vista del cervello nel suo insieme, lo sviluppo di tecniche non invasive è stato fondamentale per individuare i nuclei e le aree corticali coinvolte in una determinata funzione: partendo da tecniche radiologiche (TAC, Tomografia Assiale Computerizzata) si è arrivati a visualizzare le aree cerebrali e il loro metabolismo in vivo con la tecnica della Tomografia a Emissione di Positroni (PET, Positron Emission Tomography), basata sull’uso di sostanze marcate con radioisotopi , o con la tecnica della Visualizzazione a Risonanza Magnetica (NMR, Nuclear Magnetic Resonance), che non si basa né sull’uso di raggi X, come la TAC, né sull’uso di radioisotopi come la PET, e non sottopone quindi l’organismo a fonti di radiazioni.
Queste tecniche hanno permesso di tracciare una cartografia funzionale del cervello , ad esempio individuare con precisione le aree della corteccia coinvolte nelle funzioni motorie, nella sensibilità, nel linguaggio, in operazioni numeriche, nella presa di decisione, nell’attenzione, nell’emozione e via dicendo; ma ciò non significa che queste aree siano le uniche sedi in cui si svolge una particolare funzione né che la descrizione della sede – cioè del dove- possa prescindere da una teoria del come quell’area o il cervello siano coinvolti in un’attività particolare. La crescente disponibilità di carte funzionali del cervello deve anzi renderci cauti rispetto ad una lettura piattamente fisicalista della mente umana, una lettura che cioè si esaurisca alla descrizione del “dove” senza tener conto del “come” e del “perché”.
Negli ultimi anni l’approccio basato sulla biologia molecolare ha permesso di raccogliere numerosi dati sui rapporti tra geni e sviluppo del sistema nervoso normale e patologico, e sul ruolo delle proteine espresse nel cervello; accanto alle proteine che svolgono un ruolo patologico, ve ne sono altre che possono svolgerne uno patologico, come ad esempio le molecole anomale di mielina che normalmente isola la fibra nervosa, o quelle di una proteina, l’amiloide, che inducono la morte neurale in malattie come il morbo di Alzheimer. Queste alterazioni della biochimica cerebrale comportano malattie nervose come le sclerosi o comportamentali come le demenze. Il loro studio si basa soprattutto sulla possibilità di realizzare animali transgenici nel cui menoma è stato cioè inserito un gene umano, responsabile di una malattia del sistema nervoso. Il passo finale, una volta compresa la dinamica della malattia, è quella di correggerne il difetto genetico attraverso una terapia genica, ovverosia tramite la sostituzione del gene difettoso con uno sano. Alcuni risultati su topi sono molto incoraggianti circa la possibilità della terapia genica di contrastare malattie cerebrali.

La questione dell’io

Oggetto di studio delle neuroscienze è soprattutto il cervello ed è fin troppo ovvio ricordare come questo organo sia diverso dagli altri: non pensiamo con il nostro cervello come vediamo con i nostri occhi o afferriamo le cose con le nostre mani. Le informazioni sul funzionamento del cervello ci vengono dalla scienza: l’uomo neurale viene affidato ad uno scienziato che potrebbe assumere un ruolo che non gli compete. E’ciò su cui il filosofo Paul Ricoeur ci mette in guardia: da un possibile slittamento dal materialismo metodologico al materialismo dottrinale, ontologico, e si interroga su una prospettiva in cui ogni sapere che riguardi l’essere umano dipenda dal sapere neuroscientifico.
I critici del riduzionismo spinto sostengono perciò che mente e cervello siano due entità distinte (dualismo).
Nell’ambito delle neuroscienze sono al lungo convissute posizioni moniste e dualiste secondo cui mente e cervello sarebbero rispettivamente un tutt’uno o due entità distinte. Al giorno d’oggi la maggior parte dei neuroscienziati adotta un’ottica fortemente riduzionistica , e il fatto che mente e cervello coincidano rappresenta un aspetto quasi implicito di questa disciplina.
Il problema , per i biologi che cercano di comprendere il funzionamento del cervello è che, contrariamente ai loro colleghi che studiano il cuore o il rene, non possono affrontare i problemi che hanno di fronte senza impegnarsi in questioni di tipo filosofico:qualunque studio sul cervello si confronta immediatamente con il problema mente-corpo. Di fronte a questo scoglio, la maggior parte dei neurobiologi ha preso una posizione di dualismo moderato secondo cui lo stato fisico del cervello è causa del mentale che, di per sé, non ha invece efficacia causale. La metafora più usuale dei sostenitori dell’epifenomeno è quello della locomotiva a vapore con il suo fischio, prodotto dalla macchina come il pensiero lo è dal cervello. Il problema di questa soluzione è che essa non spiega come gli stati mentali possano avere effetto sugli oggetti fisici, come ad esempio la mia intenzione di muovermi faccia sì che si attivino i neuroni della corteccia motoria che provocano il movimento.
Secondo i fautori di un approccio monista che rigettano l’ipotesi dell’epifenomeno, la sola posizione materialista coerente è quella che considera il mentale e il neurale come due aspetti dello stesso stato fisico materiale: la mente non causa uno stato fisico del cervello né è causata, in quanto i concetti di causa ed effetto non si applicano a due aspetti dello stesso stato.
Il tema, più spinoso, della coscienza è spesso trascurato dai neuroscienziati che, in molti casi, sostengono che parlare di coscienza sia un’illusione metafisica mentre ciò che ha significato sono i comportamenti manifesti, misurabili e quantificabili con gli strumenti del riduzionismo.
Oltre alla coscienza restano insoluti scientificamente altri problemi, ad esempio come si può spiegare il passaggio da un’immagine mentale ad un’altra, cioè l’attenzione che io posso provare per questo o quell’evento, esterno o interno che sia? Al centro del problema della mente e del cervello c’è il fatto del controllo dell’io volontario (intenzionalità). Ad esempio, io posso smettere di scrivere queste parole, pensare al film che vedrò stasera o inseguire un ricordo: un solo stato per volta è nella mia mente. Chi ha scelto quello stato? Io indubbiamente: il problema centrale delle neuroscienze è quello dell’io. Per i dualisti il soggetto, l’io, non coincide con l’oggetto, il cervello, l’io abiterebbe soltanto mentre secondo altri sarebbe un’espressione del cervello o coinciderebbe con esso.
Malgrado quindi il progredire del sapere scientifico, resta quindi aperto un problema centrale, quello che il filosofo Joseph Levine ha definito “gap esplicativo”, riferendosi soprattutto alla coscienza, ai qualia, le nostre sensazioni soggettive del mondo. Anche se le neuroscienze ci dicono giustamente che i processi mentali dipendono dal gioco dei mediatori

domenica 10 febbraio 2008

LEZIONE DI NEUROSCIENZE - PRIMA PARTE

LEZIONE DI NEUROSCIENZE

La teoria del neurone

Nel lontano 1873 Camillo Golgi osservò al microscopio la cellula nervosa in tutti i suoi dettagli ma egli non riuscì a comprenderne il significato perché condizionato dalle sue convinzioni e teorie. L’opera di Golgi costituisce un momento di transizione tra opposte concezioni del sistema nervoso: le teorie olistiche , come quella di Golgi, e quelle di un approccio modulare basato sull’autonomia delle singole aree cerebrali e, di conseguenza, dei singoli neuroni.
Per comprendere il significato della scoperta di Golgi e la contesa scientifica che lo oppose al suo collega e storico antagonista Santiago Ramon y Cajal , che con lui condivise il premio Nobel per la medicina nel 1906, bisogna tener presente le concezioni precedenti circa la costituzione del sistema nervoso. Una scuola di pensiero degli inizi del XIX secolo sosteneva che i tessuti nervosi fossero costituiti di quegli stessi granuli (oggi cellule) che costituiscono gli altri tessuti, in accordo con l’antica teoria (fine XVII secolo) di Antoni van Leeuwenhoek . Ciò sembrava a molti scandaloso in quanto significava assimilare tra loro tutti i tessuti, quelli meno “nobili” come ad esempio l’epidermide e il fegato e quelli più “nobili” come il cervello; ai sostenitori di questa teoria piaceva l’idea di una natura cellulare cerebrale perché ciò implicava una base materialistica delle attività mentali.
Un’altra scuola di pensiero sosteneva invece che il cervello fosse fatto di una massa gelatinosa priva di una differenziazione cellulare. Le idee romantiche dei filosofi della natura (particolarmente in Germania) condizionarono il dibattito sulla natura della struttura cerebrale attraverso fumose teorie che sostenevano un olismo che mirava a minimizzare la natura materiale della mente negando quindi la sua natura cellulare.
In queste concezioni filosofiche restarono intrappolati scienziati del calibro di Jan Evangelista Purkinje il quale, pur descrivendo accuratamente le cellule nervose e l’ammasso di fibre che le circondavano del sistema nervoso centrale e gangliare non comprese appieno la natura cellulare dei granuli osservati , i rapporti tra le cellule e le fibre e le possibili funzioni. Alla luce della filosofia della natura, Purkinje ritenne che ogni granulo fosse dotato di una sua energia che lo rendeva simile ad una piccola “monade” e che il cervello fosse costituito da tante “piccole anime” pensanti (concezione vitalistica).
Un’importante svolta nella conoscenza dell’istologia del sistema nervoso si verificò nel 1844 quando Albert von Kolliker notò nei gangli nervosi (agglomerati di cellule) che le fibre nervose – i cosiddetti cilindri- non erano altro che la continuazione dei globuli, cioè delle cellule nervose. Kolliker notò in seguito che anche nei gangli spinali, le formazioni disposte ai lati della colonna vertebrale, vi erano globuli i cui prolungamenti – gli assoni- erano fibre nervose ricoperte di mielina.
Questa osservazione venne ripresa ed approfondita da Robert Remak che notò che esistevano due tipi di fibre: alcune rivestite di mielina che provenivano dal midollo , mentre altre si formavano nei gangli ed erano il prolungamento delle cellule gangliari. Remak interpretò i gangli come “piccoli cervelli” , centri nervosi intermedi in grado di controllare delle funzioni locali.In tal modo egli sottolineò un fatto molto importante: le fibre che provenivano dalle cellule nervose conducevano l’energia generata da queste ultime. Rimaneva da chiarire invece come le cellule nervose potessero provocare la contrazione dei muscoli lisci, ad esempio dell’intestino, e striati come quelli di un arto. Remak ipotizzò che il sistema nervoso agisse inducendo dei mutamenti sui capillari sanguigni che, modificando l’apporto di sangue ai tessuti, ne avrebbe aumentato o ridotto la funzione. L’ipotesi era ovviamente errata ma si fondava su un assunto corretto: l’energia viene generata al centro – sistema nervoso centrale o gangli- per viaggiare in direzione della periferia.
Intorno alla metà dell’Ottocento le conoscenze sull’anatomia del sistema nervoso erano giunte ad un punto di svolta: era possibile collegare tra di loro gli studi sulla funzione e quello sulla struttura nervosa. In altre parole era possibile iniziare a comprendere dove e in che modo si verificassero alcune semplici forme di attività nervosa come i riflessi. Il cervello cessava di essere una massa gelatinosa popolata da entità confuse ma ne venivano descritte le strutture e correlate le funzioni.
Per individuare chiaramente i corpi delle cellule nervose ed il sottile reticolo di fibre che le circonda era necessario un metodo di colorazione selettivo e fu Cavillo Golgi a mettere a punto quella “reazione nera” che avrebbe rivoluzionato le conoscenze neuroscientifiche e fatto decollare, sotto la spinta di Cajal, la teoria del neurone.
Golgi si fece promotore di una teoria “reticolare” del sistema nervoso che negava che la cellula avesse una sua autonomia anatomico-funzionale sostenendo in alternativa l’esistenza di una rete di fibrille autonoma di neuroni, in quanto pensava che la funzione nervosa dovesse dipendere da una struttura unificante e non da singole cellule.
Fu invece il suo collega Cajal nel 1888 che avanzò la teoria dell’autonomia strutturale e funzionale del neurone (grazie proprio alle tecniche istologiche elaborate da Golgi), la teoria venne poi divulgata da Wilhelm Waldeyer che,nel 1891, introdusse finalmente il termine di neurone per indicare la cellula nervosa con i suoi prolungamenti, i dendriti e l’assone. Secondo la teoria del neurone le unità nervose sono ra loro indipendenti anatomicamente e geneticamente e ciascuna unità consta di tre parti: la cellula, la fibra, la ramificazione della fibra.
Con i paralleli studi sulla fisiologia nervosa venne presto asggiunto un altro concetto: quello di sinapsi (collegamento tra neuroni diversi), la struttura responsabile della trasmissione dell’impulso nervoso, sia di tipo eccitatorio che inibitorio. Secondo i “neuronisti” non esitevano fibre nervose che non derivassero da un neurone, concetto questo che era esattamente l’opposto di quello sostenuto da Golgi e dai reticolaristi che immaginavano una rete nervosa come struttura autonoma.

La corteccia cerebrale e le sue funzioni

Fu lo studioso viennese Franz Joseph Gall e i neurologi che operarono a cavallo tra il Settecento e l’Ottocento che tentarono di individuare le prime sedi specifiche a categorie psichiche , tentavivi iniziali che conducevano spesso a idee bizzarre e prive di significato scientifico.
Gall, laico e illuminista convinto, si proponeva di diffondere una concezione meccanicistica del cervello nell’ambito di un progetto riduzionistico.
Le sue teorie e interpretazioni suscitarono l’opposizione di quanti ritenevano che esse minassero le fondamenta dell’essenza umana, l’anima,la sua immortalità e il libero arbitrio: il crevello non poteva ridursi ad essere una collezione di parti ognuna delle quali con un’attività specifica. Tra gli oppositori alla visione di Gall citiamo il francese Marie-Jean-Pierre Flourens olista convinto chetentò di contraddire la visione di Gall con dati sperimentali ottenuti da esperimenti non rigorosi (con il metodo lesione- effetto) , nonostante ciò le concezioni olistiche di Flourens si affernarono su quelle di Gall grazie anche alla crisi dell’ideologia illuminista e all’affermarsi dellem idee romantiche.

L’olismo tuttavia subì a sua volta un duro colpo nella seconda metà del XIX secolo, a seguito delle osservazioni cliniche condotte dal celebre neuroanatomista e patologo francese Paul Broca.
Broca voleva studiare i legami tra emorragie e trombosi dei vasi della corteccia cerebrale e la perdita di specifiche funzioni nervose: si riteneva , fino a quel momento, che la perdita di alcuni funzioni , in particolare il linguaggio, dipendesse da un indementimento, cioè da una perdita generale della ragione. Il primo poaziente studiato dal patologo francese, noto con il nome di “Tan” poichè questa era l’unica parola che sapeva pronunciare, aveva perso improvvisamente la capacità di articolare il linguaggio benchè egli fosse in grado di comprendere. Tan morì pochi giorni dopo essere stato visitato da Broca e questi potè individuare nel corso dell’autopsia una lesione a carico del lobo frontale di sinistra: la stessa area della corteccia che risultava colpita anche negli altri pazienti studiati da Broca e affetti dalla stessa forma di turba di linguaggio, oggi definita con il termine di “afasia motoria” (impossibilità di articolare il linguaggio ma possibilità di comprenderlo). Queste osservazioni riportarono in auge la concezione secondo cui le funzini cerebrali avevano basi organiche ed erano localizzate in una specifica sede della corteccia o del cervello.
Anche il neuropsichiatra tedesco Carl Wernicke contribuì allo studio sulle afasie descrivendo un tipo di afasia in cui si verificava un’incapacità di comprendere il linguaggio: questa afasia, (afasia sensoriale) che implicava un deficit delle funzioni sensoriali e non motorie, dipendeva da una lesione della circunvoluzione temporale posteriore della corteccia. Nell’interpretare questi risultati, il neurologo tedesco sostenne che non esistevano tanto aree in cui erano localizzate le facoltà mentali, come riteneva la vecchia frenologia di Gall, quanto aree specifiche in cui venivano codificate esperienze sensorio-motorie di base che , ricombinandosi tra di loro, avrebbero dato luogo alle complesse esperienze della mente e della coscienza umana. Nel caso del linguaggio si sarebbe verificata un’associazione tra le esperienze sensoriali, legate alla percezione dei suoni, e quelle motorie, legate alla loro articolazione.
Le concezioni di Wernicke si ispiravano a quelle degli empiristi inglesi (Locke, Hume, Mill) che sostenevano che il pensiero dipendeva dalle associazioni tra esperienze sensoriali e risposte motorie.
Queste concezioni riduzionistiche dell’attività psichica erano in pieno contrasto con la tesi dei sostenitori dell’olismo che segnalavano ad esempio i casi di pazienti che, avendo subito lesioni cerebrali, mostravano discrete capacità di recupero, vedendo in questo una contraddizione con la concezione meccanicistica.

venerdì 8 febbraio 2008

FILOSOFIA MECCANICA

Filosofia meccanica

Nell’età che va da Copernico a Newton sono presenti sia le macro-scienze che le micro- scienze. Le prime , per esempio l’astronomia planetaria e la meccanica terrestre, hanno a che fare con proprietà e processi che possono essere, più o meno, direttamente osservati e misurati. Le seconde, per esempio l’ottica ed il magnetismo, le teorie sulla capillarità e sul calore, postulano invece delle micro-entità che vengono dichiarate di principio inosservabili. Galileo, Gassendi, Cartesio, Boyle, Hooke, Huygens, Newton parlano tutti di entità che possiedono caratteristiche radicalmente diverse da quelle dei corpi macroscopici che costituiscono il mondo della quotidianità. In questo contesto metafore ed analogie hanno una funzione centrale.
Nella filosofia meccanica la realtà viene ricondotta a una relazione di corpi o particelle materiali in movimento e tale relazione appare interpretabile mediante le leggi del moto individuate dalla statica e dalla dinamica. L’analisi viene quindi ricondotta alle condizioni più semplici e viene realizzata mediante un processo di astrazione da ogni elemento sensibile e qualitativo. La resistenza dell’aria, l’attrito, gli aspetti qualitativi del mondo reale vengono interpretati come irrilevanti, o circostanze disturbanti, per la spiegazione del fenomeno. I fenomeni nella loro particolarità e nella loro immediata concretezza, il mondo delle cose di tutti i giorni ed il mondo delle cose “magiche” del Rinascimento, non esercita più alcun fascino sui sostenitori della filosofia meccanica.
Si fa scienza attraverso modelli per la convinzione che la natura vera delle cose sfugge ai nostri sensi. Il suono, ad esempio, è una vibrazione dell’aria, ma il senso dell’udito ci fa pensare al suono e non al moto dell’aria.
E’ necessario per la scienza passare dall’osservabile all’inosservabile. E’ compito dell’immaginazione concepire il secondo, come in qualche modo simile al primo.
Robert Hooke è uno degli scienziati che nel Seicento partecipano intensamente ai dibattiti sulla costituzione della materia. Egli sostiene che, dal momento che la struttura interna della materia e degli organismi viventi sono inaccessibili ai sensi, la via da percorrere è quella delle analogie tra effetti prodotti da enti ipotetici ed effetti prodotti da cause note perché accessibili ai sensi. Da un’analogia degli effetti possiamo risalire a un’analogia delle cause. Hooke è uno scienziato “baconiano”. Applicando questo metodo fondato su somiglianze, analogie, confronti, egli spiega, tra le altre cose, l’azione dell’aria nei processi di combustione, appica il modello della capillarità alla risalita di fluidi nella circolazione linfatica delle piante.

La meccanica e le macchine

Il termine meccanicismo è una parola elastica, non facilmente definibile in modo univoco e finisce per assumere significati molto vaghi. Possiamo attribuire a questo termine due significati, spesso mescolati insieme o combinati nella nuova visione del mondo. Il primo fa riferimento ad un ordigno o macchina , una visione che considera l’universo simile ad un grande orologio costruito da un Grande Orologiaio, il secondo si riferisce al fatto che gli eventi naturali che costituiscono il mondo possono venir descritti ed interpretati mediante i concetti di quella parte della fisica che viene detta meccanica, cioè la scienza dei movimenti. Con Galilei e con Newton la meccanica è effettivamente diventata un ramo della fisica che studia le leggi del moto (dinamica) e le condizioni di equilibrio dei corpi (statica).
La cosiddetta filosofia meccanica è fondata su alcuni presupposti: 1) la natura non è la manifestazione di un principio vivente, ma è un sistema di materia in movimento retto da leggi; 2) tali leggi sono determinabili con precisione matematica; 3) un numero assai ridotto di tali leggi è sufficiente a spiegare l’universo; 4) la spiegazione dei comportamenti della natura esclude di principio ogni riferimento alle forze vitali o alle cause finali.
Sulla base di questi presupposti spiegare un fenomeno vuol dire costruire un modello meccanico che “sostituisce” il fenomeno reale che si intende analizzare. Questa ricostruzione è tanto più vera quanto più il modello sarà stato costruito solo mediante elementi quantitativi riconducibili alle formulazioni della geometria.
Il mondo immediato dell’esperienza quotidiana non è reale, reali sono la materia ed i movimenti (che avvengono secondo leggi) dei corpuscoli che costituiscono la materia. Il mondo reale è contesto di dati quantitativi e misurabili, di spazio e di movimenti e relazioni nello spazio. Dimensione, forma, stato di movimento dei corpuscoli sono le sole proprietà riconosciute come reali e come principi esplicativi della realtà.
La tesi della distinzione fra le qualità oggettive e soggettive dei corpi è variamente presente in Bacone, Galilei, in Cartesio e Pascal, in Hobbes e Gassendi e Mersenne. Essa costituisce uno dei fondamentali presupposti teorici del meccanicismo.

Nella filosofia meccanica i riferimenti agli orologi, ai mulini, alle fontane, all’ingegneria idraulica sono insistenti e continui. Per secoli era stata accettata l’immagine di un universo non solo creato per l’uomo, ma strutturalmente simile o analogo all’uomo. L’analogia microcosmo-macrocosmo aveva dato espressione ad un’immagine antropormorfica della natura, questa prospettiva viene completamente eliminata dal meccanicismo.
Il metodo del meccanicismo apparve così potente da essere applicato non solo al mondo della natura, a quello degli astri e alla caduta dei gravi, ma anche alla sfera delle percezioni e dei sentimenti degli esseri umani. Le teorie della percezione ad esempio appaiono fondate sull’ipotesi di particelle che, attraverso invisivibili porosità, penetrano negli organi di senso producendo moti che vengono trasmessi dai nervi al cervello.

Cose naturali e cose artificiali:
conoscere e fare

Nell’universo-macchina dei meccanicisti poiché ogni elemento (o “pezzo”) adempie ad una sua specifica funzione ed ogni pezzo è necessario al funzionamento della macchina, nella grande macchina del mondo non ci sono più gerarchie, fenomeni più o meno nobili. Il mondo concepito come un grande orologio fa cadere l’immagine tradizionale del mondo come una sorta di piramide che ha in basso le cose meno nobili ed in alto quelle più vicine a Dio.
Pierre Gassendi (1592-1655) professore di astronomia e matematica, autore di sottili obiezioni alle Meditationes di Cartesio, contrappone all’universo “pieno” cartesiano un universo composto da particelle indivisibili che si muovono nel vuoto. Gassendi è un deciso avversario degli aristotelici e degli occultisti ed è fortemente critico verso i cartesiani. Teorizzava uno scetticismo metafisico in cui il sapere scientifico aveva carattere limitato e provvisorio, solo Dio può conoscere le essenze. L’uomo può conoscere solo quei fenomeni dei quali può costruire modelli o solo quei prodotti artificiali (le macchine) che ha costruito con le sue mani.
La conoscenza delle cause ultime e delle essenze, che è negata all’uomo, è riservata a Dio in quanto creatore o costruttore della macchina del mondo. Dio conosce quel mirabile orologio che è il mondo perché ne è stato il costruttore, l’orologiaio.
Ciò che davvero l’uomo può conoscere è solo ciò che è artificiale. “E’ difficile – scrive per esempio Marin Mersenne- incontrare delle verità nella fisica. Appartenendo l’oggetto della fisica alle cose create da Dio non c’è da stupirsi se non possiamo trovare le loro vere ragioni…[…]..Conosciamo infatti le vere ragioni solo di quelle cose che possiamo costruire con le mani o con l’intelletto”.

Animali, uomini, macchine

Nella fisiologia di Cartesio ciò che è vivente non si pone più come alternativo rispetto a ciò che è meccanico. Gli animali sono macchine. Il riconoscimento di un’esistenza di un’anima razionale serve a tracciare una linea di demarcazione tra le macchine-viventi (gli animali) e alcune particolari funzioni di quelle particolari macchine (uniche nell’universo) che sono gli uomini. Solo questi ultimi infatti sono in grado di pensare e di parlare. Solo queste due funzioni appaiono agli occhi di Cartesio non spiegate in modo soddisfacente.
La saggezza o la capacità di adattarsi all’ambiente non sono dunque per Cartesio doti che le macchine possano acquisire. E lo stesso vale anche per il linguaggio. Macchine parlanti sarebbero (computer) in ogni caso incapaci di coordinare parole per rispondere al significato di ciò che viene loro detto.
L’anima razionale non può quindi derivare tutta la sua potenza dalla materia, ma è stata appositamente creata da Dio. Tutto ciò ( e non è davvero poco) che sta al di sotto della soglia del pensiero e del linguaggio è invece interpretabile secondo i canoni del più rigido meccanicismo. Nell’uomo l’anima ha la sua sede nella ghiandola pineale, vicino alla base del cervello ed essa controlla quei moti muscolari che trasformano i pensieri in azioni e in parole.
Anche il matematico ed astronomo napoletano Giovanni Alfonso Borelli (1608-79) parla di una somiglianza tra automi ed animali semoventi e si richiama alla geometria e alla meccanica come a due scale sulle quali è necessario salire per raggiungere “la meravigliosa scienza del moto degli esseri viventi”. Borelli muove da presupposti di tipo galileiano-cartesiano, solo la meccanica ci svela le leggi della natura, egli respinge ogni interpretazione chimica dei fenomeni fisiologici ed interpreta su basi puramente meccaniche i processi dell’intero organismo , ivi comprese la circolazione del sangue, il, battito cardiaco, la respirazione, la funzione renale.
La medicina- scriverà Denis Diderot nella grande Encyclopédie dell’Illuminismo (alla voce méchanicien) – aveva preso negli ultimi cento anni un aspetto completamente nuovo, aveva assunto un linguaggio del tutto diverso da quello che per moltissimo tempo era stato impiegato.

Si può essere meccanicisti e rimanere cristiani?

I maggiori filosofi naturali del Seicento sostenitori del meccanicismo ammiravano Democrito e gli antichi atomisti e il poeta romano Lucrezio che avevano costruito un’immagine del mondo di tipo meccanico e corpuscolare.Eppure questi pensatori rimasero sempre distanti dalle conseguenze ateistiche che si potevano ricavare dalla tradizione del materialismo. Rifiutavano quelle filosofie che negavano l’opera intelligente di un Creatore ed ascrivevano l’origine del mondo al caso ed al fortuito concorso degli atomi.
L’immagine della macchina del mondo implicava per essi l’idea di un suo Artefice e Costruttore, la metafora dell’orologio rinviava al divino Orologiaio.
I filosofi dai quali prendere le distanze, innumerevoli volte respinti e condannati, sono Thomas Hobbes (1588-1679) e Baruch Spinoza (1632-77) Il primo ha esteso il meccanicismo all’intera vita psichica, ha interpretato il pensiero come una sorta di istinto un po’ più complicato di quello degli animali. Spinoza ha invece fatto dell’estensione un “attributo” di Dio ed ha quindi negato la millenaria distinzione tra un mondo materiale ed un Dio immateriale, ha negato che Dio sia persona e possa avere scopi o disegni.Ha affermato l’inseparabilità tra anima e corpo, ha visto nell’universo una macchina eterna, priva di senso e di scopi.
Termini come hobbista, spinozista, ateo, libertino funzionano spesso, nella cultura del Seicento e del primo Settecento, come sinonimi.
Pierre Gassendi anche se pone gli atomi creati da Dio, apparve a molti pericolosamente vicino alle posizioni dei libertini. Mentre contro di essi polemizza vivacemente Marin Mersenne il quale abbandona la tradizione del pensiero scolastico e si schiera decisamente dalla parte della nuova scienza. Mersenne pensava che la magia naturale, che consentiva all’uomo di compiere “miracoli”, fosse assai più pericolosa, per la tradizione cristiana della nuova filosofia meccanica. Quest’ultima invece poteva essere conciliata con la tradizione cristiana. La tesi del carattere sempre ipotetico e congetturale delle conoscenze scientifiche , ai suoi occhi, lasciava infatti spazio alla dimensione religiosa e alla verità cristiana.
Anche Robert Boyle (1627-91) ha preoccupazioni di questo tipo. Nel momento in cui esalta l’eccellenza della filosofia corpuscolare o meccanica, egli si preoccupa di tracciare due lo linee di demarcazione. La prima deve distinguerlo dai seguaci di Epicureo e di Lucrezio e da tutti coloro che ritengono che gli atomi incontrandosi per caso in un vuoto infinito siano in grado da se stessi di produrre il mondo con i suoi fenomeni. La seconda serve a differenziarlo da coloro che egli chiama “ i meccanicisti moderni” ( che sono poi i cartesiani) per i quali le varie parti della materia (alla quale Dio aveva impresso una quantità invariabile di moto) sarebbero in grado di organizzarsi da sole in un sistema.
La filosofia corpuscolare della quale Boyle si fa sostenitore non va pertanto confusa né con l’epicureismo né con il cartesianesimo. Nel meccanicismo di Boyle il problema della “prima origine delle cose” va tenuto accuratamente distinto da quello del “successivo corso della natura”. Dio non si limita a conferire il moto alla materia, ma guida i movimenti delle singoli parti di essa in modo da inserirle nel “progetto di mondo” che avrebbero dovuto formare. Una volta che l’universo è stato strutturato da Dio e che Dio ha stabilito “ quelle regole del movimento e dell’ordine fra le cose corporee che siamo soliti chiamare Leggi della Natura”, si può affermare che i fenomeni “sono fisicamente prodotti dalle cose meccaniche delle parti della materia e dalle loro reciproche operazioni secondo le leggi della meccanica”.
Per Cartesio invece la scienza è in grado di dire qualcosa non solo su cosa è il mondo, ma anche sul processo della sua formazione. L’alternativa con Boyle è su questo punto radicale. Le strutture del mondo presente, nella prospettiva cartesiana, sono il risultato della materia, del tempo.
Di fronte a queste dottrine e a queste soluzioni, la posizione di Isaac Newton non è lontana da quella assunta da Robert Boyle. La presa di distanza dai possibili esiti ateistici e materialistici del cartesianesimo assumerà in Newton forme diverse ma resterà un tema dominante. Egli è convinto che un “cieco destino” non avrebbe mai potuto far muovere tutti i pianeti allo stesso modo in orbite concentriche e quindi il sistema solare è effetto di un “disegno intelligente”.

ARISTOTELE

Nascita della Scienza in Grecia
Aristotele

Alla scuola di Platone si formò anche Aristotele (384-322 a.C.) che , per quasi vent’anni, stette al fianco del suo maestro.

Aristotele fondala una sua scuola ad Asso (Asia Minore) da dove dovette però andarsene, per varie vicende politiche, per trasferirsi a Mitilene e poi ad Atene. In Atene fondò una scuola in una località consacrata ad Apollo Lykeos, il Liceo. Questa scuola mantenne gli insegnamenti tradizionali dell’Accademia (filosofia, matematica ed astronomia) ed aggiunse quelli di scienze naturali e di fisica. Nel primo caso si ebbero importanti successi con importanti raccolte e classificazioni di animali e piante provenienti da ogni parte del mondo.
Nel descrivere le concezioni di Aristotele occorre tenere a mente che esse dominarono il mondo occidentale per oltre 2000 anni.

La filosofia aristotelica si discosta radicalmente da quella di Platone; essa è un complesso organico, molto ben organizzato in un insieme del quale è impossibile toccare una sola parte senza compromettere il tutto. Aristotele spaziò su tutti i campi del sapere discutendo ogni fatto empirico, ogni punto di vista espresso precedentemente.Con lui iniziano ad essere accumulati i fatti osservati, gli oggetti vengono classificati,si osserva il mondo circostante descrivendolo per quello che è , cosa disprezzata nell’Accademia di Platone. Due modi radicalmente diversi di intendere la scienza.
Con Platone essa è costruita sull’ipotesi, sulle elaborazioni dell’intelletto, sulle idee che solo dopo devono scendere nel mondo reale; con Aristotele si parte da oggetti materiali per classificare e trovare regole che permettano generalizzazioni e riconducano a concetti (metodo deduttivo ed induttivo). La matematica non sta al centro dei suoi interessi, per lui dovrebbe servire solo a risolvere problemi pratici.

La FISICA di Aristotele tenta di spiegarci come è costituito il mondo con un atteggiamento osservativi e deduttivo: si esclude ogni intervento attivo sulla realtà per portare alla luce le sue intime leggi. Per lui la quantità è del tutto irrilevante ai fini di scoprire l’essenza delle cose, non c’è quindi alcun bisogno di eseguire delle misure e di usare quindi dei procedimenti matematici. Si tratta invece di classificare le sostanze ed i movimenti cui esse sono soggette. La conoscenza proviene da percezioni sensibili e l’intelletto ha lo scopo di elaborare tali percezioni.
La cosa più interessante da notare è che il complesso del pensiero aristotelico si presenta in modo unitario.

Il MONDO secondo Aristotele è organizzato secondo due idee principali:

la teoria dei quattro elementi
la teoria dei luoghi naturali

Alla sua base egli pone i quattro elementi di Empedocle e l’etere che gioca un ruolo importante. Esso entra nella costituzione di tutto ciò che si trova al di sopra del cielo della Luna per rendere conto del fatto che tutto ciò che ivi si trova riamane sempre uguale a se stesso, senza essere soggetto a generazione e corruzione. Al di sopra del cielo della Luna vi è un moto eterno che non subisce rallentamenti e questo è possibile solamente attraverso un elemento diverso da quelli terreni.
I quattro elementi hanno una relazione con le quattro qualità elementari o primarie : caldo, freddo, secco, umido. Queste quattro qualità formano coppie di opposti che non possono mai coesistere (il caldo non può coesistere con il freddo) e ad ogni elemento vengono assegnate due qualità elementari; cosicché abbiamo:
terra = secca e fredda
acqua= umida e fredda
aria= umida e calda
fuoco= secco e caldo

Questo modo di definire le cose fa sì che, mediante lo scambio di almeno una delle qualità primarie nel suo opposto, è possibile che un elemento si trasformi in un altro. Risulta quindi semplice ad esempio la trasformazione di acqua in aria e viceversa, mentre invece risulta difficile la trasformazione da aria in terra. Gli elementi non sono immutabili ma trasformabili l’uno nell’altro

Ci sono corpuscoli alla base dei quattro elementi? Per Aristotele la risposta è negativa, egli nega con grande forza l’esistenza del vuoto e quindi anche il concetto di materia discontinua. Il rifiuto dell’atomismo deriva dal fatto che sia Platone che Democrito non assegnavano nessuna qualità ai supposti costituenti ultimi della materia (triangoli ed atomi). Per Aristotele alcune qualità elementari entrano nella materia. Certo è che tra triangoli ed atomi tridimensionali Aristotele preferisce questi ultimi, se non latro perché Democrito mostra di aver rivolto maggiore attenzione ai fatti empirici, cosa del tutto estranea al pensiero di Platone. Di Democrito poi viene criticato il movimento casuale degli atomi, che non saprebbero dove andare non trovando né un su né un giù, né una destra né una sinistra. Dovrebbero dunque restare immobili. Per Aristotele il moto ha una direzione (teoria dei luoghi naturali). Inoltre, se il vuoto esistesse, non si capirebbe perché un oggetto scagliato dovrebbe fermarsi in un punto piuttosto che in un altro. Nel vuoto un oggetto dovrà muoversi all’infinito (e questo è vero, è il principio d’inerzia!). Per negarlo Aristotele aveva formulato il principio d’inerzia!

Il mondo è dunque tutto pieno. Ma quanto è divisibile questo tutto pieno? Qui emerge un punto importante della filosofia aristotelica: la differenza concettuale che egli fa tra infinito in potenza ed infinito in atto . Egli sostiene che un corpo percepibile è divisibile all’infinito e non divisibile all’infinito al tempo stesso, senza che vi sia contraddizione. Infatti esso sarà divisibile in potenza ma non in atto. Ma anche in questo caso sorgono problemi perché , secondo Aristotele, anche supponendo di fare la divisione del corpo solo in potenza, risulterebbe che ogni punto del corpo darebbe diviso fino a scomparire nel nulla, ma allora come sarebbe possibile ricostruirlo?
D’altra parte è impensabile il dividere praticamente un corpo in ogni suo punto e quindi, ad un certo istante, bisognerà porre fine al processo: si dovranno dunque ammettere nel corpo grandezze indivisibili invisibili.

In definitiva, pur nell’ammissione chiara di tutto pieno e continuo, la soluzione del problema pare arenarsi su un fatto accessorio: la divisibilità della materia. Ammettendo solo la divisione in atto, sembra ragionevole accettare l’esistenza di piccole parti che conservino le caratteristiche delle sostanze che si stanno dividendo : i minima naturalia.

Comunque sia Aristotele afferma l’impossibilità che qualcosa di continuo sia formato da atomi (indivisibili) , ad esempio che una linea risulti formata da punti (poiché la linea è un continuo mentre il punto è un indivisibile). Ogni continuo deve essere formato da parti sempre divisibili.
Ecco un argomento contro Zenone (la freccia) : tanto la grandezza quanto il tempo sono continui ; se la grandezza è infinita ci vorrà un tempo infinito a percorrerla, se essa è finita ci vorrà un tempo finito. La tartaruga verrà raggiunta da Achille ammettendo che la distanza che percorre è finita e non infinita.

I quattro elementi sono organizzati secondo gradi di intrinseca nobiltà, saranno disposti in ordine gerarchico anche nella costituzione del COSMO: la terra, la più vile, sta più in basso; su di essa vi è l’acqua, quindi l’aria e , da ultimo, il fuoco, l’elemento più nobile. Semplici osservazioni naturali lo portano a questa fisica: un pugno di terra affonda nell’acqua, delle bolle d’aria salgono da sotto l’acqua, il fuoco acceso nell’aria sale attraverso quest’ultima.
A questi elementi bisogna aggiungere l’etere perfetto, eterno ed incorruttibile, la quintessenza che si trova al di sopra di tutti gli altri. La luna, i pianeti, ed il Sole vengono sostenuti da corrispondenti sfere cristalline- L’asse della sfera che porta il pianeta è fissato all’interno di un’altra sfera rotante il cui asse è attaccato ad una terza sfera e così via.
Andando più in particolare erano state introdotte altre sfere rotanti in direzione opposta affinché il moto dell’una si trasmettesse all’altra (sfere compensatrici). L’insieme completo delle sfere del sistema aristotelico, come sviluppo del sistema di Eudosso e Calippo, è di 56 (55 +quella delle stelle fisse).
Il moto è trasmesso dall’ultima sfera a quelle più interne. Quando si arriva alla sfera eterea che contiene incastonata la Luna, il suo moto trascina per attrito l’aria ed il fuoco sottostanti provocando il rimescolamento dei quattro elementi, fenomeno che è alla base della generazione e corruzione del mondo terreno o sublunare. Senza quell’attrito gli elementi sarebbero separati con sfere di terra, acqua, aria e fuoco concentriche. In particolari condizioni il fuoco che sale si concentra in un dato luogo e viene messo in rotazione dall’attrito originando così le comete.

Per Aristotele i movimenti terrestri dipendono da quelli celesti, le incessanti rivoluzioni del cielo provocano i moti rettilinei degli elementi terrestri. Tutto ciò che accade sulla Terra è controllato dalle sfere celesti, inizia in questo modo quella cosa che va sotto il nome di Oroscopo.

Passiamo ora ad occuparci più in dettaglio di un problema centrale della fisica aristotelica, il problema del moto. Diciamo subito che per Aristotele il termine moto o movimento vuol dire qualsiasi mutamento mentre il moto come lo intendiamo oggi è per Aristotele il moto locale.

Un oggetto è in moto se occupa successivamente luoghi diversi. Il moto può essere:

- sostanziale: di generazione e corruzione
- qualitativo : modificazione delle qualità
- quantitativo: accrescimento e diminuzione
- moto locale: che a sua volta si suddivide in moto violento e moto naturale. Quest’ultimo a sua volta può essere verso l’alto o verso il basso e circolare.

I corpi che si muovono dall’alto in basso o viceversa sono dotati di peso o leggerezza, proprietà che non spettano ai corpi che si muovono di moto circolare. I gravi cadono a diverse velocità a seconda del loro peso e a seconda della densità del mezzo.
Ogni corpo tende ad andare al suo luogo naturale e i moti che realizzano questo sono moti naturali: così la terra si muoverà per raggiungere la terra, l’acqua scorrerà per andare verso l’acqua, l’aria salirà in bollicine…
Sono moti violenti quelli provocati artificialmente (lanci di frecce , animale che trascina un carro…), in ogni caso perché un moto sia possibile è necessario un motore che lo sostenga: mentre per il carro è chiaro qual è il motore, per il sasso scagliato occorre pensare che esso sia mantenuto in moto dall’aria che, chiudendosi dietro di esso, lo sospinge. Se il motore cessa di agire cessa il moto. Il moto è uniforme se su di esso il motore agisce in modo costante.
Il caso invece della caduta di un corpo solleverà una problematica enorme che sarà dipanata a partire da Galileo.

L’infinito non può muoversi (non ha altro spazio da occupare) e poiché la sfera delle stelle fisse è in moto si deve concludere che il mondo è finito Ma se la sfera delle stelle fisse è in mot vuol dire al di là deve esservi luogo e quindi l’universo deve proseguire anche al di là di tale sfera.
Il limite del mondo è la superficie interna della sfera delle stelle , l’ultima sfera è in mot anche se occupa sempre lo stesso luogo.

La Terra è immobile perché un corpo scagliato verso l’alt ricade perpendicolarmente nello stesso punto da cui è stato lanciato.

La sfericità della Terra viene dedotta dalle ombre circolari disegnate sulla Luna durante le eclissi.

CONCLUSIONE

Con la morte di Aristotele scompare uno dei massimi pensatori dell’antichità classica. I rivolgimenti politici originati dalle conquiste di Alessandro Magno spostano il centro scientifico dalla Grecia, Magna Grecia e Asia Minore verso Alessandria ed ancora in alcuni centri della Magna Grecia., dando inizio al periodo ellenistico. Qui si saldano le tradizioni dei massimi pensatori dell’antichità classica con la cultura che era stata sviluppata dai babilonesi e quella penetrata dall’oriente.
Ora non incontriamo più filosofi “complessivi” , la scienza inizia a separarsi dal pensiero filosofico che ormai, dai sofisti in poi, disquisiva su se stesso. Vi sarà una fioritura impressionante di ingegni di scienziati che daranno vita ad una vera e propria esplosione della scienza, come dice Russo alla rivoluzione dimenticata. Parliamo di nomi come Euclide, Apollonio, Ipparco, Aristarco, Eratostene, Archimede.

L’eredità più propriamente filosofica dei massimi pensatori la ritroviamo invece nelle scuole di pensiero che si susseguono alla morte di Aristotele: la scuola scettica, epicurea, stoica, neopitagorica, neoplatonica. A parte la scuola epicurea l’interesse per la scienza viene meno, la metafisica , l’alchimia, la magia, l’astrologia assumono un’importanza sempre maggiore.

In conclusione siamo debitori a Platone della costante rivendicazione dell’uso della matematica per una vera conoscenza scientifica, altrettanto però dobbiamo ad Aristotele per il suo rivendicare il primato delle ricerche empiriche. Quando, dopo 2000 anni, si salderanno queste due tradizioni nascerà l’approccio moderno alla comprensione del mondo.

giovedì 7 febbraio 2008

Il primo chimico: Robert Boyle

Una figura di primissimo piano che diede un contributo fondamentale alla transizione tra l'alchimia e la chimica, modernamente intesa come scienza della materia, fu quella dell'irlandese Robert Boyle (1627-1691). Oltre ad aver fornito importanti contributi allo studio dei gas (ben nota è la "legge di Boyle e Mariotte"). Il suo nome è inscindibilmente legato alla chiarificazione del fondamentale concetto di "elemento". Boyle illustra le sue concezioni nella sua celebre opera The Sceptical Chymist (Il Chimico Scettico) del 1661. Il libro è scritto in forma di dialogo tra il filosofo antico Carneade (219-388 a.C.) e altri tre personaggi di nome, rispettivamente, Temistio, Filopono ed Eleuterio. Tutto il dialogo è una serrata critica alle concezioni aristoteliche della materia e in particolare alla teoria dei quattro elementi, aria, acqua, terra e fuoco. Caratteristico di tutta l'opera di Boyle è il ruolo centrale attribuito alla sperimentazione. L'importanza dell'esperimento si manifesta anche nella sua innovativa definizione di elemento, inteso come sostanza non ulteriormente decomponibile con le tecniche conosciute. In tale concezione vi è un duplice aspetto che merita di essere evidenziato. Da un lato non si parte più da pure speculazioni filosofiche, come quelle che avevano portato alla teoria dei quattro elementi empedoclei-aristotelici. Boyle parte dai fatti per cercare di interpretare la realtà: non parte da principi primi per interpretare i fatti. Secondariamente la definizione di elemento di Boyle è di tipo operativo. Questo è un requisito indispensabile per qualsiasi concetto scientifico, degno di questo nome. Nella scienza, infatti, deve essere bandita ogni ambiguità e le definizioni devono essere univocamente interpretate da chiunque. Le definizioni operative sono quelle che meglio di ogni altra soddisfano questa caratteristica. Boyle manifesta questo suo amore per l'univocità e la chiarezza anche nell'estrema cura con cui egli affronta il problema del linguaggio. Egli si scaglia contro la tendenza dell'epoca a usare modi di esprimersi altisonanti ed ermetici. Essi non sono altro che il sintomo di scarsa chiarezza di idee e di ignoranza su ciò di cui si intende parlare. Va inoltre osservato che Boyle aderisce alle concezioni atomistiche. In particolare egli utilizza queste concezioni per interpretare il "fuoco". Esso, infatti, non è più visto come un elemento, come nella fisica aristotelica, bensì come un "agente" in grado di imprimere movimento alle particelle e che può essere utilmente impiegato dal chimico per eseguire la scomposizione delle sostanze.

lunedì 4 febbraio 2008

MENDEL E LE SUE SCOPERTE

La genetica e le sue scoperte dominano oggi una parte della nostra vita e sono spesso presenti nei mass media, che divulgano notizie su ogni gene recentemente scoperto, da quelli presunti responsabili dell'obesità a quelli che regolerebbero l'orientamento sessuale. Ugualmente diffuse sono le notizie circa nuove procedure diagnostiche che presumibilmente rivelano quali individui hanno più probabilità di sviluppare il cancro o altre gravi malattie nel corso della loro vita.
Eppure ancora pochi decenni fa i contadini russi circondavano di specchi la stalla di una pregiata cavalla gravida affinché, guardandosi, potesse generare un puledro bello e pregiato come essa stessa. E alle mamme italiane si suggeriva di guardare foto di bimbi e bimbe belle affinché il nascituro fosse bello come loro. Eppure sin dai tempi iniziali dell'agricoltura e della pastorizia l'umanità era stata capace di selezionare, in modo intuitivo ma attraverso incroci, piante e animali più pregiati, più fruttiferi, più adatti alla crescenti esigenze di cibo e di spostamenti di popolazioni in larga espansione.

In effetti, si dovette attendere la seconda metà dell'Ottocento perché il mistero della trasmissione ereditaria dei caratteri genetici venisse svelato dal lavoro eccezionale del monaco austriaco Gregor Johann Mendel (1822-1884) che mediante esperimenti di fecondazione artificiale sulle piante (cioè di trasporto del polline di una pianta sul pistillo di un'altra), durati quasi dieci anni e condotti su circa 30 000 piante di pisello (Pisum sativum) nel giardino del monastero di Brno, stabilì le leggi di base dell'ereditarietà. L'importanza di Mendel sta anche nel fatto che egli tra i primi portò nelle scienze della natura il concetto che fosse loro compito scoprire le leggi naturali. Esse dovevano basarsi su criteri sperimentali prestabiliti e dimostrabili in base a criteri matematici rigorosi; e le conclusioni dovevano permettere di prevedere i fenomeni che si sarebbero verificati durante la ricerca. Ma queste scoperte non divennero patrimonio comune dell'umanità e della scienza che molti anni più tardi.

Mendel veniva da una famiglia di agricoltori e la Moravia era allora una regione guida nell'allevamento razionale delle pecore, grazie a lavori sperimentali sulla selezione ovina tesa a incrementare la produzione di lana ed era famosa anche per la coltivazione degli alberi da frutta. Egli si era laureato nel 1843 all'Istituto Filosofico dell'Università di Olomouc, dove il professor Nestler teneva lezioni sui principi dell'allevamento scientifico. In quello stesso anno Mendel entrò nel convento di San Tommaso retto dagli agostiniani e situato a Brünn — allora in Austria, l'attuale Brno capoluogo della Moravia, oggi Repubblica Ceca. L'intera abbazia era un centro di cultura e l'abate del convento, Cyril Frantisek Napp, era il presidente della Società Pomologica.

Nel 1851 l'abate aveva inviato Mendel a Vienna dove frequentò l'Istituto di Fisica dedicandosi inoltre a matematica, chimica, botanica, zoologia, entomologia e paleontologia. Mendel iniziò così lo studio conducendo esperimenti incrociati e analizzando l'espressione dei vari caratteri al fine di definire una legge che regolasse il loro manifestarsi nelle generazioni successive. Mendel limitò la sua ricerca a caratteristiche ben definite, considerate unità discrete, cioè ben distinguibili e facilmente individuabili. Dal 1856 al 1863 Mendel condusse esperimenti incrociati. Egli studiò separatamente non meno di 7 diversi caratteri per i quali i piselli differivano e, per ogni carattere, osservò tipi contrastanti. Per esempio, i semi erano lisci o rugosi, i cotiledoni erano gialli o verdi, le piante erano alte o basse e così via. Per trovare in che modo questi caratteri contrastanti fossero influenzati dall'ereditarietà, Mendel adottò come generazione parentale quelle varietà che differivano per i caratteri in esame.

Egli elaborò le leggi dell'ereditarietà nel saggio Esperimenti sugli ibridi delle piante apparso nel 1866 nelle Transazioni della Società di Storia Naturale di Brünn. Mendel assunse che i caratteri ereditati dai genitori vengono trasmessi come unità distinte ed indipendenti, le quali si riassortiscono di generazione in generazione secondo regole ben precise. Egli riteneva che i gameti maschili e femminili contenessero i caratteri che gli individui della generazione successiva (gli ibridi ottenuti dall'incrocio) avrebbero ereditato; alcuni di tali caratteri risultavano molto evidenti, e Mendel li definì dominanti; altri erano presenti ma non visibili, e Mendel li chiamò recessivi.

Era suo destino restare incompreso perché troppo antesignano. I suoi saggi non ebbero eco nel mondo scientifico contemporaneo. La scienza di allora infatti considerava l'ereditarietà solo come un particolare momento dello sviluppo. Egli poi abbandonò in gran parte le sue ricerche essendo succeduto a Napp alla guida dell'abbazia, che lo assorbì probabilmente quasi del tutto. Solo anni più tardi le sue leggi vennero riscoperte da tre botanici europei, De Vries in Olanda, Correns in Germania e Von Tschermak in Austria.

Nel 1909 William Bateson inserì una traduzione del lavoro originale di Mendel nel libro Mendel's Principles of Heredity (Cambridge, 1909). Per ironia della sorte, il destino dello straordinario lavoro rigoroso e immaginativo di Mendel doveva subire l'onta del dubbio della falsificazione. R. A. Fisher nel 1936 affermò infatti che i risultati di Mendel erano "troppo buoni per essere veri". Un'affermazione gratuita, basata su un'analisi statistica che non tenne conto del fatto che ciascuno dei 7 caratteri analizzati da Mendel è controllato da un solo gene.

Ecco le leggi fondamentali, generalmente valide per tutti gli organismi animali e vegetali a struttura cellulare:

La prima legge di Mendel o Principio della dominanza (o della omogeneità del fenotipo): dice che incrociando due piante che differiscono per un solo carattere, gli ibridi risultanti nella prima generazione (F1) saranno uniformi rispetto al carattere in questione, avranno cioè tutti lo stesso carattere, che è dominante. Inoltre, nella F1 uno dei caratteri antagonisti scompare completamente, senza lasciare traccia. Quest'ultimo è recessivo.

La seconda legge di Mendel o Principio della disgiunzione elabora il concetto della segregazione. Dichiara che gli individui della seconda generazione F2 (ottenuti incrociando individui F1) non sono uniformi, ma che i caratteri parentali segregano. Secondo un incrocio dominante-recessivo o un incrocio intermedio i rapporti risultanti sono 3:1 o 1:2:1. In quest'ultimo caso, cioè, 1/4 dei discendenti presenta il carattere di un progenitore; 1/4 quello dell'altro, e la restante metà è costituita da ibridi. Secondo questo principio le caratteristiche ereditarie sono determinate dai fattori discreti (ora denominati geni) che si presentano accoppiati, ognuno dei quali è ereditato da ogni genitore. Questo concetto delle caratteristiche indipendenti spiega come un carattere può persistere di generazione in generazione senza mescolarsi con altri caratteri. Spiega, anche, come un carattere (recessivo) può apparentemente sparire in una generazione (F1) e riapparire nella generazione successiva F2. Quando i due geni di una coppia sono uguali l'organismo viene detto omozigote per quel particolare carattere; nel caso siano diversi l'organismo viene detto eterozigote per quel particolare carattere. Ogni cromosoma è costituito da due gameti, ed ogni gamete possiede solo uno dei due possibili alleli per ogni carattere. Quando due gameti si combinano, gli alleli sono presenti nello zigote nuovamente in coppie. Un allele può essere dominante rispetto a un altro allele; in tal caso l'organismo mostrerà nel suo aspetto esterno (fenotipo) il carattere proprio dell'allele dominante, anche se nel suo corredo genetico, o genotipo, ciascuno dei due alleli continua a esistere indipendente e distinto, sebbene non sia visibile. L'allele recessivo si separerà poi dal compagno dominante durante la formazione dei gameti, nel processo meiotico (divisione cellulare che avviene nelle cellule germinali e porta a un dimezzamento del numero dei cromosomi per cellula figlia. Dall'unione di due cellule germinali nel processo di fecondazione si ottiene un'unica cellula, lo zigote, dal quale si sviluppa il nuovo organismo attraverso i successivi processi di divisione cellulare detti mitosi).

La terza legge di Mendel o Principio dell'assortimento indipendente, dice che ogni carattere è ereditato indipendentemente dagli altri e descrive così la possibilità che si possano presentare nuove combinazioni di geni. Cioè, se si incrociano due individui differenti per più caratteri, si può osservare che ciascun carattere compare nei figli indipendentemente dagli altri e variamente associato. Negli esperimenti di Mendel queste furono le combinazioni analizzate: i caratteri giallo e liscio dominanti e quelli verde e rugoso recessivi. Perciò mentre nella prima generazione (F1) si hanno tutti individui con i caratteri dominanti, nella seconda generazione (F2) compaiono individui con caratteri variamente associati: i genotipi della generazione F2 sono in rapporto 9:3:3:1 (cioè, 9/16 di piselli gialli e lisci; 3/16 di piselli gialli e rugosi; 3/16 di piselli verdi e lisci; 1/16 di piselli verdi e rugosi). Questa legge è valida per geni di cromosomi differenti mentre è solo in parte confermata per geni di uno stesso cromosoma.

Ecco ora in sintesi alcune delle altre principali tappe della biologia moderna prima e dopo Mendel.

Nel 1838 Matthias Jakob Schleiden e Theodor Schwann scoprono che la cellula è l'unità fondamentale della vita. Nel 1859 Charles Darwin pubblica L'origine delle specie. Nel 1910 T.H. Morgan dimostra che i geni sono organizzati lungo i cromosomi. Nel 1942 i ricercatori Avery, McCloud e McCarty scoprono la composizione chimica del materiale genetico, cioè che i geni sono fatti di DNA, un prodotto chimico trovato nel nucleo delle cellule. Nel 1953, James Watson e Francis Crick elaborano la struttura a doppia elica del DNA. Nel 1958-60 François Jacob e Jacques Monod dimostrano l'esistenza di sequenze regolatrici che modulano l'espressione dei geni ed ipotizzano l'esistenza di un RNA messaggero, una copia parziale del DNA che porta informazioni genetiche alle altre parti della cellula, permettendo la traduzione dal linguaggio degli acidi nucleici a quello delle proteine. Nel 1966 Marshall Nirenberg e Har Gobind Khorana decifrano il linguaggio del codice genetico: la lettura del DNA avviene a gruppi di tre basi (triplette). Nel 1972-73 Paul Berg, Stanley Cohen ed Herbert Boyer inventano l'ingegneria genetica costruendo la prima molecola di DNA ricombinante e passando un gene da un batterio a un'altro. Nel 1990 parte il progetto genoma umano. All'inizio del nuovo millennio l'annuncio sensazionale: il sequenziamento del genoma umano, cioè l'allineamento nelle 23 paia di cromosomi dei circa 3,1 miliardi di basi che definiscono l'organismo dell'uomo, preceduto dalla decodificazione delle 120 milioni di basi del genoma che codifica per i 13 600 geni della piccola mosca della frutta, Drosophila melanogaster e di quella del genoma del piccolo verme Caenorhabditis elegans, costituito da 97 milioni di basi che contengono l'informazione per 19 000 geni.

Anche queste recenti grandi conquiste partono dunque dalle scoperte di Mendel.

Si consiglia la consultazione dei seguenti siti:
http://www.mendelweb.org/
http://www.ips.it/scuola/concorso/genetica/page2.html