• Seguici su Twitter

  • PNSD

  • DesignDidattico Partner

    Logo Lim
  • Categorie articoli

  • Blog Stats

    • 1.092.469 hits
  • Pagine

Ottima Rivista di Scienza per la Scuola

OggiScienza

http://oggiscienza.wordpress.com

è un magazine dedicato alla ricerca scientifica italiana e internazionale fotografata giorno per giorno nel suo divenire. Attraverso news, interviste, articoli OggiScienza presenta la ricerca scientifica contemporanea, nei suoi aspetti più di punta. Per far capire cos’è il mestiere di scienziato e come si produce il sapere scientifico, OggiScienza dà spazio alle migliaia di ricercatori che lavorano nei laboratori e nelle istituzioni di tutto il mondo e che sono i veri protagonisti della ricerca.

Naturalmente in un ambiente che permette il dialogo e il confronto.

Direttore responsabile: Federica Sgorbissa

Per contattare la redazione:

redazione@medialab.sissa.it

tel +39-040 3787639

OggiScienza è pubblicato da Sissa Medialab (numero di Registro Operatori della Comunicazione: 20854) con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   Creative Commons License

Iscritto al numero 1209 del registro della stampa del Tribunale di Trieste.

Sissa Medialab è una società della Scuola Internazionale Superiore di Studi Avanzati di Trieste. Fa comunicazione della scienza con media diversi e verso pubblici diversi, avvalendosi di una rete di centinaia di scienziati, in Italia e all’estero. Si rivolge sia al grande pubblico, dai bambini piccoli agli adulti, sia alla comunità scientifica.

 

logo_sissa_medialab4

Via Bonomea 265
34136 Trieste – Italia
tel +39-040 3787620
fax +39-040 3787640
info@medialab.sissa.it
Codice Fiscale e Partita IVA IT01097780322

Curricolo verticale: alla ricerca della continuità. Il caso delle scienze

di Mario FierliMario Fierli
Membro del Gruppo di Lavoro per il riordino degli Istituti Tecnici e Professionali e del Gruppo di Lavoro per lo Sviluppo della Cultura Scientifica e Tecnologica.

Curricolo verticale: alla ricerca della continuità. Il caso delle scienze

Un curricolo verticale esteso su più cicli scolastici, che è oggetto di ricerche e iniziative in molte scuole, incontra forti ostacoli strutturali. Nell’ambito delle scienze si trovano interessanti esempi soprattutto negli Istituti Comprensivi. Sarebbero necessari quadri di riferimento, come una nuova generazione di indicazioni curricolari nazionali. Gli Standard per le scienze, creati dalle maggiori istituzioni e associazioni scientifiche americane, danno utili esempi di metodo e di struttura curricolare.

All’inizio di ogni ciclo scolastico un gruppo eterogeneo di studenti è riunito in una nuova classe e, talvolta in modo empirico e talvolta con indagini sistematiche, si fanno i conti con quello questi studenti sanno e non sanno. A questo punto scatta puntualmente la lamentazione sulle gravi “lacune” lasciate dal ciclo precedente. È un passaggio forse un po’ rituale, ma anche la manifestazione indiscutibile di un vero problema: la discontinuità curricolare fra i diversi cicli e anche all’interno di uno stesso ciclo, per esempio fra biennio e triennio della secondaria superiore. Questa, com’è noto, è una delle cause dell’insuccesso e della dispersione scolastica.

Si moltiplicano i tentativi per superare o almeno attenuare questa discontinuità. Alcuni sono semplicemente iniziative rivolte a creare un’interfaccia fra scuole vicine di diverso livello, basata su scambio d’informazioni e lavoro comune, fino alla creazione di strumenti di lavoro condivisi. Altre, ancora rare, si spingono fino alla progettazione di curricoli verticali, che cercano di tracciare percorsi continui e progressivi attraverso più cicli. Gli Istituti Comprensivi, in cui convivono più livelli scolastici, offrono ovviamente la migliore opportunità per questa ricerca.

È quello che hanno fatto, per esempio, gli insegnanti di scienze nell’Istituto Comprensivo di Barberino di Mugello, nel quale convivono tre livelli: Scuola dell’infanzia, Primaria e Secondaria di primo grado.
Anzitutto è stato creato un “Laboratorio di ricerca di scienze”, cioè uno strumento organizzativo stabile.
Qui gli insegnanti hanno stabilito gli obiettivi del lavoro, che vale la pena di citare perché descrivono molto bene le scelte necessarie per ogni operazione di questo tipo:
– scegliere i contenuti disciplinari su cui lavorare, individuando alcuni elementi indicativi della disciplina adatti alla maturazione psicologica degli studenti. La selezione dei contenuti si realizza, da un lato, tenendo conto delle conoscenze possedute dagli studenti che, anche se preconcette, non possono essere trascurate e, dall’altro, attuando anche scelte drastiche sugli argomenti da affrontare e su quelli da scartare;
– progettare percorsi didattici che tengano conto delle potenzialità cognitive e motivazionali degli alunni nelle diverse età e che… chiariscano cosa insegnare e come insegnare…;
– sperimentare i percorsi didattici progettati nelle diverse classi…; – riflettere sugli esiti della sperimentazione, cioè presentare il lavoro svolto ai colleghi del laboratorio, … discutere e ricercare le modifiche necessarie…;
– creare ambienti di apprendimento efficaci…

Percorsi curricolari dalla scuola dell’infanzia alla scuola media, materiali, approfondimenti concettuali sono gli esiti di questo lavoro ben documentati sul sito della scuola.

L’esempio di Barberino di Mugello chiarisce molto bene una della condizioni necessarie per arrivare a un curricolo verticale: un lavoro continuo e ben organizzato basato su strutture (laboratori di ricerca, dipartimenti) e risorse adeguate.

Nell’ambito delle scienze sperimentali e della matematica l’organizzazione migliore, per un curricolo verticale, è quella a spirale: i temi fondamentali vengono riproposti sempre tutti ogni anno, ma con una ridefinizione dei livelli di approfondimento concettuale e della difficoltà dei compiti che tiene conto della maturità degli studenti.

È questo il modello degli standard curricolari elaborati e proposti alle scuole da comitati molto autorevoli, istituiti dalle maggiori associazioni o istituzioni scientifiche di alcuni paesi. Gli esempi più cospicui sono quelli degli Stati Uniti. Il primo è quello dell’American Association for the Advancement of Sciences (“Science for all Americans” – 1990). Il secondo quello della National Academy of Sciences (“National Science Education Standards” – 1996, “A framework for K12 Science Education Standards” – 2012).
Si tratta di costruzioni molto organiche e dettagliate che propongono un modello concettuale generale e una progressione di contenuti, competenze, metodi, strumenti, estesa dalla scuola dell’infanzia a tutti i dodici anni dei tre cicli (Elementare, media, high school). Gli standard sono articolati in quattro livelli corrispondenti ai gradi scolastici 2,5,8,12 [1].

Questi standard offrono, di fatto, curricoli verticali e sono uno strumento di guida importante per le scuole, che possono liberamente adottarli. Nel nostro sistema di curricoli nazionali ufficiali, la stessa funzione dovrebbero averla le indicazioni associate a tutte le riforme o i riordini.
A questo si oppongono due difficoltà: la prima è che i vari cicli sono strutturalmente molto diversi (varietà e livello d’integrazione delle discipline, composizione del gruppo docente ecc.) e che in particolare la secondaria superiore è organizzata su molti canali; la seconda è che le indicazioni sono legate alle riforme che avvengono in tempi diversi per i diversi cicli, con una evoluzione “a zone” e un inseguimento che non può convergere a un modello generale. Si potrebbe tentare di elaborare, per le scienze e per altre discipline, una nuova generazione di indicazioni/standard unitari e indipendenti dalla normativa specifica dei singoli livelli, almeno fino all’obbligo scolastico.

Un interessante tentativo è quello della Provincia Autonoma di Trento, che, nel varare il regolamento per la scuola di base (elementare e media) ha proposto Linee Guida curricolari unitarie e verticali per tutti gli otto anni, articolate in quattro bienni successivi, il terzo dei quali è a cavallo fra scuola elementare e media (http://www.vivoscuola.it/piani-di-studio-primo-ciclo).

Note:
[1] Di questi standard si è tenuto conto nel progetto “Il Cannocchiale di Galileo” organizzato dall’Indire nell’ambito delle azioni di supporto all’attuazione del riordino dei cicli della Secondaria Superiore. In particolare nella formulazione di un Framework per la progettazione curricolare ci si è riferiti a quello della National Academy of Sciences.

http://www.educationduepuntozero.it/curricoli-e-saperi/curricolo-verticale-ricerca-continuita-caso-scienze-4081751730.shtml

I media per le scienze nella scuola secondaria

di Antonello Pesce Luisa Bagnus e Noemi Martini

I media per le scienze nella scuola secondaria

L’articolo descrive in sintesi il percorso effettuato nell’a.s. 2012/2013 nella provincia di Cuneo sull’utilizzo dei media per analizzare alcune caratteristiche chimico-fisiche della materia, nell’ambito del progetto Scuola+ promosso dalla Fondazione C.R.C.

Nell’a.s. 2012/2013 la Fondazione C.R.C. ha promosso il progetto Scuola+, rivolto agli insegnanti di ogni ordine e grado della provincia di Cuneo, finanziando due interventi di formazione riguardanti l’utilizzo dei media nella didattica e la didattica finalizzata all’acquisizione di competenze.

Per quanto riguarda i media, dopo la fase di formazione effettuata dal Prof. Alberto Parola dell’Università degli Studi di Torino, si sono formati gruppi di lavoro che hanno progettato – anche mediante l’utilizzo di una piattaforma opportunamente predisposta – ed effettuato interventi didattici nelle classi. Un gruppo ha sviluppato la tematica “tecniche di separazione a diversi livelli di scolarità: un percorso verticale nella scuola secondaria”.

Sono state coinvolte due classi prime di scuola secondaria di primo grado dell’I.C. Statale “B. Vanzetti” di Villafalletto, una classe seconda di scuola secondaria di primo grado dell’I.C. “Venasca-Costigliole Saluzzo” di Costigliole Saluzzo e una classe prima di scuola secondaria di secondo grado dell’I.I.S. “G. Vallauri” di Fossano, tutte in provincia di Cuneo.

Sono state individuate conoscenze, abilità e competenze disciplinari e multimediali delle quali favorire l’acquisizione da parte degli allievi.
1. Conoscenze disciplinari e multimediali:
• conoscere i miscugli omogenei ed eterogenei;
• conoscere le tecniche di separazione;
• conoscere i programmi di videoscrittura, di elaborazione di dati (fogli di calcolo), di preparazione di presentazioni e di video e la tecnologia dei blog.

2. Abilità disciplinari e multimediali:
• saper utilizzare le apparecchiature di laboratorio nelle tecniche di separazione;
• saper descrivere l’esperienza effettuata con una relazione;
• saper utilizzare gli strumenti multimediali indicati precedentemente.

3. Competenze disciplinari e multimediali:
• saper scegliere e utilizzare con un percorso ragionato le opportune tecniche di separazione di miscele non note;
• saper scegliere criticamente gli strumenti multimediali adeguati allo scopo da raggiungere.

L’effettuazione del percorso può essere suddivisa in due fasi: alla prima hanno partecipato tutte le classi coinvolte, alla seconda e alla successiva fase di valutazione hanno partecipato le due classi di Villafalletto e la classe di Fossano, che hanno usufruito, durante tutto il percorso didattico, di una L.I.M. presente nell’aula. La classe del “Vallauri” ha utilizzato anche il servizio di posta elettronica dell’Istituto e in particolare l’applicazione Google Drive.

Nella prima fase, effettuata nel primo quadrimestre dell’anno scolastico, a un’introduzione teorica (e pratica per la classe dell’I.T.I.) dell’argomento è seguita una ricerca in rete da parte degli allievi di materiali che sono stati pubblicati sul blog Gruppo scienze secondaria scuola+.
Sono seguite esperienze di laboratorio (mediante peer education) con gruppi misti di allievi delle scuole dei due cicli di istruzione presso il laboratorio dell’I.I.S. “G. Vallauri”, con fotografie e/o riprese video fatte dagli stessi allievi.

Nella seconda fase, effettuata nel secondo quadrimestre dell’anno scolastico, gli allievi hanno prodotto delle relazioni individuali sulle esperienze svolte. Le relazioni migliori, selezionate in precedenza dagli insegnanti, sono state reciprocamente valutate da parte degli allievi dei due diversi cicli e in seguito pubblicate sul blog, insieme a fotografie e video.
La classe del Vallauri ha gestito autonomamente un gruppo su facebook e ha pubblicato, qui e su You Tube, il miglior prodotto finale (video di descrizione del percorso svolto), realizzato dall’allievo Giovanni Mogna.

La valutazione del percorso è stata effettuata dagli insegnanti mediante la correzione delle relazioni e dei prodotti finali.

Per approfondire:
• scheda riassuntiva;
• descrizione del progetto.

 

http://www.educationduepuntozero.it/racconti-ed-esperienze/i-media-le-scienze-scuola-secondaria-4083115581.shtml

Gli oscuri abissi del tempo

Fabio Cioffi

Alla metà del Seicento gli esseri umani sono convinti di avere alle spalle non più di 6000 anni di storia; cent’anni dopo diventano consapevoli di un passato di milioni di anni. Per la prima volta l’umanità comprende, con sgomento, di vivere in un presente dietro al quale si estende l’oscuro abisso di un tempo quasi infinito. Per la prima volta si scopre la dimensione più sfuggente e misteriosa della vita.

La scoperta dei fossili

Il caso più sensazionale, nella scoperta del tempo, è quello dei fossili. essi inducono a pensare a questa dimensione da due diverse prospettive: quella della storia della Terra, visto che si trovano fossili di esseri marini in località montane, e quella della storia delle specie, poiché si trovano fossili che non assomigliano ad alcuna specie esistente.
i lapides icthyomorphi, pietre a forma di pesce, sono solo pietre con una strana morfologia oppure sono pesci pietrificati? Robert Hooke (1635-1703), discepolo di Francesco Bacone, afferma che la vita sulla Terra ha una storia. Una serie di cause fisiche – terremoti, inondazioni, eruzioni – ha modificato il pianeta. Le sostanze fluide, di cui era originariamente composto, si sono poco alla volta cristallizzate, dando origine ai fossili. Come spiegare, però, i fossili che non rinviano ad alcuna specie nota? Hooke abbandona l’idea fissista di specie immutabili e formula l’ipotesi della scomparsa di specie viventi, senza tuttavia rinunciare ai tempi brevi (6000 anni) della Bibbia: i mutamenti quindi non possono essere stati graduali, ma catastrofici.

Vivere tra le rovine

Il catastrofismo trova la sua espressione compiuta nella visione “tragica” della Terra dell’inglese Thomas Burnet (1635-1715). i protagonisti qui sono i grandi sconvolgimenti di cui parla la
Bibbia, dal diluvio universale alla conflagrazione finale di tutte le cose. La Luna e la Terra, scrive Burnet, sono «le pitture di una grande rovina, hanno l’aspetto di un mondo che giace nelle sue macerie». Quest’idea della corruzione del mondo era però in contrasto con la visione ottimistica del cosmo, opera di un divino architetto, propria del newtonianesimo. Così il newtoniano John Woodward (1665-1728), collezionista di fossili e professore di fisica, rifiuta la teoria di Burnet, qualificandola come «immaginaria e romanzesca». Per Woodward, il diluvio universale è sì, come vuole la Scrittura, una vera e propria dissoluzione della materia, di cui i fossili sono testimonianza, ma da questa dissoluzione, secondo un fine positivo, nacque un nuovo ambiente funzionale alla vita umana.

La storia si espande

Diversa è la posizione di Buffon (1797-1888). egli considera singolari tanto le idee catastrofiste, quanto quelle dei newtoniani: entrambe mescolano infatti «le favole alla fisica». Per Buffon le trasformazioni geologiche sono il graduale risultato di cause naturali costanti nel tempo, come i movimenti dell’alta e della bassa marea e le acque del cielo e dei fiumi. Buffon propone una concezione storica della natura: essa vive nel tempo e possiede una sua specifica evoluzione. Secondo il naturalista, la storia della Terra dura da 75 000 anni e forse addirittura da tre milioni. Sono gli «abissi oscuri del tempo» di cui avrà bisogno l’evoluzionismo per spiegare l’origine delle specie.

La pattumiera della natura

Alla metà del Settecento la disputa sui fossili non è affatto spenta. il più deciso avversario del catastrofismo è Voltaire. egli rifiuta i “romanzi” sulle trasformazioni della Terra. Poiché le rose non nascono sui rami delle querce né le sogliole negli alveari, si deve affermare che il mondo è armonioso e ordinato. «Se esamino le montagne che il Dottor Burnet considera come le rovine di un mondo antico e disperso qua e là senza ordine né disegno, simili alle macerie di una città presa a cannonate, io le vedo invece disposte in un ordine infinito». nel 1746 egli invia una singolare tesi sui fossili all’accademia marsigliana di Bologna: i fossili non sono testimonianza di organismi vissuti in tempi remoti sulla Terra, ma pietre dalla forma strana. Per spiegarne l’esistenza Voltaire propone una teoria fatta apposta per divertire i lettori: la teoria della pattumiera. È molto più naturale, afferma, supporre che pesci e conchiglie siano stati portati sulle montagne dai viaggiatori e, gettati via, si siano pietrificati nel tempo. Quanto a “romanzi”, evidentemente, anche Voltaire non scherzava. Ma la storia dei fossili, come ben sanno i geologi, era appena cominciata.

Per approfondire

  • D. Cadbury, Cacciatori di dinosauri. L’acerrima rivalità scientifica che portò alla scoperta del mondo preistorico, Sironi editore, Milano 2004.
  • P. Rossi, I segni del tempo. Storia del tempo e storia delle nazioni da Hooke a Vico, Feltrinelli, Milano 2003.

Download

L’autore

Fabio Cioffi è insegnante di filosofia nei licei e lavora come consulente editoriale e come formatore. È autore di numerosi manuali scolastici.

 

http://magazine.linxedizioni.it/2012/01/17/gli-oscuri-abissi-del-tempo/

Studiare la Geobiologia

La geobiologia è una disciplina scientifica che studia le interazioni tra la Terra e i viventi nel tempo. È un esempio perfetto di integrazione tra i diversi ambiti scientifici tra cui la geologia, la biologia, la chimica, la geochimica, la peleontologia e persino la genetica e la genomica.

Il termine geobiologia fu coniato nel 1934 dal botanico e microbiologo olandese Lourens Baas-Becking per descrivere le interazioni tra gli organismi e l’ambiente a livello chimico.

Il pensiero geobiologico ho preso definitivamente corpo negli anni ‘70 del novecento a seguito della formulazione della Ipotesi Gaia da parte dello scienziato inglese James Lovelock (1979). Lovelock sosteneva che i viventi, l’aria, l’acqua e le rocce interagiscono in modi complessi all’interno di un Sistema Terra e che gli organismi regolano il Sistema Terra a proprio beneficio:

“… the physical and chemical condition of the surface of the Earth, of the atmosphere, and of the oceans has been and is actively made fit and comfortable by the presence of life itself. This is in contrast to the conventional wisdom which held that life adapted to the planetary conditions as it and they evolved their separate ways.

Lovelock, Gaia: A New Look at Life on Earth.

 

Se l’idea di un pianeta che mantiene le sue caratteristiche chimico-fisiche in condizioni idonee alla presenza della vita grazie al comportamento degli organismi viventi stessi, talvolta chiamata “strong Gaia”, ha trovato poco favore sia tra i biologi che i geologi, la maggior parte della comunità scientifica accetta il punto di vista più generale, ossia che gli ambienti superficiali della Terra non possono essere compresi senza il contributo delle scienze della vita.

Negli ultimi anni, l’interesse per la geobiologia è andato aumentando anche grazie alle ricerche sul controllo microbico dei cicli degli elementi (elemental cycling), sulla diversità ecologica delle forme di vita microscopiche anche nelle condizioni ambientali più estreme (estremofili), sull’utilizzo di microrganismi per contrastare l’inquinamento (biorisanamento) o sul recupero di metalli preziosi dagli scarti delle miniere (biorecovery),

La geobiologia si basa, quindi, sull’osservazione che i processi biologici interagiscono con i processi fisici sulla o in prossimità della superficie terrestre. Prendiamo ad esempio il carbonio, l’elemento chimico della vita. Nella biosfera (l’insieme di tutti gli ambienti che supportano la vita sulla Terra) il carbonio esiste in un certo numero di forme e in parecchi serbatoi chiave. È presente come CO2 nell’atmosfera, come CO2, HCO3 e CO32- disciolto nelle acque dolci e salate, nei minerali carbonatici nel suolo, nei sedimenti e nelle rocce e nella grande varietà di molecole organiche negli organismi, nei sedimenti e nel suolo e disciolto in laghi e oceani. I processi fisici spostano il carbonio da un serbatoio ad un altro. Per esempio, i vulcani aggiungono CO2 all’atmosfera e l’alterazione chimica superficiale la rimuove. I processi biologici fanno lo stesso. Ad esempio, la fotosintesi riduce la CO2 a glucosio e la respirazione ossida le molecole organiche a CO2. A partire dalla rivoluzione industriale, l’uomo ha ossidato materia sedimentaria organica (bruciando combustibili fossili) a velocità sempre maggiori rispetto a quelle delle epoche precedenti, prendendo parte attivamente, quindi, al ciclo del carbonio della Terra.

Anche altri elementi biologicamente importanti vanno in ciclo attraverso la biosfera. Lo zolfo, l’azoto e il ferro, ad esempio, collegano la Terra fisica e biologica interagendo tra loro e con il ciclo del carbonio.

L’ossigeno, elemento chiave per gli ambienti che supportano i grandi animali, uomo incluso, è regolato da un complesso, e ancora non totalmente compreso, insieme di processi che hanno componenti sia biologiche che fisiche.

La vita, però, evolve e così la serie di processi in gioco nella biosfera è cambiata nel tempo e modificando così anche le condizioni dell’ambiente che supporta le comunità biologiche. Data la relazione stretta tra l’ambiente e la distribuzione della popolazione sulla Terra odierna, è ragionevole ipotizzare che la vita in evoluzione abbia influenzato in modo significativo l’ambiente chimico nel tempo e, allo stesso tempo, il cambiamento ambientale ha influenzato, a sua volta, il corso dell’evoluzione.

Ad esempio, molti organismi precipitano minerali, sia indirettamente alterando ambienti chimici locali, sia direttamente attraverso la costruzione di scheletri mineralizzati. Oggi, la deposizione di carbonati e silice sui fondali marini è dovuta essenzialmente agli scheletri, ma non era così prima dell’evoluzione di conchiglie, spicole e gusci.

Mentre la maggior parte delle geobiologia si concentra sui processi chimici, non bisogna dimenticare però che gli organismi influenzano la Terra anche attraverso attività di tipo fisico: basti pensare alle comunità microbiche che possono stabilizzare letti di sabbia o vermi che fertilizzano i sedimenti mentre si scavano tane. Anche le piante e gli animali agiscono come agenti geobiologici e lo fanno da più di 500 milioni di anni.

In sintesi, se un tempo i processi superficiali terrestri che si verificano in natura erano considerati prevalentemente di tipo fisico, per esempio l’alterazione superficiale e l’erosione, ora sappiamo che ci sono anche componenti chiave biologici: i viventi hanno un ruolo critico nel Sistema Terra. I geobiologi, quindi, studiano in che modo i processi biologici e fisici hanno interagito nel corso della storia del nostro pianeta. La maggior parte delle ricerche si concentra sul modo in cui gli organismi partecipano al sistema Terra e su quali conseguenze hanno queste attività per l’ambiente a livello locale e globale.

La geobiologia è già entrata a tutti gli effetti anche a scuola. Negli Stati Uniti, ad esempio, la primavera scorsa sono stati pubblicati i nuovi standard educativi (NGSS) e tra le idee chiave di questi standard c’è la disciplinary core idea ESS2E che riguarda proprio labiogeologia:

L’evoluzione è modellata da cambiamenti nelle condizioni geologiche della Terra. Improvvisi cambiamenti in  tali condizioni (per esempio impatti meteoritici o grandi eruzioni vulcaniche) hanno causato estinzioni di massa, ma questi cambiamenti, come anche quelli più graduali, hanno fondamentalmente permesso ad altre forme di vita di prosperare.

L’evoluzione e la proliferazione degli organismi viventi nel tempo geologico ha a sua volta modificato la velocità di alterazione superficiale e l’erosione della superficie terrestre, alterato la composizione del suolo e dell’atmosfera e influenzato la distribuzione dell’acqua nell’idrosfera.

 

 

Le scienze integrate sono già nelle nostre indicazioni ministeriali. Dalla geobiologia possiamo quindi attingere una grande quantità di esempi su cui costruire percorsi veramente significativi.

Se volete saperne di più vi consiglio di visitare il sito del MITOPENCOURSEWAREdedicato proprio alla geobiologia dove si possono scaricare gratuitamente i materiali didattici del corso.

Altre letture:

Scienze: L’archivio delle lezioni attive

Si moltiplicano gli archivi di risorse didattiche, un vero deposito di esperienza professionale dei docenti da condividere con i colleghi. Tra questi c’è ICLEEN, per risorse di scienze della Terra: un modello unico e di successo.

di Matteo Cattadori

Quante volte vi sarà capitato di leggere che gli insegnanti italiani sono quelli con l’età media più elevata al mondo? Sicuramente spesso. Quante volte con tono positivo? Mai. Le indagini OCSE mostrano che 56 insegnanti italiani su 100 (delle scuole secondarie di primo e secondo grado) hanno un’età superiore ai 50 anni: una percentuale ben distante dalla media mondiale, che è di poco più di 34 insegnanti su 100 [1]. Spiace però constatare che di rado ci si preoccupa di esporre gli aspetti positivi di questo dato, primo tra tutti la sua logica conseguenza e cioè che in termini di esperienza professionale, quelli italiani sono molto probabilmente tra i docenti migliori. Vantano infatti un’esperienza costruita giorno dopo giorno e fatta di lezioni, attività didattiche, progetti, collaborazioni spesso artigianali e realizzate tra mille difficoltà. Una parte, seppur piccola, dell’esperienza accumulata si trova sotto forme che possono essere trasferite da un insegnante all’altro. o almeno ci si può provare. Questo è lo scopo dei cosiddetti gateway (“archivi”) di risorse didattiche, che hanno messo a punto sistemi per selezionarle, raccoglierle, classificarle e cercarle in siti web aperti alla consultazione di tutti gli insegnanti.

Banche di esperienza

Museo delle Scienze di TrentoLe statistiche disponibili indicano che l’insegnante, anche quello italiano, usa con frequenza sempre maggiore questi archivi come supporto alla realizzazione delle proprie lezioni [2].
Realizzare un gateway di risorse didattiche richiede uno sforzo considerevole, compiuto di solito da agenzie o enti nazionali dedicati a sostenere il mondo dell’istruzione del proprio paese. alcuni esempi sono l’italiana innovascuola (www.innovascuola.gov.it) dell’ansas (ex indire), oppure l’americana Digital Library for Earth System Education (www.dlese.org), specializzata nel settore scienze della Terra. altri progetti simili, spesso sovranazionali, hanno invece lo scopo di raggruppare più archivi a formare un unico network di progetti. È il caso dei progetti europeiLearning Resource Exchange e SCIENTIX, tutto centrato su risorse per la didattica delle scienze.
Nel 2008 il Museo delle Scienze di Trento (ex Museo tridentino di scienze naturali) ha avviato un progetto per la realizzazione di un archivio web di risorse didattiche di questo tipo nell’ambito di scienze del sistema Terra. il servizio, ICLEEN, è online dal gennaio 2010 e ospita al momento (dicembre 2011) un centinaio di risorse eccellenti, originali e non, per i professionisti che quotidianamente si cimentano con la spiegazione di argomenti di scienze della Terra tra cui, in particolare, quelli in ambito “clima ed energia”. Si trovano così giochi di ruolo sui cambiamenti climatici, attività sull’acidificazione degli oceani, marchingegni per ricreare terremoti, simulatori astronomici, file di google earth con cui studiare le stagioni e altro ancora.

La redazione al lavoro

ICLEEN ha almeno tre caratteristiche di novità rispetto ai progetti menzionati: cerca di elevare al massimo la collaborazione sia insegnante-insegnante sia insegnante-ricercatore; si concentra su un ambito disciplinare specifico e su una didattica particolare, quella attiva; impiega strumenti e metodi tecnologici inediti.
il suo archivio è stato realizzato da un team di cinque insegnanti di varie parti
d’italia, con ultra decennale esperienza di insegnamento delle scienze del sistema Terra. La redazione non ha soltanto progettato e realizzato il servizio e i suoi strumenti, ma si occupa tuttora della selezione, produzione, revisione e pubblicazione delle risorse, che sono in parte originali, cioè prodotte dalla redazione stessa, e in parte tradotte da altri archivi. Tra le fonti utilizzate figurano enti di riferimento come l’associazione nazionale degli insegnanti di scienze americana (www.nsta.org) o progetti come Earth Learning Idea [3] o esperienze innovative di didattica come quelle di playDECIDE. inoltre, la redazione adatta e pubblica anche attività svolte e proposte da qualsiasi altro insegnante, attivandosi per facilitare questo scambio: per esempio, riconosce un premio in denaro ai docenti che propongano una propria attività didattica.

Collaborazione a 360°

La redazione è affiancata dagli operatori dei servizi educativi del museo stesso, che svolgono ogni anno attività e laboratori frequentati da oltre 50 000 studenti e 250 insegnanti.
il processo di revisione scientifica delle risorse è realizzato con il sostegno dei ricercatori del museo e il supporto di enti locali, quali il Laboratorio di comunicazione delle scienze fisiche dell’Università di Trento, e nazionali, come l’istituto nazionale di geofisica e vulcanologia (Ingv). L’Ansas, infine, ha fornito consulenza tecnica per la realizzazione del sistema di organizzazione dei metadati, cioè le informazioni descrittive di ogni risorsa. Sia il processo di realizzazione del portale sia le procedure che lo sostengono (ricerca, valutazione, selezione, catalogazione, pubblicazione delle risorse) hanno seguito e seguono le indicazioni internazionali esistenti e in particolare quelle del progetto DESIRE, che ha elaborato un manuale per la progettazione e realizzazione di gateway informatici. Con questa idea di collaborazione in mente, la scelta del tipo di licenza con cui rilasciare i materiali pubblicati è stata quasi obbligata. Si è optato per la licenza Attribution 3.0 di tipo Creative Commons, che permette il riutilizzo delle risorse da parte dell’utente a condizione di citarne la fonte. grazie a ciò le risorse ICLEEN sono riconosciute come open educational Resources, il modello di risorse didattiche suggerito dall’UNESCO [4] e adottato dal Massachusetts institute of Technology di Boston, che pubblica sul web, con fruizione libera e gratuita, il 93% dei suoi corsi universitari (http://ocw.mit.edu).

Una didattica attiva

Ormai dovrebbe essere chiaro a tutti, e a chi legge “Linx Magazine” ancora di più. nel 2011, fare una lezione di scienze e soprattutto di scienze della Terra, significa farla di tipo attivo, cioè centrata sullo studente e tale da spingerlo a esprimere forme di partecipazione. non siamo noi di ICLEEN a dirlo, ma una lunga serie di report e indagini sul lavoro dell’insegnante: la cara, vecchia lezione frontale trasmissiva mostra sempre più la necessità di essere se non proprio abolita almeno integrata con altri tipi di lezioni.
i metodi attivi di insegnamento, però, hanno un limite: richiedono per la preparazione molto più tempo di quello necessario per una lezione tradizionale. Sorge quindi il problema del sostegno e del supporto professionale a questa attività preparatoria degli insegnanti, che condiziona direttamente il tipo di lezione
usato in classe. Tenendo presente queste esigenze, la redazione di ICLEEN cerca di scegliere le risorse didattiche per l’archivio pensando a una situazione- limite: quella di un insegnante che, alla domenica sera, capiti nell’archivio alla ricerca di una risorsa da utilizzare la mattina successiva per una lezione attiva di scienze della Terra. Quali argomenti cercherà con maggiori probabilità? Per quali tipi di lezione? in che modo occorre presentarli perché possa comprenderli e usarli con il minor sforzo possibile? Sempre per lo stesso motivo, si è scelta la forma completa “chiavi in mano”, in cui la risorsa viene spiegata grazie a due schede: una per l’insegnante e una per lo studente.

Un software d’avanguardia

Per chiudere, un’informazione più tecnica sul sito. nonostante un aspetto piuttosto semplice, il sito è gestito da un software molto sofisticato e openSource che si chiama LifeRay, previa implementazione specifica da parte di una ditta trentina, e permette alla redazione di lavorare interamente online. Di norma, con LifeRay vengono realizzati siti web di aziende di grandi dimensione e prima di ICLEEN non era mai stato impiegato per servizi didattici. Quando nel marzo 2010 è stato inaugurato anche il sito di SCIENTIX abbiamo scoperto, non senza sorpresa, che anch’esso adottava tale software. Una conferma della qualità delle scelte fatte, ma anche l’inizio di una collaborazione: attualmente i due archivi contengono segnalazioni incrociate di parecchie risorse.

Funziona!

A quasi due anni dall’avvio del sito, possiamo dirci soddisfatti di ICLEEN: i dati di accesso sono buoni, come pure quelli dei download di schede, che in certi periodi dell’anno arrivano alla cifra di 3000 schede scaricate al mese. il progetto è stato sottoposto a due processi di valutazione sperimentali, in collaborazione con l’Università di Trento. il coinvolgimento di gruppi di insegnanti- utenti ha permesso di stimare sia l’efficacia del servizio che l’usabilità dell’interfaccia grafica e sulla base dei risultati emersi è stata progettata la versione grafica attualmente online. ICLEEN, inoltre, ha vinto il premio eLearning award 2010 di european Schoolnet ed è segnalato come best practice in alcuni progetti internazionali (Open Educational Quality Initiative). L’insieme di questi elementi indica che il servizio, seppur piccolo, e il modello di archivio proposto sono riusciti a conseguire gli obiettivi fissati, ed è anche la conferma di due fatti non banali. Primo: il modo di insegnare scienze a scuola sta subendo una lenta ma profonda trasformazione. Secondo: enti culturali attenti al mondo della scuola possono giocare un ruolo chiave di supporto a tale cambiamento, con azioni specifiche innovative centrate sulle capacità degli insegnanti.

Risorse

1. Education at a glance 2010, OECD indicators, Centre for Educational Research and Innovation, OECD Publishing, Paris.
2. A. Cavalli e G. Argentin (a cura di), Gli insegnanti italiani: come cambia il modo di fare scuola. Terza indagine dell’Istituto IARD sulle condizioni di vita e di lavoro nella scuola italiana, il Mulino, Bologna 2010.
3. R. greco, Idee per insegnare le scienze della Terra, in “Linx Magazine”, 2009, vol. 2 pp. 30-35
4. www.unesco.org/new/en/ communication-and-information/access-to-knowledge/ open-educational-resources

Download

ICLEEN: la squadra

Il team redazione del progetto è̀ composto da cinque insegnanti: Matteo Cattadori (che è̀ anche coordinatore); Cristiana Bianchi, operatrice del centro per la formazione permanente degli insegnanti di Rovereto; Paola Lionello, insegnante di scuola media a Dro (Tn); Barbara Scapellato (autrice del blog L’ingrediente segreto); Maddalena Macario (anche consulente di case editrici scolastiche). La direzione è affidata al direttore del museo Michele Lanzinger.

L’autore

Matteo Cattadori laureato in scienze naturali a Parma, ha conseguito un master in ict a Bologna, è stato insegnante “militante” dal 1990 al 2006, anno in cui ha partecipato al programma educational di una ricerca scientifica internazionale antartica (www.andrill.org). Da alcuni anni lavora al Museo delle scienze di Trento, occupandosi di servizi e progetti web (e non) per docenti (www.ortles.orgwww.mna.it/spes).

Al lavoro con sole, acqua, elettroni e catalizzatori: James Barber racconta

Tra combustibili fossili e nucleare si apre una terza via per provare a risolvere la questione energetica: copiare la fotosintesi, per produrre carburanti sfruttando la più grande fonte di energia che c’è: il Sole.

Il professor James Barber

Il professor James Barber nel BioSolarLab del politecnico di Torino (sede di Alessandria).

Mischiare acqua e CO2 (biossido di carbonio), esporre alla luce del Sole e raccogliere il risultato della reazione: zuccheri, cioè biomassa. Lo fanno da alcune centinaia di milioni di anni alghe e piante (e da due miliardi e mezzo di anni alcuni batteri) grazie alla fotosintesi, processo straordinario che permette di trasformare l’energia solare in energia chimica, producendo ossigeno (O2) come unico scarto.

Se imparassimo a farlo anche noi, avremmo risolto una volta per tutte la questione energetica mondiale: basti pensare che, grosso modo, ogni ora cade sulla Terra una quantità di energia solare pari a quella consumata nel mondo in un anno. Così, sempre più scienziati e centri di ricerca puntano sul Sole e sulle piante, con l’obiettivo preciso di copiare la fotosintesi e ottenere non biomassa ma idrogeno (un vettore energetico) oppure carburanti da materie prime e fonti energetiche abbondanti, economiche e disponibili.

«Se può farlo una foglia, possiamo farlo anche noi: non è magia, è chimica» dice James Barber, biochimico dell’Imperial College di Londra, grande esperto di fotosintesi naturale e tra i pionieri della ricerca su quella artificiale. Proprio a lui si deve l’espressione foglia artificiale per indicare un dispositivo capace di produrre idrogeno a partire da acqua e luce. Il problema (per forza ce ne deve essere uno, altrimenti lo faremmo già) è che stiamo parlando di una chimica terribilmente complicata: difficile da comprendere e ancor più da riprodurre, benché in forma semplificata. «A questo punto, però, credo proprio che non abbiamo alternative: dobbiamo continuare a provarci.» Barber è partner di un progetto di ricerca sulla fotosintesi artificiale avviato dal Dipartimento di scienze dei materiali e ingegneria chimica del Politecnico di Torino e attivo sia a Torino sia nel nuovo Biosolar Lab, inaugurato un paio di anni fa nella sede di Alessandria del politecnico stesso. Lo abbiamo incontrato proprio ad Alessandria, per fare il punto su uno dei settori di ricerca più affascinanti del momento.

Professor Barber, perché tutto questo interesse per la fotosintesi?

Perché le opzioni energetiche attuali sono sempre più in crisi. Da decenni ci affidiamo quasi completamente ai combustibili fossili (petrolio, carbone, gas naturale), che altro non sono se non la biomassa prodotta nel corso di centinaia di milioni di anni dal processo di fotosintesi. Questi combustibili, però, si stanno poco a poco esaurendo e per di più sono responsabili dell’aumento della concentrazione di biossido di carbonio in atmosfera, con il conseguente effetto del riscaldamento globale. Abbiamo bisogno di alternative e sicuramente il Sole è la fonte energetica più economica e abbondante che ci sia. Ammesso di saperlo usare, come sanno fare le piante: ecco perché negli ultimi anni c’è stato un boom di ricerca nell’ambito della fotosintesi, sia naturale sia artificiale.

Che cosa significa esattamente “copiare la fotosintesi”?

Per capirlo bisogna fare un passo indietro e vedere come funziona, a grandi linee, il processo naturale. Si comincia con l’assorbimento di luce da parte di pigmenti presenti nelle foglie: sicuramente tutti avranno sentito parlare di clorofilla, il pigmento di colore verde tipico delle piante. L’assorbimento di energia luminosa comporta l’eccitazione di un elettrone della clorofilla, che si ritrova dunque in uno stato ad alta energia, che gli permette di “guidare” una reazione di riduzione: la conversione di un composto a basso contenuto energetico, il biossido di carbonio, in un composto ad alto contenuto energetico (un carboidrato come il glucosio o, in generale, biomassa). In altre parole: l’elettrone eccitato della clorofilla trasferisce energia al CO2 che, combinandosi con protoni, dà origine a una molecola organica.

È chiaro però che prendendo un elettrone eccitato dalla clorofilla, si lascia indietro un “buco positivo” (una lacuna), che deve essere colmato da un altro elettrone, il quale deve pur essere preso da qualche altra parte. Ebbene, questa “altra parte” è la molecola dell’acqua. Se vogliamo essere più precisi, diremo che la fotosintesi si compone di due gruppi di reazioni. Il primo gruppo (la fase luminosa) si occupa della scissione dell’acqua in ossigeno molecolare (O2) e ioni idrogeno (H+): lo fa sfruttando l’energia del Sole e grazie all’attività di un enzima piuttosto complesso chiamato fotosistema II. Il secondo gruppo di reazioni si occupa invece della riduzione di CO2 in un carboidrato, sempre con l’aiuto di catalizzatori specifici. Ebbene, gli scienziati stanno cercando di riprodurre in laboratorio questi due processi.

Può darci qualche dettaglio in più?

Il nodo di tutta la questione è ottenere in laboratorio catalizzatori che permettano di riprodurre i due gruppi di reazione che avvengono nelle foglie. In tutto il mondo, l’attenzione dei ricercatori si concentra in particolare sulla reazione di scissione dell’acqua, che permetterebbe di produrre idrogeno sfruttando soltanto energia luminosa. È proprio a questo processo che in genere si dà il nome di fotosintesi artificiale.

Il primo passo, naturalmente, è cercare di sapere il più possibile sull’attività e la struttura dei catalizzatori naturali: per quanto mi riguarda, con i miei gruppi di ricerca, a Londra e qui ad Alessandria, mi occupo soprattutto del fotosistema ii, un enzima piuttosto complesso, costituito da più di 20 subunità proteiche e da pigmenti fotosintetici. Nel 2004 siamo riusciti a descriverne in dettaglio la struttura molecolare attraverso la tecnica della cristallografia ai raggi X, scoprendo che il suo centro catalitico è costituito da un nucleo di ioni manganese e calcio.

Il secondo passo, invece, è tentare di riprodurre in laboratorio un centro catalitico simile. In generale, direi che le sfide principali al momento sono due: sviluppare catalizzatori che siano capaci di svolgere una reazione molto complessa (teniamo conto che le reazioni della fotosintesi sono multielettroniche, coinvolgono molti elettroni alla volta e questo complica le cose) e che siano anche sufficientemente economici. Fuori da un laboratorio non serve a nulla avere dispositivi che funzionano, ma sono troppo costosi, perché non potranno essere utilizzati su scala industriale.

In effetti già nel 1998 l’americano john Turner era riuscito nell’impresa, sviluppando un dispositivo che produceva ossigeno e idrogeno con un’efficienza altissima, ma anche con costi assolutamente proibitivi. Oggi a che punto siamo?

la cella solare di daniel nocera del MiT di boston

La cella solare di Daniel Nocera del MIT di Boston

Si stanno facendo grandi passi in avanti, lavorando su differenti materiali. A Torino, per esempio, abbiamo sviluppato una “gabbia” di fosfato di alluminio in cui sono inseriti manganese e cobalto. Daniel Nocera del Massachusetts Institute of Technology di Boston, uno dei ricercatori più attivi del settore, ha appena pubblicato su “Science” un articolo in cui descrive un dispositivo che sembra piuttosto efficiente e relativamente economico. È in pratica una cella solare in silicio (un semiconduttore), abbinata a un catalizzatore a base di cobalto e sali di boro: basta immergerla in una vaschetta d’acqua, esporla alla luce del Sole e presto si osserva un flusso di bollicine: ossigeno su un lato della cella, idrogeno sull’altro.

Che cosa ci può dire invece del secondo gruppo di reazioni della fotosintesi, quello in cui si combinano CO2 e idrogeno per dare carboidrati?

Al momento è un settore meno vivace del precedente, anche se non mancano laboratori che ci lavorano. Del resto anche in questo caso l’interesse è enorme: reazioni di questo tipo ci permetterebbero infatti di produrre direttamente carburanti, visto che potremmo “dirottare” la reazione in modo da ottenere metano o metanolo al posto di zuccheri. Per di più, lo faremmo consumando CO2, proprio quella molecola che vorremmo allontanare dall’atmosfera.

Secondo lei riusciremo davvero a copiare la foglia e ad ottenere energia in questo modo?

Non è facile rispondere a questa domanda. Però mi vengono spontanee due considerazioni: la prima è che si stanno ottenendo risultati molto significativi, come quello di Nocera. La seconda è che spesso accadono cose ritenute impensabili fino a poco tempo prima. Solo 15 o 20 anni fa chi avrebbe potuto immaginare gli avanzamenti impressionanti che ci sono stati nel campo della microelettronica o del Web? Chi avrebbe potuto immaginare che oggi avremmo avuto gli smartphone e le televisioni a schermo piatto?

Il fatto che oggi un obiettivo ci sembri molto difficile, se non impossibile, da raggiungere non significa che lo sia davvero. Quarant’anni fa, quando ho cominciato a studiare la fotosintesi durante il mio dottorato in biofisica all’Università di Leiden, si sapeva poco o nulla degli aspetti fisico-chimici del processo naturale: come facevamo a pensare anche solo all’ipotesi di una foglia artificiale? Oggi, invece, grazie a tutti i risultati ottenuti, siamo nelle condizioni di provare a sviluppare nuove tecnologie basate su quei meccanismi.

Ovviamente è anche una questione di investimenti…

Certo! Ma anche in questo senso qualcosa si sta muovendo, specialmente negli Stati Uniti. Il Doe, il Dipartimento dell’energia americano, ha di recente voluto e finanziato (con 122 milioni di dollari per cinque anni) un centro tutto dedicato alla fotosintesi artificiale: il Joint Center for Artificial Photosynthesis, con sede in California. Nato dallo sforzo congiunto del California Institute of Technology e del Lawrence Livermore National Laboratory di Berkeley, riunisce al momento oltre 200 tra scienziati e ingegneri di università e centri di ricerca dello stato, e mi piace ricordare che a capo del Doe c’è il fisico (anzi, premio Nobel per la fisica) Steven Chu, che non ha mai nascosto simpatie per il nucleare.

In europa siamo un po’ più indietro, ma esperienze come quella di Torino ci fanno capire che lentamente si sta provando a cambiare anche qui. La sfida è eccitante anche dal punto di vista dell’impresa scientifica. Per arrivare alla foglia artificiale non basterà il lavoro di pochi, ci vorrà un immenso sforzo di collaborazione di competenze differenti: chimici, ingegneri, fisici e biologi.

Biografia (anomaLa) di uno scienziato
Nel corso della sua carriera James Barber, che al momento è a capo del gruppo di ricerca sulle strutture e i meccanismi della fotosintesi dell’Imperial College di Londra, ha accumulato cariche e posizioni di grande prestigio. Per dieci anni, dal 1989 al 1999, ha diretto il Dipartimento di biochimica dell’Imperial College ed è stato presidente dal 2007 al 2010 dell’International society for Photosynthesis Research (www.photosynthesisresearch.org). Inoltre è membro della Royal Society, l’accademia delle scienze britannica, e della Royal Swedish Academy of sciences, e ha vinto diversi premi internazionali di ricerca. Eppure, il suo percorso scolastico non è stato certo dei più ortodossi. «Sono da sempre appassionato di scienza, soprattutto di biologia e scienze naturali» ha raccontato a “Linx Magazine”. «Da bambino raccoglievo campioni di insetti o di piante e tenevo una sorta di quaderno scientifico, su cui annotavo i nomi di alberi e animali. Mi è sempre piaciuto anche il giardinaggio: credo sia nato lì il mio interesse per la crescita della piante e per la loro nutrizione. La mia famiglia, però, non poteva permettersi di mantenermi agli studi e così a 16 anni ho dovuto lasciare la scuola per cominciare a lavorare.» Tuttavia la passione per lo studio rimane forte e il giovane Barber trova il modo di iscriversi a un corso serale di ingegneria meccanica ed elettrica e di accedere infine all’università. «Ormai l’ingegneria era il mio settore, ma la passione per il mondo naturale mi ha spinto verso ingegneria chimica e alla fine sono riuscito a passare a chimica.» Durante il dottorato in biofisica a Leiden, in Olanda, Barber si imbatte infine, per la prima volta, nello studio delle basi chimico-fisiche della fotosintesi: una passione scientifica che coltiva senza sosta da allora.

Nuove strategie per catturare la luce

Anche se non siamo ancora in grado di convertire l’energia solare in energia chimica come fanno le foglie, abbiamo già imparato a sfruttare almeno in parte l’energia del sole. Come?
naturalmente attraverso le celle solari fotovoltaiche, dispositivi che permettono di convertire l’energia luminosa in energia elettrica. Fondamentale, in questo caso, è la disponibilità di materiali in grado di assorbire in modo efficiente la luce solare e di trasferire le cariche elettriche che si generano durante il processo. Le prestazioni migliori in questo senso sono state ottenute finora attraverso film in silicio, che hanno però un notevole limite: un costo elevatissimo. Per questo, si stanno cercando in tutto il mondo soluzioni alternative.

cella solare fotovoltaica di grätzel.

Cella solare fotovoltaica di Grätzel.

Un esempio di un certo successo è rappresentato dalle celle solari Dsc (dye-sensitized cells) del chimico tedesco Michal Grätzel, premiate nel 2010 con il Millennium Technology Prize, una sorta di nobel per la tecnologia. Al posto del silicio, queste celle utilizzano un pigmento naturale (come la clorofilla oppure coloranti che si possono estrarre dai frutti di bosco) che, eccitato dalla luce, rilascia cariche elettriche raccolte da una superficie in biossido di titanio.

Altri ricercatori, in centri di ricerca pubblici ma anche in compagnie private, stanno lavorando su celle polimeriche organiche oppure sull’utilizzo dei cosiddetti concentratori solari: molecole organiche fluorescenti, come le porfirine, che possono concentrare la luce rendendo l’assorbimento energetico da parte del tradizionale silicio ancora più efficiente.
Il fermento è tale da coinvolgere nella ricerca i più diversi settori della chimica e della fisica, compresa la fisica quantistica. Nel 2007, infatti, il chimico Graham Fleming dell’Università di Berkeley, in california, ha scoperto in alcuni batteri fotosintetici che l’assorbimento delle particelle di energia luminosa, i fotoni, non avviene secondo le leggi classiche della fisica, ma in base a un fenomeno chiamato coerenza quantistica. In pratica, il processo è reso più efficiente dal fatto che ogni singolo fotone in arrivo non viene assorbito da un solo pigmento, ma contemporaneamente da tutti i pigmenti dei centri fotosintetici. Diversi gruppi di ricerca sono al lavoro per cercare di capire quali parametri regolano un sistema coerente di questo tipo; il tutto con l’obiettivo di arrivare a costruire un sistema artificiale che abbia le stesse caratteristiche.

Un virus per la fotosintesi

Se la fotosintesi è un processo così efficiente – al punto da aver reso possibile la vita sulla Terra come la conosciamo oggi – il merito è anche della grande precisione con cui avvengono le reazioni, a sua volta resa possibile da un’ordinatissima disposizione spaziale delle molecole che vi prendono parte, tale da ottimizzare il percorso di elettroni e protoni. Proprio questa particolare disposizione spaziale, però, è una delle caratteristiche più difficili da ottenere nell’ambito di dispositivi di fotosintesi artificiale. Alcuni mesi fa, l’équipe di Angela Belcher del Massachusetts Institute of Technology di Boston ha proposto un sistema decisamente originale per provare a risolvere il problema: un sistema addirittura basato su virus e in particolare su batteriofagi, virus parassiti di batteri. I virus in questione sono stati ingegnerizzati in modo da assemblare e accogliere sulla propria superficie sia molecole di pigmenti in grado di catturare la luce solare sia un ossido metallico (ossido di iridio) che funziona come catalizzatore per la reazione di scissione dell’acqua. In questo modo, pigmenti e catalizzatori si trovano alla giusta distanza gli uni dagli altri e la reazione di scissione dell’acqua mediata dall’energia solare avviene in modo piuttosto efficiente. Il sistema è ancora da ottimizzare (a partire dal fatto che va trovata un’alternativa economica al costosissimo ossido di iridio), ma promette bene.

 

 

 

 

 

Per approfondire

Download

L’autrice

Valentina Murelli è giornalista ed editor scientifica freelance. Collabora con varie case editrici e testate, tra cui “L’Espresso”, “OggiScienza”, “Le Scienze”, “Mente & Cervello” e “Meridiani”.

 

http://magazine.linxedizioni.it/2012/01/17/al-lavoro-con-sole-acqua-elettroni-e-catalizzatori-james-barber-racconta/

 

 

La scienza del meteo

Tempo soleggiato su tutta la penisola, nebbia fitta sulla pianura padana, mari mossi, venti moderati e così via: parole che sentiamo ogni sera in tv. Ma quali aspetti scientifici si celano dietro le previsioni del tempo? e quali sono le prossime sfide per la meteorologia?

di Carlo Cacciamani

Ha collaborato Valentina Murelli

Le drammatiche alluvioni avvenute in autunno alle Cinque terre e a genova hanno riproposto due questioni ampiamente dibattute ogni volta che accadono eventi simili: le previsioni meteorologiche sono in grado di prevedere certi fenomeni? È davvero ottimale l’uso che facciamo delle previsioni disponibili? in questo articolo cercherò di rispondere ai due quesiti, dopo aver presentato gli aspetti scientifici delle previsioni meteo.

Dai proverbi alle leggi fisiche

 

Fino a un secolo fa le previsioni del tempo non si discostavano molto dai modi di dire proverbiali, come “rosso di sera bel tempo si spera” o “cielo a pecorelle, acqua a catinelle”. La loro pratica era quasi del tutto scollegata dal mondo scientifico e basata su regole empiriche. Ci è voluto tempo per riconoscere che il tempo meteorologico in un dato punto della superficie terrestre è “figlio” dello stato dell’atmosfera sopra e nelle vicinanze di quel punto, a sua volta determinato da un insieme di leggi che ne caratterizzano l’evoluzione.

Solo dopo la fine della Prima guerra mondiale, con le invenzioni del telegrafo e della radiosonda che hanno consentito rispettivamente l’inizio della trasmissione dati e l’esplorazione della struttura verticale dell’atmosfera, e infine con lo sviluppo attorno agli anni venti delle prime teorie sulla struttura dei cicloni extratropicali e dei fronti, è maturata sempre più l’idea che l’unico approccio possibile per la realizzazione di moderne previsioni meteo era l’applicazione di principi fisici di base, che peraltro la scienza aveva già da tempo consolidato. Parliamo in particolare delle leggi della meccanica – scoperte da Galileo e da Newton – che regolano il moto dei corpi sotto l’influenza di forze che si esercitano su di essi, e delle leggi della termodinamica, che descrivono lo stato fisico dei gas e dei fluidi.

La nascita delle previsioni numeriche

Agli inizi degli anni trenta, però, il livello tecnologico non era ancora sufficiente per ipotizzare una catena operativa moderna. Solo l’ulteriore sviluppo delle conoscenze teoriche nel campo della dinamica atmosferica e l’avvento dei primi calcolatori elettronici negli anni cinquanta (in particolare l’ENIAC, electronic numerical integrator and Computer, a opera del matematico ungherese John von neumann), hanno dato inizio all’era scientifica della previsione meteorologica.

Volendo fissare una data precisa potremmo indicare il 1955, anno in cui negli Stati Uniti è iniziata la produzione regolare delle cosiddette previsioni meteorologiche numeriche, basate su un processo che conduce alla definizione dello stato futuro dell’atmosfera a partire da condizioni iniziali. Il processo richiede sia osservazioni meteo per definire le condizioni iniziali, sia elaborazioni matematiche delle leggi della meccanica e della termodinamica, così complesse da richiedere il contributo di elaboratori elettronici e di algoritmi specifici.

Dinamica e termodinamica

La moderna meteorologia previsionale dipende dunque da tre fattori: capacità osservative, sviluppo di modelli concettuali e disponibilità di risorse efficaci di calcolo. Il punto di partenza è costituito dai dati meteo (relativi a temperature, umidità, direzione e velocità dei venti, visibilità, pressione ecc.), raccolti da centraline disposte al suolo, da sistemi di radiosondaggio verticale dell’atmosfera, da satelliti in orbita. Con questi dati si definiscono le condizioni iniziali, a partire dalle quali si può elaborare un’ipotesi di evoluzione dello stato dell’atmosfera attraverso modelli che descrivono matematicamente le leggi fisiche della natura.

Come dicevamo, le leggi di riferimento sono le equazioni della dinamica e della termodinamica applicate al fluido atmosfera che, sotto certe condizioni, si comporta come un gas perfetto, cioè costituito da tantissime particelle che interagiscono pochissimo tra loro. Possiamo citare per esempio la seconda legge della dinamica di newton, secondo la quale un corpo soggetto a forze esterne modifica il suo stato di moto: se è fermo inizia a muoversi, se è già in moto accelera o decelera. Nel caso del moto dei fluidi, le equazioni del moto di newton si “traducono” in linguaggio matematico in equazioni differenziali che prendono il nome di equazioni di navier-Stokes.

Tra le leggi della termodinamica citiamo invece la legge di conservazione dell’energia, che lega le caratteristiche “termiche” del fluido (la sua energia “interna”) e le sue capacità a svolgere lavoro meccanico con la quantità di calore che gli viene fornita dall’esterno, la legge di stato che, come nel caso dei gas, lega tra loro le grandezze termodinamiche che li caratterizzano (pressione, temperatura e densità) e la legge di conservazione della massa, secondo la quale in un dato volume di un fluido, la massa interna al volume può crescere o calare solo in relazione a quanto fluido entra o esce dalle pareti di quel volume.

Previsioni con scadenza

Le previsioni meteo sono classificate in base a quella che potremmo definire “data di scadenza”. Si distinguono previsioni di nowcasting (1-3 ore), a brevissimo termine (3-12 ore), a breve termine (12-48), a medio termine (2-10 giorni), a lungo termine (oltre dieci giorni, per esempio mensili o stagionali). Solo in anni recenti sono comparsi i primi esempi di quest’ultimo tipo di previsione.

Il nowcasting si basa essenzialmente sull’estrapolazione lineare nel tempo di quello che accade in un dato istante in una certa località: con queste tecniche si può prevedere per esempio l’evoluzione di un temporale nelle pochissime ore successive l’acquisizione dei dati iniziali, oppure l’evoluzione di un fronte d’aria fredda al suolo. La produzione di previsioni a brevissima scadenza è legata alla disponibilità del più alto numero possibile di dati meteo, rilevati con un’alta frequenza temporale (ogni poche decine di minuti) e a un’elevata densità spaziale (molti dati in un’area di pochi km quadrati).
In una sala monitoraggio i dati vengono rapidamente visualizzati, tutti insieme, sullo schermo di una work station e un operatore procede alle operazioni informatiche di estrapolazione.

Simulare per prevedere

La semplice estrapolazione lineare non offre però risultati apprezzabili già dopo 6-12 ore, a causa del comportamento essenzialmente caotico dell’atmosfera. Comportamento caotico significa, in breve, che a minime variazioni nelle Condizioni iniziali possono corrispondere variazioni molto grandi nel risultato finale. L’estrapolazione lineare che parte dai dati osservati non tiene conto dei processi complessi e non lineari che caratterizzano l’evoluzione dello stato atmosferico. Per questo i dati osservati, da soli, non bastano più e diventa necessario ricorrere a modelli matematici di atmosfera, cioè a complessi sistemi di equazioni “non lineari” che ne descrivono il moto e che vengono fatti evolvere nel tempo a partire dalle condizioni iniziali.

L’attività modellistica è quasi totalmente basata sui Modelli globali di circolazione generale dell’atmosfera (GCM), che interessano l’intero globo terrestre e sui Modelli ad area limitata (LAM), operanti su porzioni limitate di Terra. Entrambi hanno raggiunto un elevato livello di dettaglio, e in alcuni casi possono prevedere fenomeni meteo a scale spaziali veramente ridotte: per esempio, possono prevedere nascita ed evoluzione di celle temporalesche con dimensioni di poche centinaia di km2.

Anche per previsioni a breve e medio termine modelli e simulazioni rimangono fondamentali, benché il livello di dettaglio (e dunque di precisione) a cui si può arrivare sia inferiore.

In laboratorio (virtuale)

I modelli meteorologici non rappresentano solo uno strumento di previsione, ma sono anche di grande importanza per acquisire informazioni su come funziona l’atmosfera. Questo perché, a differenza di quanto accade in altri settori della fisica, nel caso di un sistema macroscopico e complesso come l’atmosfera non è possibile indagare le leggi di natura all’interno di un laboratorio “galileiano” reale. Per definizione, infatti, il “laboratorio atmosfera” non è riproducibile ed è proprio la riproducibilità di un esperimento condizione essenziale del metodo scientifico.

La modellistica offre dunque la possibilità di costruire un laboratorio virtuale in cui simulare l’atmosfera reale. In questo laboratorio, grazie ai computer, si possono eseguire esperimenti che permettono di valutare le variazioni di comportamento dell’atmosfera “virtuale” (il modello) al variare a piacere di vari parametri, per esempio l’orografia (altezza delle montagne, ampiezza delle valli ecc.), il tipo di vegetazione di una certa area, gli scambi di calore con la Terra e così via.

Errori inevitabili

Temporale a Bologna

Esempio di difficile previsione metereologica locale: nella stessa nube temporalesca ci può essere un rovescio di pioggia (a destra) mentre a sinistra la pioggia “rievapora” e non raggiunge il suolo.

Va da sé che un modello, fornendo una “rappresentazione” della realtà, non è la realtà stessa e quindi contiene inevitabili approssimazioni e inesattezze, che possono dipendere da diversi fattori. In primo luogo, da una descrizione imprecisa delle condizioni iniziali, a sua volta legata alle incertezze del processo di misura dei dati. Un altro aspetto da considerare è la non linearità delle equazioni dei modelli, di cui abbiamo già parlato.

Altra causa di inesattezza è la semplificazione con cui vengono talvolta descritti i processi fisici che caratterizzano l’atmosfera reale, dovuta o a scarsa conoscenza del fenomeno o ad esigenze tecniche per ridurre i tempi di elaborazione. Risultato di tutte queste incertezze possono essere i classici errori di previsione: capita che i modelli possano far piovere troppo, o troppo poco, o troppo a lungo, o nei posti e nei tempi sbagliati, oppure che ci siano errori nelle temperature, nella copertura nuvolosa o nella velocità del vento previste.

Tuttavia, oggi non si può fare a meno di questi strumenti, utilizzati sia per redigere quei bollettini meteo che vengono mostrati ogni sera alla tv, sia per produrre messaggi di allerta a beneficio del sistema di Protezione civile, per la previsione di eventi avversi importanti (piogge torrenziali, piene fluviali ecc.).

Il ruolo del previsore. Ieri…

Il lettore che abbia letto sino qui questo articolo potrebbe pensare che tutta la previsione meteorologica moderna sia una faccenda di dati e di strumenti modellistici e che il ruolo degli esseri umani in tutto ciò sia solo marginale. in realtà non è così, anche se è indubbio che le attività che svolge oggi un Previsore meteo siano molto diverse da quelle di poche decine di anni fa.

Fino alla fine degli anni settanta, il supporto fornito dai modelli era minimo e la previsione si basava quasi esclusivamente sulle mappe di analisi sinottica, che venivano realizzate rappresentando su carte geografiche tutti i dati osservati in un dato istante (da cui il terminesinottico) e tracciando “a mano” le linee di ugual valore (isolinee) per le grandezze meteo: pressione al suolo o a differenti quote, temperatura ecc. Sulla base di queste mappe, il previsore poteva farsi un’idea precisa dello stato del tempo in una data area geografica ed eseguire estrapolazioni del suo stato futuro fino a 24-48 ore.

Queste interpretazioni erano essenzialmente soggettive e basate sull’esperienza personale, unita a una profonda conoscenza delle caratteristiche climatiche del territorio.

… e oggi

Ora un previsore ha a disposizione un gran bagaglio di supporti oggettivi, come dati di monitoraggio sempre più dettagliati e provenienti da strumenti differenti e output di modelli. il suo ruolo è sempre più quello di selezionare, tra i diversi prodotti disponibili, quelli che mostrano un maggiore margine di affidabilità.

La sua esperienza e le sue conoscenze risultano essenziali per fargli credere, poco o molto, a un modello piuttosto che a un altro e per fargli capire se può attendersi un errore nella localizzazione nello spazio o nel tempo di un dato evento meteo (per esempio una linea di temporali) o se questo sarà più o meno intenso. Se modelli diversi offrono scenari molto diversi rispetto a un certo evento, il previsore concluderà che quell’evento è difficilmente prevedibile; viceversa, se i modelli concordano potrà avere maggior fiducia nell’affidabilità di una previsione. Alla fine sono sempre e solo gli esseri umani a preparare una previsione meteo!

Quello che i modelli non hanno

Per svolgere questo lavoro, un previsore deve possedere una profonda conoscenza della fisica dell’atmosfera, del territorio in cui opera e delle sue caratteristiche climatiche. Facciamo un esempio: una conformazione identica del campo barico (cioè di pressione) in un’area piuttosto vasta (poniamo
l’italia settentrionale) può creare condizioni meteo differenti tra loro, anche in località molto vicine. In una località potrebbe piovere copiosamente mentre in quella accanto si registra una diminuzione di nuvolosità e un aumento di temperatura.

Questa variabilità può dipendere da vari fattori (la posizione orografica, il fatto di essere “sopravento” o “sottovento” rispetto a una catena montuosa, ricevendo così flussi d’aria differenti ecc.) e non sempre viene tenuta in debita considerazione dai modelli. È proprio in questi casi che interviene il previsore il quale, “a mano”, può correggere una previsione numerica sulla base delle sue conoscenze del territorio e della sua esperienza personale.

Quanto possiamo prevedere?

A questo punto possiamo rispondere a una delle domande che ponevamo all’inizio. Le previsioni meteo di oggi possono o non possono prevedere fenomeni estremi e tragici? La risposta è che si può fare molto, anzi moltissimo. Si può prevedere con un discreto grado di accuratezza che in una certa area si manifesterà con elevata probabilità un certo fenomeno (per esempio che si abbatterà una bomba d’acqua), ma attenzione: non si possono ancora descrivere esattamente tutte le caratteristiche precise di quel fenomeno, a partire dalla sua esatta localizzazione spazio/temporale.

Senza considerare che un conto è la possibilità di prevedere un evento estremo e tutt’altro conto è aver lavorato per prevenire i possibili danni di quell’evento. Il che, tra l’altro, ci porta dritti alla seconda domanda: è davvero ottimale l’uso che facciamo delle previsioni meteo? E quanto siamo in grado, come società, di gestire gli eventuali falsi allarmi (o i mancati allarmi) che i modelli previsionali, caratterizzati da inevitabile incertezza, possono produrre?

Qualità versus valore

Il dibattito su tale argomento coinvolge sia i meteorologi sia gli utenti delle previsioni e in alcuni paesi è molto sviluppato: negli Stati Uniti, per esempio, esistono siti completamente dedicati all’analisi dell’impatto sociale dell’informazione e della previsione meteo (www.sip.ucar.edu). Si sta sempre più affermando il concetto di valore della previsione, ben diverso da quello di qualità.

Con quest’ultimo termine si intende la bontà intrinseca del prodotto previsionale, definita in genere con opportuni indici statistici che misurano la “distanza” tra la previsione e l’osservazione. Con il termine valore si intende invece la capacità di una previsione di incidere sui processi decisionali degli utenti che ne fanno uso: una previsione sarà di alto valore se permetterà a un decision maker di prendere la decisione più corretta in un dato contesto.

Di irrigazioni, ombrelli e alluvioni

Valore e qualità non sono necessariamente connesse. Una previsione, anche di buona qualità, può essere di basso valore se non è utile, magari perché le scelte da effettuare dipendono da altri fattori, indipendenti dall’evoluzione del tempo.
Al contrario, una previsione di minore qualità potrebbe risultare di grandissimo valore, in altre occasioni e per un’altra tipologia di utente. Allo stesso modo, una previsione può essere, a parità di qualità, del tutto inutile per alcuni e di fondamentale rilevanza per altri. Pensiamo a un agricoltore, che deve decidere se e quando irrigare un suo terreno.

L’irrigazione ha un costo e decidere se procedere o meno dipende in maniera evidente dall’evoluzione del tempo. È chiaro che se l’agricoltore irriga e subito dopo piove, avrà svolto un lavoro inutile e sprecato denaro. Se, al contrario, decide di non irrigare e poi non piove, correrà il rischio di danneggiare la sua coltura (con conseguente danno economico). È un bel dilemma e per superarlo l’agricoltore si rivolge alla previsione meteo.
Egli sa che questa è soggetta a un errore, ma valuterà questa incertezza insieme a un altro elemento e cioè al rapporto tra costo dell’azione (irrigare) e danno dovuto alla scelta di non agire.

Supponiamo che la previsione meteo dica che pioverà: se l’agricoltore ritiene che il danno nel caso in cui non piova ed egli non abbia irrigato non sia poi molto elevato, può decidere di affidarsi alla previsione e di arrischiarsi a non irrigare. In questo caso, la sua scelta dipenderà quasi esclusivamente dalla previsione, che avrà dunque grande valore.
Al contrario, se ritiene che il danno sarebbe molto elevato, avrà convenienza a irrigare comunque, indipendentemente dalla previsione, che avrà dunque scarso valore.

Consideriamo ora un altro signore, che sta uscendo di casa per andare al mercato, sempre nel caso in cui la previsione meteo abbia stabilito che sta per piovere. Il nostro signore può mettere in atto due azioni diverse per mitigare il rischio di bagnarsi in caso di pioggia: prendere l’ombrello oppure rimandare la spesa. La prima azione ha costi bassi e può essere presa indipendentemente dalla previsione meteo, che avrà in questo caso poco valore. La seconda azione ha invece un rapporto costo/danno maggiore e il signore tenderà ad affidarsi alla previsione per prenderla. La previsione, dunque, avrà un valore maggiore.

Decidere se prendere l’ombrello, irrigare un campo, fare una festa all’aperto, far evacuare un paese per un’allerta meteo che annunci il rischio di un’alluvione: sono tutti esempi di azioni per le quali una stessa previsione di pioggia può risultare totalmente insignificante oppure parzialmente utile o addirittura assolutamente fondamentale.

Per concludere…

Queste considerazioni non sono fini a se stesse, ma ci suggeriscono che, in futuro, la scienza della previsione meteo non dovrà soltanto occuparsi di migliorare la propria qualità, ma dovrà anche confrontarsi sempre più con le varie tipologie di utenti che usano le previsioni e comprendere sia le loro esigenze sia gli aspetti più critici e rischiosi delle loro attività.

È chiaro dunque che una previsione meteo non dovrà limitarsi a rispondere alla domanda: «È possibile prevedere certi fenomeni?», ma affrontare anche quella, ben più utile: «Quanto servono queste previsioni per una data attività?».

Esempio di tornado distruttivo.

Esempio di tornado distruttivo.

Parole chiave

  • Ciclone area di bassa pressione, in cui le linee di ugual pressione (isobare) hanno una struttura quasi circolare attorno al centro della depressione. in generale, alle medie latitudini, queste strutture determinano tempo perturbato. Si parla di ciclone tropicale o extra-tropicale a seconda della localizzazione di tale struttura meteorologica sulla Terra.
  • Fronte Linea che separa (al suolo) due diverse masse d’aria aventi caratteristiche termodinamiche diverse (temperatura, umidità ecc.). in genere si parla di superficie frontale che separa, nelle tre dimensioni, le due masse d’aria. La superficie frontale intercetta al suolo la superficie terrestre e la linea di intercettazione tra queste due superfici è per l’appunto il “fronte al suolo”.
  • Radiosonda Strumento che permette di misurare lo stato dell’atmosfera nella verticale. in genere si tratta di una piccola stazione meteorologica che sale in atmosfera trascinata da un pallone riempito di elio. Durante la salita i sensori a bordo misurano il profilo di pressione, la temperatura e l’umidità relativa e trasmettono le misurazioni a un ricevitore a terra.

Per approfondire

http://magazine.linxedizioni.it/2012/01/17/la-scienza-del-meteo/

Science 360 – A Good Collection of Science Videos

Science 360 – A Good Collection of Science Videos

Science 360 is an educational video site hosted by the National Science Foundation. Visitors to Science 360 can search for videos according to topic. Science 360 also gives you the option to browse for videos according to series. Some of the series that visitors will find on Science 360 include climate change, sustainability, engineering, and the science of sports. A sample video from Science 360 is embedded below.

Diamo il benvenuto al sito Cliccascienze.it

Benvenuti nel Sito dedicato al mondo delle scienze, il nostro obiettivo è quello di fornire agli utenti appunti, dispense e altro materiale utile allo studio e all’approfondimento. In questa prima fase il sito è stato pubblicato in versione “beta” ovvero in fase di sviluppo, quindi chiediamo scusa in anticipo per eventuali piccoli disagi.

Ecco cosa è possibile trovare all’interno del sito, buona navigazione!