Settimana della Cultura Scientifica e Tecnologica

Settimana della Cultura Scientifica e Tecnologica

Liceo Scientifico Vitruvio Pollione – Avezzano

“L’energia geotermica”

Cosa accomuna un centro termale e un soffione boracifero? L’energia geotermica!

Alla diciassettesima edizione della Settimana della Cultura Scientifica e Tecnologica, l’ingegnere chimico Franco Sansone ne ha illustrato le caratteristiche e il modo in cui questa viene utilizzata dalle centrali per la creazione di energia elettrica.

Che cos’è quindi l’energia geotermica?

Questa è definita come il calore contenuto all’interno del magma che risale in superficie sotto forma di vapore. La terra infatti, al momento della sua formazione, più di 4,5 miliardi di anni fa, racchiuse nella sua parte più interna materiali radioattivi il cui decadimento nucleare ha generato calore con temperature sempre più alte in base alla profondità; possiamo infatti dividere il nostro pianeta in quattro strati: crosta, mantello, nucleo esterno e nucleo interno.

Nella crosta, che si estende fino ai 35 km di profondità, per un gradiente di 30°C/km, presenta una temperatura di circa 1000°C nella sua parte più interna; il mantello si estende invece dai 35 i 2900 km e raggiunge la temperatura di 3400°C. Il centro della terra invece, il punto più caldo, si trova a 6500 km dalla superfice terrestre e la temperatura arriva fino ai 6500°C.

A noi però interessa ciò che accade nella crosta terrestre, dove sono presenti anomalie termiche in diverse zone del pianeta che, oltre ad una maggiore concentrazione del calore, sono caratterizzate da frequenti fenomeni sismici. In queste regioni infatti sono presenti i margini delle placche tettoniche che presentano tre tipi possibili di movimento: divergente, convergente e il lateral sliding. 

Sono soprattutto grazie ai primi due tipi che è possibile l’utilizzo dell’energia geotermica: il primo ha un effetto costruttivo in quanto le due placche vicine, muovendosi, creano uno spazio che permette la risalita del magma; i margini convergenti permettono la formazione di fossati, chiamati trench, che creano una condizione di pressione che comporta alla risalita del magna. Il terzo tipo di movimento invece non presenta alcun effetto sensibile e non vi è quindi nessuna risalita di magma.

È dopo aver chiarito questi concetti che ci si è soffermati su un ulteriore questione: come si trasmette il calore? Per convezione, un tipo di trasporto che viene utilizzato principalmente dai fluidi: il magma fornisce calore alle zone più superficiali della crosta terrestre, scaldando una parte di acqua la quale si espande, riducendo la propria densità, e che viene quindi spinta dall’acqua fredda che la rimpiazza. L’acqua calda ha una temperatura e una pressione tale che, raggiunta la crosta terrestre, libera vapore nell’atmosfera.

È a questo punto che l’Ing. Sansone ha soffermato la nostra attenzione sull’importanza del magma, la cui presenza è una condizione necessaria ma non sufficiente affinché si possa sfruttare una risorsa geotermica. Sono necessari altri e tre elementi: una sorgente di calore, un fluido e un serbatoio che presenta uno strato di rocce impermeabili sopra e sotto ma che, al contrario, è permeabile ai lati in modo tale che sia possibile all’acqua o al vapore di penetrare nel serbatoio.

Nonostante quindi potesse sembrare un tipo di energia estremamente semplici, ci siamo dovuti ricredere: i sistemi geotermici per la produzione di energia elettrica sono esattamente due: quelli ad acqua dominante e quelli a vapore dominante. È quest’ultima la migliore in quanto permette di utilizzare direttamente il vapore per la creazione di energia.

 È in questo momento che l’Ing. Sansone ci ha spiazzati: nonostante infatti l’energia geotermica è usata solo per l’1%, esistono più tipi di centrali per ogni sistema geotermico e inizialmente queste centrali non riuscivano a salvaguardare neanche l’ambiente.

Le centrali per i sistemi ad acqua dominante sono ad esempio le centrali a ciclo binario, dove viene utilizzato un fluido basso bollente, organico (per questo chiamate anche ORC), che bolle a pressioni più basse di quelle dell’acqua: l’acqua calda viene estratta dal terreno, attraversa scambiatori di calore, si raffredda e viene iniettata in serbatoi; raffreddandosi, il fluido geotermico riscalda e fa evaporare il fluido basso bollente, il quale anch’esso va in una turbina, si espande e genera energia meccanica  e quindi elettrica. Viene poi condensato a bassa pressione, pompato, recupera pressione per essere reiniettato nel suolo.

Per quelli invece a vapore dominate, come la centrale di Larderello, la più importante in Italia, il vapore viene direttamente estratto e inviato in turbina. In questo caso si possono avere due tipi di impianti: il primo a contropressione, non più utilizzato, in cui il vapore espandeva in turbina e veniva rilasciato direttamente nell’atmosfera; il secondo a condensazione, dove il vapore fuoriesce a pressioni molto più basse, espandendosi molto di più per poi, dopo essere stato condensato, viene reiniettato nel suolo.

Reiniezione è quindi estremamente importante: negli anni Settanta si usavano le turbine a contro pressione, il vapore veniva inviato nell’atmosfera e vi era uno sfruttamento del serbatoio; la pressione e la portata man mano diminuivano.

 Negli anni 80 iniziò la partica della reiniezione vi fu una ripresa di pressione e di portata, il serbatoio non venne più sfruttato ma “coltivato, rimanendo disponibile continuamente e non fino al suo esaurimento.

Alla fine della conferenza avevamo imparato moltissime cose, approfondendo un tema che molto spesso non viene considerato ma che potrebbe diventare un’importante metodo di produzione di energia rinnovabile.

E voi, sapevate queste cose?

Raschiatore Antonella 4H

“L’energia geotermica” Leggi tutto »

“La quarta Rivoluzione Industriale: dal Kilo al Tera Byte” Ing. Raimondo Castellucci

Oggi, durante la terza giornata della Settimana della Cultura Scientifica e Tecnologica, il nostro Liceo ha avuto il piacere di ospitare l’ingegner Raimondo Castellucci, relatore della conferenza intitolata: “La quarta Rivoluzione Industriale: dal Kilo al Tera Byte”. L’ingegnere, ex alunno del liceo Vitruvio Pollione, si è detto dispiaciuto aver dovuto presentare il suo intervento utilizzando la modalità del webinar, dal momento che quest’ultima oscura inevitabilmente parte dell’entusiasmo solitamente mostrato dai ragazzi e dagli ospiti in queste circostanze. Tuttavia, l’aver potuto comunque realizzare ”a distanza” la Settimana Scientifica, nonostante la situazione epidemiologica, ha offerto un importante spunto di riflessione,in quanto ha messo ulteriormente in risalto l’incredibile sviluppo che ha interessato la tecnologia negli ultimi anni: non molto tempo fa, ospitare un centinaio di persone in una classe virtuale era impensabile, mentre oggi è una cosa praticamente all’ordine del giorno grazie agli efficientissimi dispositivi che abbiamo a disposizione. Dispositivi che, tra l’altro, l’ingegner Castellucci conosce molto bene, dopo 30 anni di ricerca sulle tecnologie dei semiconduttori prima presso la Texas Instruments e poi con la Micron Technology.

Castellucci ha aperto la conferenza illustrando come prima cosa il significato dell’espressione “rivoluzione industriale”: ovvero, un momento di grande sviluppo dei mezzi tecnologici nel corso della storia, per poi proseguire spiegando come essi sono stati e sono tutt’ora in grado di modificare radicalmente la vita dell’uomo. L’ingegnere infatti, con il supporto di alcuni grafici, ha reso più che evidente il collegamento diretto che c’è tra il miglioramento tecnologico e l’aumento della qualità e dell’aspettativa di vita.

In particolare, sono da ricordare la prima rivoluzione industriale, che nel XVIII secolo comportò la diffusione della macchina a vapore, e la seconda, circa un secolo dopo, caratterizzata dall’avvento dell’energia elettrica. E’ necessario precisare, tuttavia, che anche il secolo scorso è stato scenario di una rivoluzione, questa volta di tipo digitale, la quale ha notevolmente automatizzato la produzione industriale; a partire dagli anni trenta con il matematico Alan Turing, si è formalizzato il primo calcolatore digitale, la futura “macchina di Turing”. Va detto, inoltre, che per “digitale” si intende la rappresentazione numerica della realtà analogica, effettuata tramite l’unità fondamentale del BIT (0 oppure 1, una sequenza di 8 bit costituisce un byte). 0 e 1 hanno un valore ben preciso: il primo indica un capacitore scarico e il secondo un capacitore carico; i capacitori poi rendono disponibili le proprie informazioni per mezzo dei transistor. Il circuito composto dagli elementi sopra citati viene realizzato su basi di silicio e le dimensioni minime, come ad esempio la larghezza dei capacitori, sono chiamate nodi tecnologici.

Alla base delle rappresentazioni digitali c’è, in ogni caso, l’osservazione della natura: basti pensare al codice genetico o agli alfabeti che codificano il linguaggio umano. Tuttavia, questo tipo di schematizzazione matematica della realtà non è un’invenzione recente: già nel XVII secolo Pascal aveva messo a punto il primo calcolatore meccanico, la Pascalina, considerabile come la prima tappa del lungo “percorso evolutivo” che ha portato alla nascita dei moderni dispositivi elettronici. Ad esempio, nel campo dei personal computer, si è passati dal Mark 1, il primo calcolatore elettronico prodotto nel 1944 dalla IBM del peso di 5 tonnellate, ai moderni laptop, molto più pratici e dalle prestazioni infinitamente maggiori. Similmente, anche i telefoni e le memorie digitali hanno vissuto lo stesso tipo di modifiche nel corso degli anni. Nel 1965 l’informatico Gordon Moore formulò una teoria per spiegare proprio questa evoluzione dei dispositivi elettronici; secondo la cosiddetta “legge di Moore”, di anno in anno il numero di transistor in un circuito integrato raddoppia e con essi anche capacità e velocità di funzionamento, mentre si dimezzano dimensioni e costo di produzione. La legge venne ampiamente verificata nel corso degli anni e si è dimostrata una stima decisamente accurata di quella che è stata l’evoluzione dei dispositivi tecnologici.

Ai giorni nostri è in atto una quarta rivoluzione, sempre di carattere digitale, che ha portato alla realizzazione e alla messa in commercio di dispositivi ad alta capacità di funzionamento – basti pensare che oggi circa 38 exabyte di informazioni vengono trasferiti dai nostri cellulari, smartwatch o tablet nello storage – e di piccole dimensioni, che comportano una maggiore praticità e facilità di trasporto. Tale rivoluzione non coinvolge solamente apparecchi di uso quotidiano, ma anche altre tipologie di dispositivi: elettrodomestici con la domotica, macchinari industriali per quanto riguarda le smart industries e sensori per le smart cities. L’uomo sta quindi puntando all’automazione di vari sistemi, ma ciò che conseguenze ha? Il contesto sociale nel quale sta avvenendo tale progresso, che vede la popolazione anziana in aumento rispetto al tasso di natalità, genera due correnti di pensiero: una vede nel futuro un maggior numero di opportunità mentre l’altra vede solo incognite insormontabili e molteplici rischi. In conclusione ,non esiste ancora una risposta certa, ma l’ingegner Castellucci confida nella nostra generazione affinché si trovi un  eventuale compromesso tra progresso e impatto socio-economico.

Dopo questa esauriente panoramica sul progresso tecnologico nella storia , l’ingegnere ha dato spazio alle nostre domande: dal dialogo è emersa una questione interessante concernente la legge di Moore. L’ultimo nodo tecnologico raggiunto è di 7 nm, e ci si aspetta di arrivare presto ai 5 nm. Tuttavia non è possibile continuare a dimezzare all’infinito le dimensioni, perché il minimo consentito è lo spessore di un singolo strato atomico. La legge di Moore è quindi arrivata al capolinea? E cosa succederà in futuro? L’intenzione degli informatici, attualmente, è quella di utilizzare una terza dimensione, impilando le matrici: in questo modo continuerebbe a crescere la capacità di immagazzinamento dati, pur mantenendo le dimensioni al minimo. Un’altra possibilità è quella di aggiungere anche una quarta dimensione, quella del tempo, in modo che una stessa cella immagazzini 2 bit e non più 1 solo, mostrandoli alternativamente.

Noi vitruviani siamo stati entusiasti dell’intervento dell’ing. Castellucci e, ancora affascinati dall’universo della tecnologia con cui ci ha permesso di confrontarci oggi, lo ringraziamo nuovamente per la sua partecipazione a un evento per noi così significativo come la

Settimana Scientifica. Angelica De Sanctis e Alessia Bianchini, 5I

“La quarta Rivoluzione Industriale: dal Kilo al Tera Byte” Ing. Raimondo Castellucci Leggi tutto »

L’editing genomico: dalla biologia alla medicina

“L’editing genomico sarà la medicina del futuro e, al momento, ci sono tutte le premesse per far sì che tecniche di questo tipo possano avere l’effetto sperato”: queste sono le parole che il Professor Rodolfo Ippoliti dell’Università Degli Studi dell’Aquila ha pronunciato a conclusione del suo approfondito discorso relativo all’editing genomico dalla biologia alla medicina.

Quando parliamo di editing genomico, parliamo di quello che molti esperti denominano come la “punta di diamante” delle applicazioni tecnologiche relative al mondo della medicina. Non si tratta però di un argomento facile, facciamo infatti risalire gli studi che ci hanno portato verso questa nuova branca della scienza a molto lontano. È con Mendel, due secoli fa, che la genetica ha iniziato il suo corso; infatti, dagli esperimenti con le piante di piselli del biologo tedesco, siamo arrivati alla scoperta della struttura del DNA nel 1953 da parte di James Watson e Francis Crick e agli studi relativi al DNA ricombinante del 1972. In questo lungo percorso molti studiosi e scienziati hanno dato il loro contributo per arrivare fino al giorno d’oggi, in cui possiamo dire di aver raggiunto un punto di svolta: è nata la cosiddetta ingegneria genetica. Essa ci ha dato e ci continua tutt’oggi a dare grandi soddisfazioni, ma di cosa si tratta? Ed in che modo essa può essere utile in campo medico? Sicuramente le risposte a  queste domande sono esplicative riguardo l’argomento trattato, ma per comprenderle al meglio dobbiamo avere conoscenze base riguardo la struttura del nucleo cellulare e, più in particolare, riguardo il DNA.

Il DNA è un polimero formato da due catene antiparallele che insieme ai nucleotidi formano una struttura a doppia elica. Con l’avvitarsi su sé stessi, i due filamenti lasciano scoperti dei solchi, precisamente due: il grande ed il piccolo solco. Tenete bene a mente queste due strutture perché saranno fondamentali per comprendere la maggior parte dei meccanismi di editing che verranno trattati successivamente.

L’editing genomico è una tecnologia altamente innovativa che funziona come un “correttore di bozze” del DNA: interviene in maniera precisa per trovare ed eliminare gli errori all’interno del genoma, come ad esempio per i tumori. Sostanzialmente esso permette di correggere un gene difettoso direttamente là dove si trova senza doverne fornire una copia sana dall’esterno. Per raggiungere particolari punti, questi sistemi sono guidati o da proteine oppure da frammenti di RNA.

Per quanto riguarda i sistemi a guida proteica, già dai primi anni 2000, le tecniche più popolari sono le “nucleasi a dita di zinco”, anche chiamate “zinc fingers” e i TALEN, capaci di agire sui genomi con grande precisione, ma che richiedono anche lunghi periodi di progettazione.

La tecnologia delle Zinc Finger Nucleases permette di operare in modo preciso nel genoma, un sogno fino a poco tempo fa.  

Le ZFN sono proteine costruite affinché possedessero due tipi di attività: riconoscimento di una specifica sequenza di DNA (la sequenza che vogliamo modificare) e taglio del DNA una volta avvenuto il legame.

 Pezzettini molto corti di sequenza possono essere letti da proteine che, scorrendo su l’elica del DNA come un dito su una superficie con dei rilievi, riconoscono “cosa c’è scritto”, legandosi saldamente ad alcune sequenze piuttosto che ad altre.  

La domanda sorge spontanea: come fanno tali proteine a riconoscere i nucleotidi? La caratteristica che distingue le unità specifiche del DNA è insita nella sequenza in cui si trovano le basi azotate (adenina, timina, guanina e citosina). Le porzioni che si affacciano sul solco maggiore sono differenti rispetto a quelle che si affacciano sul solco minore e sono le uniche che possono essere riconosciute dal gruppo proteico utilizzato per questa operazione. 

Tra i motivi proteici in grado di leggere il DNA, un tipo ha proprio la forma di “dito” che scorre lungo l’elica, e si chiama per l’appunto zinc finger, ossia “dito di zinco” (le “dita” sono mantenute in struttura da ioni zinco).

A questo punto è possibile costruire delle proteine artificiali in laboratorio, specifiche per ciascuna sequenza; ma non è finita qua!!

Unendo queste ad una proteina che di mestiere taglia il DNA, chiamata TALEN, che si comporta come una sorta di forbice molecolare, si apre una spaccatura.

Ma come si arriva a modificare il DNA? Per ora abbiamo solo spaccato tutto… dove vogliamo arrivare? Il DNA si comporta come una ferita che si rimargina, le ZFN infatti, servono a sfruttare i naturali meccanismi di riparazione della doppia elica, ed utilizzarli per riparare il danno andando a sostituire alla sequenza mutata quella artificiale, permettendo di risolvere il problema.

Non dimentichiamoci però dell’altra tipologia di sistemi genetici, quelli guidati da frammenti di RNA… e non immaginerete mai come è nata questa intuizione!

La scoperta delle potenzialità dell’RNA è stata il frutto di un lavoro di ricerca botanica che aveva lo scopo di rendere il colore dei petali di petunia più sgargiante. Si voleva infatti aggiungere copie extra del gene colore, ma si è notato che il fiore più che raggiungere una colorazione più intensa, presentava sulla superficie delle macchie decolorate. Questo effetto si fonda sul meccanismo di silenziamento dell’RNA, determinato dalla presenza di RNA aberranti a doppio filamento; essi una volta arrivati nel citoplasma degradano una delle due catene. 

È proprio questo il principio sul quale si fondano i successivi studi genomici che coinvolgono come mezzo l’RNA. E pensare che non siamo nemmeno arrivati a parlare del gioiellino finale dell’editing genetico!!

La vera rivoluzione in questo campo è arrivata nel 2012 con la scoperta del sistema “Crispr-Cas9”, che ha messo in secondo piano i sistemi di editing “Zinc-finger” e “TALEN” che erano stati utilizzati fino ad allora. Crispr-Cas9 ha dimostrato, fin da subito, una potenzialità e versatilità fino a poco prima inimmaginabili! Si utilizza un RNA guida che riesce a collocare nel punto giusto l’enzima di restrizione Crispr-Cas9, il quale taglia il frammento di DNA da modificare; il taglio viene ricucito dalla cellula mediante un DNA toppa, creato da noi e costituito da geni sani al posto di quelli mutati, trasferito attraverso vettori virali e non virali.

E pensare che grazie a questo sistema qualunque tipo di cellula vegetale, animale, inclusa quella umana, può essere modificata geneticamente e la correzione può avvenire anche per un singolo e minimo errore, e ovunque nel genoma. Inoltre, questa tecnica è facile da utilizzare, veloce ed economica, il che ne amplia le potenzialità in ambito terapeutico.

Ma quali sono stati effettivamente i risultati raggiunti nel mondo della medicina?

Grazie alle geniali scoperte dell’editing genomico i passi in avanti sono stati moltissimi; attualmente sono aperti ben 32 studi differenti di trial clinici che si impegnano nel trovare cure a malattie quali tumori solidi, leucemie e anemia falciforme, tutte caratterizzate da mutazioni del DNA con spesso assenza o mancata attività di meccanismi di riparazione.

La strada da fare è ancora molto lunga, ma tutte queste scoperte di editing genomico fanno crescere in noi la speranza che un domani la medicina possa raggiungere un punto di svolta: garantire cure migliori e più specifiche per ogni tipo di patologia.

                                                                    Elisabetta Morgante & Raffaele Negri, 4° H

L’editing genomico: dalla biologia alla medicina Leggi tutto »

“Il terzo dal Sole”

Il secondo giorno della diciassettesima edizione della nostra settimana scientifica è iniziato alle 9:30 con la conferenza “il terzo dal Sole” tenuta dal dott. Antonio Calfapietra. Il particolare titolo di questa conferenza ha portato noi ragazzi ad essere più curiosi nel partecipare all’incontro per capire l’argomento trattato. “Il terzo dal Sole” è il titolo di un racconto di Richard Matheson che riguarda la Terra, la quale è il terzo pianeta dal Sole.

Il dott. Calfapietra ci ha condotto in un viaggio che parte dal Big Bang fino alla nascita dell’uomo sul nostro pianeta. La prima fase che abbiamo esaminato è l’era di Planck e ci troviamo a 10^-43 secondi dopo il Big Bang, la quale è il brevissimo periodo tra la singolarità e l’era successiva. Dato questo periodo molto piccolo, come le distanze (inferiori alla lunghezza di Planck) questa era viene studiata dalla meccanica quantistica che si basa su una descrizione probabilistica dei fenomeni e sui quanti (grandezza elementare indivisibile). La seconda fase è un’era di grande unificazione e ci troviamo a 10^-36 secondi dopo il Big Bang. In questo momento le forze presenti erano quella elettromagnetica, elettronucleare debole, elettronucleare forte (tiene compatto il nucleo degli atomi) e quella gravitazionale. La terza fase è l’era dell’inflazione, 10^-35 – 10^-30 secondi, dove si ipotizza che dopo il Big Bang l’universo abbia subito una grande espansione con l’aumento di 10^30 volte il proprio raggio. Questa teoria è non confutabile, per essere controllabile scientificamente deve essere confutabile e deve essere possibile produrre un esperimento che la confuti, la sua inconfutabilità è un difetto ma le osservazioni del cosmo la rendono plausibile. La quarta fase è l’era della materia nella quale c’è il disaccoppiamento tra la materia e radiazioni, da quest’ultima si vanno a formare dei fotoni che creano la radiazione cosmica di fondo e dato che la loro energia si abbassa non sono più in grado di distruggere gli atomi perciò si cominciano a formare atomi di idrogeno ed elio con i quali non interagiscono i fotoni. Prima di questa fase l’universo era diventato buio (fase “dark age”) ma adesso comincia di nuovo a risplendere con le stelle.

Le stelle hanno un ciclo: nascono da un gas e si condensano per la forza di gravità, grazie alla fusione dei nuclei di idrogeno, si innescano le reazioni nucleari, c’è equilibrio tra la forza gravitazionale e nucleare e grazie a ciò la stella si stabilizza. A questo punto l’atomo cattura i neutroni e il nucleo si ingrandisce diventando instabile. Si creano atomi più pesanti per decadimento, la stella collassa su se stessa e termina il ciclo. Il ciclo può terminare in vari modi: < 1,44 masse solari diventa nana bianca, > 1,44 masse solari diventa stelle di neutroni, quando è ancora più grande diventa supernova (esplosione catastrofica).

Dopo le stelle si sono creati i pianeti e dopo di ciò arriva la vita: Homo Sapiens Sapiens, da una massa piccolissima si arriva all’uomo, essere in grado di pensare.

Il dott. Calfapietra ci ha trasmesso la sua passione per questi argomenti facendoci entrare in questa realtà tramite diversi canali. Diversi sono stati i suoi riferimenti all’arte, alla scrittura e alla cultura in generale come per esempio la relatività di Einstein e i quadri di Dalì… tutte informazioni utili per noi ragazzi del quinto in vista degli esami. In più ci ha allietato con brani musicali di alto livello come quello presente nel film “2001 Odissea nello spazio” di Stanley Kubrick del 1968. Infine ci ha mostrato la nuova costellazione quella di Ofiuco mostrandoci i segni zodiacali “aggiornati”, e tu? Ti sei chiesto qual è il tuo segno con l’aggiunta di questa costellazione?

Con la sua dolcissima e apprezzatissima disponibilità ci ha salutato dopo averci lasciato nel nostro bagaglio culturale molte informazioni più che interessanti.

“ I limiti del mio linguaggio sono i limiti del mio mondo. “ Ludwing Wittgenstein.

Sofia Bonaldi e Francesca Scatena, 5B

“Il terzo dal Sole” Leggi tutto »

A note to our visitors

This website has updated its privacy policy in compliance with changes to European Union data protection law, for all members globally. We’ve also updated our Privacy Policy to give you more information about your rights and responsibilities with respect to your privacy and personal information. Please read this to review the updates about which cookies we use and what information we collect on our site. By continuing to use this site, you are agreeing to our updated privacy policy. Le condizioni della privacy sono nel menu

https://www.lscientificoavezzano.it/privacy-policy-3/