Sara Fortuna

Auto-organizzazione molecolare e tecnologie del futuro

Lettori mp3 grandi come una moneta, telefonini con microtelecamere da fare invidia a James Bond, ma la corsa alla miniaturizzazione non si è ancora fermata.

Il tutto ruota attorno allo sviluppo dei circuiti integrati, o microchip, ovvero tracciati elettronici miniaturizzati che si presentano come singolo componente elettronico adibito all’elaborazione di dati. Il primo circuito integrato nasce nel 1958 a Dallas nei laboratori della Texas Instruments, quando Jack St. Clair Kilby costruì il primo microchip (e per il quale vinse il Premio Nobel per la Fisica nel 2000). Questa invenzione permise di sostituire i vecchi computer che utilizzavano tubi da vuoto come principali componenti elettronici con computer basati su transistors, essendo questi molto più piccoli, veloci, affidabili ed economici da produrre.

Furono però gli anni ’70 a segnare una vera rivoluzione, in quanto tutti i componenti elettronici necessari per il funzionamento dell’unità centrale di elaborazione dati di un computer (i quali compongono la cosiddetta Cpu, acronimo di Central Processing Unit, cuore di ogni computer) vennero integrati in un singolo microchip, segnando così la nascita dei microprocessori. Infatti, l’integrazione di una Cpu in un singolo processore ridusse ulteriormente i costi di produzione, sostituì i vecchi computer, e segnò l’arrivo degli “home computers” degli anni ’80 (come Spectrum, Amiga, e Commodore). Questi ultimi furono a loro volta prima sostituiti dai pc portatili del nuovo millennio, e ora addirittura dai moderni smartphones, anche questi veri e propri computer, estremamente più potenti e versatili degli home computer degli anni ’80 e in grado di occupare semplicemente il palmo di una mano!

L’aumento di potenza dei microprocessori, dagli anni ’70 in poi, ha seguito la cosiddetta “legge di Moore” che suggerisce che il numero di transistor che possono essere sistemati in un singolo microchip raddoppia ogni due anni. Sfortunatamente, la legge di Moore non tiene in considerazione che le attuali tecniche di produzione potrebbero avere raggiunto il loro limite, e infatti pare che non permettano ulteriore miniaturizzazione, se non a fronte di costi esorbitanti.

Attualmente i microprocessori appaiono al loro interno molto simili ai circuiti stampati presenti all’interno del nostro telefonino, infatti sono entrambi composti da molteplici tracciati disegnati su un supporto, spesso detti semplicemente “tracce”. Lungo le tracce i dati possono essere spostati all’interno del componente elettronico per essere elaborati. Per creare queste strutture normalmente viene utilizzata la luce tramite un processo chiamato fotolitografia, in cui si utilizzano delle maschere per filtrare la luce e creare nei microprocessori tutte le strutture necessarie al loro funzionamento.

Possibili alternative alle correnti tecniche di produzione ruotano attorno allo studio di nuovi materiali e tecniche di preparazione più precise. Un esempio interessante riguarda l’implementazione di componenti elettronici basati su polimeri organici, che hanno il potenziale vantaggio di essere flessibili, leggeri e biodegradabili.

Ci sono già in commercio alcuni esempi di componenti elettronici organici: basti pensare agli Oled (Organic Light Emitting Diodes), ovvero semiconduttori organici utilizzati come componenti luminosi (pixel) dei display. Dal 2004, telefonini Motorola e Samsung si avvalgono di questa tecnologia, e alcuni modelli Htc, Lg, Sony Ericsson e Nokia, così come alcuni televisori recenti, primo tra tutti il Sony Xel-1 lanciato nel 2008 come il primo televisore Oled.

Ovviamente, per miniaturizzare al massimo, vogliamo essere in grado di manipolare i componenti ultimi della materia, ovvero le molecole e gli atomi stessi. Qui si entra nel campo delle nanotecnologie, campo in cui la ricerca si fa di giorno in giorno più intensa a livello globale: dall’Europa agli Stati Uniti al Giappone gruppi di ricerca si impegnano nella comprensione e nell’implementazione di nuove tecnologie basate sull’utilizzo di molecole organiche, catene di Dna, o nanotubi sfruttabili per lo sviluppo di componenti elettronici efficienti e biodegradabili.

Per il momento però, i microchip organici sono ancora lontani e le loro potenzialità ancora oggetto di studio all’interno di università e centri di ricerca, che ricevono finanziamenti sia pubblici che privati per investigare le possibili nuove applicazioni delle nanotecnologie. In particolare, lo sviluppo di nuove nanotecnologie è uno degli obiettivi di ricerca dell’Unione Europea per questo quinquennio1 (2007-2013) a fronte di un investimento di 3,5 miliardi di euro, su un totale di 32 miliardi di euro investiti per salute (6 miliardi), agricoltura e biotecnologie (1,9 miliardi), informatica e comunicazione (9,1 miliardi), nanoscienze (3,5 miliardi), energia (2,3 miliardi), ambiente (1,8 miliardi), trasporti (4,1 miliardi), scienze socio-economiche (610 milioni), spazio (1,4 miliardi) e sicurezza (1,3 miliardi).

Perché investire in nanotecnologie? Un’ottima risposta la si ritrova nelle parole di Richard P. Feynman che descrisse così il potenziale delle nanotecnologie il 29 dicembre 1959 al meeting annuale della società americana di fisica al California Institute of Technology (Caltech)2: «Quali sarebbero le proprietà dei materiali se potessimo realmente sistemare gli atomi nel modo in cui vogliamo? Sarebbero molto interessanti da investigare teoricamente. Non sono in grado di vedere cosa succederebbe esattamente, ma difficilmente potrei dubitare che quando avremo un qualche controllo sull’arrangiamento delle cose su scale così piccole ci sarà un’estremamente maggior varietà di possibili proprietà che le sostanze potranno avere, e di diverse cose che potremo fare». Ebbene ora, agli inizi del XXI secolo, dopo più di cinquant’anni dal discorso di Feynman, siamo sulla buona strada per sistemare atomi e molecole a nostro piacimento. E trarne potenziale vantaggio.

Il vantaggio nelle nanotecnologie risiede nella loro potenzialità di produrre nuove soluzioni e migliori prestazioni in ogni settore di produzione, da quello medico, all’ingegneristico, a quello ambientale. Lo sviluppo di tecnologie basate su materiali biodegradabili porta infatti a un utilizzo più razionale delle risorse naturali. Inoltre, lo sviluppo di nuove tecnologie, anche e non solo basate sulla miniaturizzazione dei componenti elettronici, mira a soddisfare le necessità dei singoli individui quali mobilità, salute e sicurezza, migliorando la qualità della loro vita e il loro benessere. Si aggiunga che essendoci molteplici vantaggi nel ridurre le dimensioni dei microprocessori, quali maggiore velocità e minor consumo energetico per computazione, c’è un ulteriore marcato interesse verso la miniaturizzazione.

Come? Due sono le principali strategie attualmente investigate.

La prima considera la possibilità di spostare molecole e atomi grazie a campi elettromagnetici (un po’ come raccogliere un ago con una calamita). Questo può essere eseguito con uno strumento chiamato “microscopio a effetto tunnel” (Stm), sviluppato nel 1981 da Gerd Binnig e Heinrich Rohrer, all’Ibm di Zurigo, invenzione che portò loro il Premio Nobel per la Fisica nel 1986. In un Stm è presente una punta (formata da una manciata di atomi) in grado di analizzare una superficie posizionandosi estremamente vicino a essa. Questa prossimità permette di contare in maniera precisa gli elettroni che la lasciano, dopo averci applicato un campo elettrico. Questi elettroni provocano una corrente chiamata “di tunnelling”, perché questa procede attraverso il vuoto, ed è un effetto quantistico (in fisica classica, la corrente elettrica ha bisogno di un mezzo, come un filo di rame o l’aria, per propagarsi). La stessa tecnica può essere utilizzata per spostare le molecole su una superficie. Il problema è che, al momento, questo deve essere fatto manualmente (una molecola per volta), non è possibile farlo con tutte le molecole con cui ci piacerebbe farlo, in quanto queste devono possedere delle specifiche proprietà, e la strumentazione è attualmente molto costosa. Ma non è da escludere, anzi sembrerebbe ragionevole, ipotizzare lo sviluppo futuro di una macchina dai costi accessibili in grado di selezionare un gran numero di molecole da sistemare a nostro piacimento, creando così, molecola dopo molecola, le tracce necessarie al funzionamento di un microprocessore.

Il secondo filone invece, quello più affascinante, consiste nell’imparare a costruire molecole e atomi “intelligenti” in grado di posizionarsi autonomamente in maniera opportuna, ovvero sfruttando il concetto di auto-organizzazione molecolare.

In generale, per “auto-organizzazione” si intende il processo per cui un sistema incrementa il suo ordine senza alcun intervento dall’esterno. Così come in natura le formiche si auto-organizzano in colonie, le persone in società, le cellule in esseri viventi. Applicato alla chimica, il termine generalmente si riferisce alla capacità delle molecole di formare autonomamente strutture ordinate grazie alle forze intermolecolari agenti tra di esse. Tra gli esempi di strutture auto-organizzate presenti in natura si possono annoverare le membrane cellulari, la doppia elica del Dna, enzimi multicomponente e le capsidi dei virus.

Per auto-organizzarsi, le molecole non hanno bisogno di nient’altro che di se stesse poiché, in base alla loro forma e agli atomi che le compongono, sono in grado di interagire tra loro grazie a forze elettrostatiche. Ciò avviene in quanto le molecole sono composte da atomi, i quali contengono protoni di carica positiva ed elettroni di carica negativa. Queste interazioni tra molecole permettono loro di formare strutture basate sia sulla loro forma che sull’esatta natura dei loro componenti. È un po’ come giocare al meccano e avere di fronte giunzioni di forma diversa.

Questa capacità delle molecole di auto-organizzarsi autonomamente in architetture ben definite ha il potenziale di essere l’aspetto chiave per la produzione di nuovi dispositivi tecnologici su scala nanometrica, ovvero mille volte più piccoli degli attuali dispositivi in commercio, e l’idea di progettare molecole capaci di formare autonomamente le nanostrutture richieste appare l’alternativa economicamente e tecnologicamente più vantaggiosa. Infatti le molecole posso presentarsi in una varietà di forme, possono svolgere una molteplicità di funzioni (come raccogliere la luce, o condurre corrente), e sono in grado di formare strutture ordinate specialmente su superfici metalliche e semiconduttrici (il supporto per le tracce di un microprocessore è composto da un materiale semiconduttore). Inoltre, le strutture ordinate formate da molecole depositate su superfici possono essere facilmente esaminate, o meglio “fotografate” tramite Stm, e le loro proprietà studiate in dettaglio grazie ad appositi programmi di simulazione. E le possibili applicazioni di questi sistemi non mancano.

Lo studio di molecole auto-assemblate su superfici ha potenziali applicazioni sia per lo sviluppo e la produzione di pannelli solari organici, in cui molecole simili alla clorofilla delle piante possono essere impaccate in maniera tale da permettere un’efficiente cattura della luce, sia per la produzione di hard disk miniaturizzati, in cui ogni molecola (o gruppo di molecole) può rappresentare un bit di informazione, sia per la produzione di “nanoprocessori”, mille volte più piccoli degli attuali microprocessori. Ad esempio, già adesso maschere costituite da molecole (o meglio, polimeri) auto-organizzate vengono testate per un loro possibile utilizzo in litografia. Il processo pare funzionare, ma l’obiettivo è fare in modo che le molecole stesse formino le tracce, eliminando il bisogno di litografare la superficie dei microchip e quindi rendendo il processo economicamente più vantaggioso. Per raggiungere tale obiettivo, vengono studiate molecole semiconduttrici potenzialmente capaci di comportarsi come un transistor molecolare, e molecole capaci di trasportare la corrente e quindi di comportarsi come fili elettrici.

Le proprietà elettriche delle molecole, così come le strutture che queste formano, vengono alterate dalla superficie su cui si posano (ovvero il “substrato”). È quindi possibile calibrare queste proprietà scegliendo opportunamente sia le molecole che il supporto stesso. Questi vengono correntemente studiati sia sperimentalmente, con l’ausilio non solo di Stm ma anche semplicemente misurando la tensione agli estremi di una molecola e studiando le sue proprietà ottiche, che attraverso sofisticate tecniche di simulazione. Queste ultime permettono di comprendere in dettaglio la natura dell’interazione molecola/substrato, ovvero di capire come, quanto e perché si influenzino a vicenda in un delicato equilibrio.

Purtroppo le molecole, sebbene molto piccole, sono sistemi talmente complicati che richiedono milioni di ore di calcolo sui computer più potenti del pianeta per essere comprese. Fortunatamente però disponiamo di computer molto potenti che lavorano in parallelo, chiamati supercomputer. In un supercomputer migliaia di processori lavorano contemporaneamente per effettuare i calcoli richiesti dalle più moderne tecniche di simulazione. E ciò è molto conveniente: infatti, se la mia simulazione ha bisogno di un milione di ore di calcoli per essere completata (ovvero 114 anni!), avendo a disposizione mille microprocessori che lavorano contemporaneamente ognuno lavorando su una parte della simulazione, questa potrà essere completata in mille ore, il che corrisponde solamente a un mese e mezzo. Al momento3, il supercomputer più potente si chiama Jaguar, possiede 224.162 microprocessori, e si trova negli Stati Uniti, all’Oak Ridge National Laboratory. Il nostro cluster nazionale, ospitato dal Cineca4, si trova al settantesimo posto nella lista delle macchine più potenti al mondo, si chiama Sp6, e conta 5376 microprocessori.

Ma perché utilizzare tutte queste risorse allo scopo di sviluppare nuovi componenti miniaturizzati? Alta capacità di calcolo e dimensioni nanometriche si prestano per una miriade di applicazioni alcune delle quali sono a noi più vicine, ad esempio un lettore mp3 all’interno di un minuscolo auricolare, altre più fantasiose, come si vede in molti film di fantascienza in cui le popolazioni del futuro utilizzano chip sottocutanei invece di carte d’identità, passaporti e carte di credito! Parecchio interessanti e molto più concrete le applicazioni mediche: il sogno di creare microcomputer capaci di viaggiare all’interno del nostro corpo raccogliendo dati e aiutando i medici nelle loro diagnosi non è più, ormai, troppo lontano. Poi non mancano applicazioni in domotica (o automatizzazione domestica), con case “intelligenti” in grado di accendere/spegnere la luce, lo stereo, il televisore al nostro passaggio e, probabilmente, presto anche in grado di prepararci la cena!

Inoltre, risulta della massima importanza sottolineare come la sensibilità ecologica, a partire dalla biodegradabilità e dall’impatto ambientale dei nuovi dispositivi, sia uno degli aspetti chiave di queste nuove linee di ricerca. E si giunge a ragionare in termini di innegabile risparmio energetico. Infatti la miniaturizzazione permette di consumare meno energia per compiere calcoli più complessi, questo perché più piccolo è il componente elettronico e meno strada i dati devono fare per essere processati e poi perché nello spostare dati da una parte all’altra di un processore viene consumata corrente elettrica: un componente elettronico più piccolo permette quindi di risparmiare energia.

Con la miniaturizzazione tecnologica quindi avremo di fronte a noi la possibilità di avere a disposizione tecnologie molto più potenti, flessibili nelle potenziali applicazioni, e meno inquinanti di quelle attuali. Questa è la direzione che si sta prendendo. Non siamo ancora capaci di determinare con certezza quale linea di ricerca porterà la soluzione alla base delle nuove tecnologie del futuro, ma lo sforzo sinergico dei ricercatori nell’esplorare tutte le strade possibili sicuramente porterà a molteplici soluzioni innovative.

1. http://ec.europa.eu/research/fp7/pdf/fp7-factsheets_it.pdf.

2. http://calteches.library.caltech.edu/47/2/1960

Bottom.pdf.

3. http://www.top500.org/list/2010/06/100.

4. Il Cineca è un consorzio senza scopo di lucro che comprende 47 università italiane, Ogs, Cnr e il Ministero dell’Università e della Ricerca. Ha sede a Casalecchio di Reno (BO). N.d.R.

SARA FORTUNA laureata presso l’Università di Trieste, ha ricevuto nel 2010 il PhD in Chimica Teorica e Computazionale dall’Università di Warwick. Membro della Royal Society of Chemistry e dell’Institute of Physics, attualmente svolge attività di ricerca per il CNR presso il laboratorio di luce di sincrotrone Elettra e la Scuola Internazionale Superiore di Studi Avanzati (SISSA) a Trieste. La sua attività di ricerca si concentra sullo studio dell’auto-organizzazione di sistemi molecolari, campo multidisciplinare alle frontiere di fisica, chimica, scienze della complessità e scienza dei materiali.

Print Friendly, PDF & Email
Invia una mail per segnalare questo articolo ad un amico