Chimica robot e rivoluzione delle IA

In copertina: In Their Own Image #12 (dettaglio), 2022, Maria Mavropoulou

 

Anche sul fronte della chimica le tecnologie all’avanguardia ispirano nuovi modi di pensare la ricerca, generando sfide uniche nel loro genere.

di Francesca Martelli


Le luci bianche della stanza rimbalzano contro la superficie della macchina. Il braccio robotico montato su ruote, finalmente libero dal suo imballaggio, è pronto per cominciare a svolgere gli ordini che gli arrivano. Ma appena comincia a muoversi in direzione del bancone opposto, si trova davanti ad un ostacolo inatteso: i suoi 400 kg hanno sfondato il pavimento. 

La stanza, un laboratorio di chimica dell’Università di Liverpool, era stata preparata nelle settimane precedenti per l’arrivo del nuovo assistente meccanico. Il professore Andy Cooper e un suo studente avevano organizzato il tutto, occupandosi di predisporre la strumentazione del laboratorio in modo tale che il robot, un braccio meccanico molto simile a quelli che si vedono nelle pubblicità delle auto mentre montano i telai, potesse utilizzarla. Si trattava di un progetto che era costato loro molto impegno e che speravano potesse rappresentare una pietra miliare per la ricerca chimica. A prendere le decisioni sulle azioni da fare eseguire al robot non sarebbe stato un essere umano ma una intelligenza artificiale. Questa era la vera novità del laboratorio. Gli esperimenti del professore avevano cominciato a svolgersi in uno spazio chimico vastissimo, ovvero una serie molto elevata di variabili concernente proprietà come temperatura, pressione, energia di ionizzazione, proprietà farmacologiche, ingombro sterico e così via, tali che la mente umana non avrebbe mai potuto scandagliarle in modo soddisfacente in tempi ragionevoli, a meno di un ritrovamento fortuito, come è capitato del resto in molti casi storici. La strada che fino ad oggi ha portato ai risultati più sorprendenti nella ricerca chimica non è tanto l’analisi razionale di grandi quantità di dati, quanto piuttosto la serendipità, il concatenarsi casuale di eventi fortunati. Un aneddoto che viene raccontato oramai in tutte le aule universitarie alle matricole di un corso di chimica è l’invenzione del post-it. Lo strato adesivo sul retro del foglietto, che è appiccicoso ma non troppo, è il frutto di ricerche degli ingegneri della 3M, famosa azienda che produce anche lo scotch, i quali avevano come obiettivo di trovare una colla eccezionalmente forte.

Ecco che lo sviluppo delle intelligenze artificiali aveva rappresentato una soluzione percorribile ai ricercatori. Ma l’intelligenza artificiale agisce dentro circuiti di silicio. La ricerca chimica ha invece bisogno di un corpo capace di muoversi nello spazio, mescolare reagenti secondo le ricette formulate, fare analisi ai prodotti delle reazioni e prendere decisioni in base a quei dati. Cooper aveva, per sua ammissione, inizialmente pensato ad assumere un nuovo impiegato, un tecnico di laboratorio, un ricercatore, che potesse ricevere istruzioni dall’IA sugli esperimenti da condurre, fare le analisi e restituire i dati ottenuti, in modo tale che l’IA potesse continuare la ricerca. Riflettendoci su però aveva realizzato che non sarebbe stato facile trovare qualcuno con le competenze adeguate disposto a fare quel lavoro. Non rimaneva che acquistare un robot e farlo diventare il corpo della macchina. 

La storia del laboratorio di Andy Cooper si trova assieme a molte altre in un articolo di James M. Crow su Chemistry World, una rivista specializzata edita dalla casa editrice della Royal Society of Chemistry. In questo testo viene presentata una raccolta di casi recenti in cui chimica, robot e intelligenza artificiale sono stati uniti a lavorare per la ricerca scientifica, contro la tendenza diffusa tra i chimici ad affidarsi quasi esclusivamente alle loro capacità manuali. 

Razionalizzare le scoperte è naturalmente uno degli scopi della ricerca scientifica fin dai suoi albori, quando Sir Francis Bacon elabora il concetto di experimentum crucis, quell’esperimento che dovrebbe discriminare tra due teorie concorrenti alla spiegazione di un fenomeno per determinare quella più adeguata. I chimici computazionali hanno spostato la sperimentazione dal laboratorio ai circuiti del computer, dato che esistono modelli fisico-matematici di molecole e reazioni per cui è possibile fare simulazioni in silico. Purtroppo, chimici computazionali e chimici sperimentali non si incontrano spesso e le rispettive competenze rimangono isolate nei recinti delle diverse discipline. Per questo, la combinazione di robot e intelligenza artificiale è di grande interesse: consente di aprire i laboratori ad un uso più esteso e proficuo del computer come parte attiva nel design degli esperimenti. 

All’università di Toronto il professor Alàn Aspuru-Guzick sta lavorando su un robot che riesca ad entrare in uno spazio qualsiasi, disordinato, e come un essere umano riesca ad orientarsi per trovare ed usare gli strumenti che gli servono. Infatti, bracci meccanici come quello di Cooper hanno il limite di doversi trovare in un ambiente fortemente organizzato in cui gli oggetti vengono localizzati attraverso coordinate. Una sfida importante riguarda, a questo proposito, il fatto che strumenti di laboratorio in vetro come beute, becher e pipette graduate non riflettono la luce come farebbe un oggetto in plastica colorata, essendo trasparenti. Nel laboratorio di Aspuru-Guzick hanno quindi ideato un sistema che riesce a riconoscere pezzi di vetreria grazie a un sistema di riconoscimento che usa immagini dello stesso oggetto prese da diverse angolazioni. Anche noi umani facciamo la stessa cosa, solo in maniera istintiva. 

L’ingegnere chimico Milad Abolhasani invece si è trovato a lavorare alla ricerca di nuovi materiali avanzati, cioè materiali che sono stati ingegnerizzati in modo tale da possedere proprietà superiori rispetto a quelli tradizionali, un perfetto terreno di incontro tra sperimentazione e intelligenza artificiale. In questo tipo di ricerca, spesso si ha a che fare con uno spazio chimico definito da un numero elevato di variabili. Abolhasani racconta un esempio: quando si hanno sei variabili e si vogliono esplorare 10 livelli di ognuna di esse, si ha un esperimento in cui si devono testare letteralmente un milione di diverse condizioni sperimentali. Grazie all’intelligenza artificiale e al machine learning in particolare, è possibile esplorare questo spazio in maniera più efficiente. Combinando l’IA alla sua esperienza nell’ambito della microfluidica, Abolhasani è riuscito a costruire un laboratorio chimico che può essere gestito da un computer nelle fasi di ideazione degli esperimenti, di test e di analisi dei risultati, arrivando a compiere centinaia di reazioni in 24 ore. 

La chimica è una scienza moderna. Le pratiche di laboratorio sono state codificate rigorosamente nel Settecento, quando ci si rese conto che i luoghi in cui si svolgevano le ricerche erano pieni di ampolle senza etichetta e polveri e soluzioni di cui tutti avevano dimenticato l’origine. Chi sperimentava non teneva un diario di laboratorio e così si perdeva traccia degli esperimenti trattati. Il chimico Pierre-Joseph Macquer, nel 1766, scriveva alla voce Laboratorie del Dictionnaire de chymie: “una persona tutta occupata a far diverse esperienze passa da un lavoro a un altro, e vedendo di poter conoscere facilmente i prodotti delle prime operazioni, non li mette in ordine; […] non usandosi la debita diligenza, ordine e pulizia, si perde talvolta il frutto di tante fatiche”. I laboratori di chimica in quegli anni stavano subendo grossissime trasformazioni: le pratiche alchemiche stavano lasciando il posto alla chimica sperimentale, disciplina istituzionalizzata, che si avvaleva di numerose apparecchiature sperimentali (ad esempio la pompa pneumatica per creare il vuoto) accuratamente descritte dall’abate Jean Nollet nel manuale Leçons de physique éxperimentale pubblicato nel 1743.  

Se l’introduzione degli strumenti ha reso la chimica una scienza a tutti gli effetti, ora ci troviamo davanti ad un cambiamento potenzialmente altrettanto forte. Nonostante le iniziali preoccupazioni sul rapporto tra uso estensivo delle IA e lavoro umano, la comunità scientifica conviene sul fatto che l’intelligenza artificiale non minaccia il nostro ruolo nella ricerca, anzi ci dà una via d’accesso a nuove prospettive sul comportamento della materia. La speranza è ancora quella di migliorare la riproducibilità degli esperimenti, problema che attanaglia la disciplina da quando è nata oltre tre secoli fa e causata in parte dall’imprevedibilità del comportamento umano. Disordine e dimenticanze, omissioni nei quaderni di laboratorio, timer che suonano e non vengono ascoltati, falsificazione dei risultati per fare bella figura, sono ancora parte della vita di laboratorio. Ma non è tutto qui: la chimica è una scienza particolare perché se da un lato si cerca la spiegazione teorica ai fenomeni, vi sono ancora moltissime regole euristiche. È noto che la chimica abbia da sempre fatto affidamento su regole empiriche capaci di aiutare il ragionamento, distillando concetti complessi e dati confusi e poco chiari in principi semplici e facili da usare. Un esempio sono i tipi di legame, i raggi atomici, le diverse scale di elettronegatività o anche gli stati di ossidazione. Queste regole sono estratte combinando dati sperimentali e cercando di tirarne fuori delle “rule of thumb”, regole empiriche che possano semplificare il lavoro concettuale molto usate anche in ingegneria. Queste regole venivano estratte manualmente a partire dai dati raccolti.

La tavola periodica è il primo e il più noto esempio di questo tipo di classificazione arbitraria ma estremamente utile. Quella che tutti abbiamo visto appesa in qualche aula di scuola segue il modello introdotto da Dmitri Mendeleev nel 1869. Mendeleev non era il primo a tentare di classificare gli elementi chimici. Già Antoine Lavoisier, uno scienziato francese che ebbe un ruolo centrale nello sviluppo della chimica in vera e propria disciplina scientifica, riconobbe già a partire dal 1789 nel suo Trattato elementare di chimica delle regolarità nelle proprietà delle sostanze e degli elementi. Nel corso del Settecento si erano ottenuti progressivi miglioramenti tecnologici negli strumenti di analisi nel laboratorio che ora consentivano una migliore comprensione della composizione della materia e che portarono alla scoperta dei singoli elementi chimici come li conosciamo oggi. Fu proprio Lavoisier a ufficializzare la scoperta dell’elemento ossigeno attraverso una rivoluzionaria teoria della combustione nel 1778. Al suo tempo infatti la combustione veniva spiegata attraverso la teoria del flogisto, un misterioso principio di infiammabilità posseduto da certe sostanze e non da altre. 

La classificazione delle sostanze, da sempre uno degli obiettivi della chimica, trova una svolta con Mendeleev nel 1869. All’epoca si conoscevano 63 elementi e lo scienziato russo decise di dividerli in otto colonne in base a regolarità osservate al crescere del peso atomico. La distinzione fatta da Mendeleev, poi confermata da studi successivi per cui gli elementi si distinguono in base al numero di protoni (detto numero atomico, scoperto da Henry Moseley nel 1912 grazie a studi fatti con i raggi X), aveva un pregio: lasciava spazio per l’ignoto. Dalla sua classificazione si era accorto infatti che erano presenti delle discontinuità e invece di cercare fittiziamente di tappare questi elementi di disordine pensò che potessero essere la guida per nuove scoperte. Grazie a questa decisione, nel tempo la ricerca scientifica si è dedicata tra le altre cose alla scoperta di nuovi elementi e si è arrivati a completare la tavola di Mendeleev, quasi raddoppiando il numero di elementi noti facendolo crescere a 118. 

Per quanto importante e utile si sia rivelata la tavola di Mendeleev, non si tratta di certo dell’unica. Il sito meta-synthesis.com si autoproclama il database internet delle tavole periodiche e vanta più di mille e cento differenti entrate nella sua raccolta. Molte sono rivisitazioni della tavola di Mendeleev. Tuttavia, in base ai parametri che si scelgono di mettere in relazione si trovano anche sistemi periodici circolari, elicoidali, a barre tridimensionali, grafici con linee che creano reticolati complessi come la pianta di una città medievale. Questo ci fa capire che basta cambiare anche di poco un criterio di classificazione per dare origine a nuove visioni del mondo. 

Ma torniamo alle inquietudini che sembrano dover accompagnare l’introduzione di ogni nuova tecnologia. Vista l’indipendenza di questi nuovi laboratori che apparentemente si gestiscono da sé diventa lecito chiedersi cosa potrebbe succedere se le intelligenze artificiali venissero lasciate a se stesse e cominciassero a produrre conoscenza in modo veramente autonomo. Una disturbante ipotesi arriva da Ted Chiang, che nel saggio “L’evoluzione della scienza umana” (pubblicato nel 2000 su uno speciale della rivista Nature con il suggestivo titolo “Catching crumbs from the table”) immagina la scienza come interamente gestita da enti costituiti da parti meccaniche e circuiti in silicio e di fatto incomprensibile agli esseri umani. La pubblicazione dei risultati di una ricerca, in questo racconto, diventano una appendice superflua che viene presto ignorata da questi scienziati di nuova generazione, che comunicano tra loro in modo ben diverso. Le riviste diventano una sorta di compassionevole ma approssimativa divulgazione delle ricerche che le menti superiori offrono agli umani, che comunque non riescono a stare al passo. Apparentemente la ricerca metaumana, come viene chiamata nel saggio, è capace di apportare avanzamenti indiscutibili nella vita di tutti ma gli umani hanno completamente perso il controllo di questa produzione di conoscenza. Il lavoro umano diventa quindi un rincorrere il metaumano, un lavoro di ermeneutica che cerca di riportare la scienza alla portata degli umani. Questo lavoro di decifrazione coinvolge anche gli oggetti, gli artefatti ideati sulla base della nuova conoscenza. Lo scopo degli umani diventa allora quello di cogliere quali siano i principi fisici che ci sono alla base, come se il nostro gatto di casa volesse cercare di capire cosa sono le radiazioni a partire dal forno a microonde che abbiamo in cucina. 

Possiamo pensare che la ricerca scientifica prenderà una piega del genere? Al momento siamo piuttosto distanti da questo scenario. Quello che noi chiamiamo intelligenza artificiale in realtà sono modelli di machine learning che procedono interpolando le informazioni, non estrapolandole, quindi c’è una sorta di chiusura della conoscenza che può essere prodotta. L’interpolazione è un procedimento matematico che consente di stimare il valore di una funzione a partire da altri punti presenti nel set di dati, come se noi cercassimo di risalire alla temperatura media di un certo anno passato, il 1956, a partire dalla nostra conoscenza delle temperature medie del 1950, 1954, 1960. L’estrapolazione invece consiste nel prevedere valori ipotetici che ricadono fuori dal data set per prevedere valori futuri, ad esempio la temperatura media del 2048. Sebbene esistano modelli matematici di previsione, non rientrano sotto il termine portemanteau di intelligenze artificiali. Tutto quello che produce una IA viene da qualcosa che essa ha già visto. Il vantaggio sta nel fatto che è possibile creare modelli di machine learning estremamente complessi e molto più efficienti del cervello umano nel riconoscere pattern e relazioni sottostanti a un determinato insieme di dati. Gli algoritmi che sono capaci di fare questo sono chiamati reti neurali, perché sono composti da singoli nodi che hanno collegamenti con nodi precedenti e successivi, in maniera simile ai neuroni biologici. Come avvengano le connessioni tra i nodi non può essere determinato a priori e ciò rimane coperto da una certa insondabilità – la quale non può che contribuire all’aura di trepidazione che avvolge questa tecnologia.  

L’espansione della conoscenza rimane ad oggi un compito strettamente umano: le reti neurali artificiali infatti non sono in grado di imparare da se stesse. Per farlo è necessario avere a disposizione la metacognizione, quella particolare abilità di essere consapevoli dei propri processi cognitivi e quindi di controllarli e di valutarli. Un umano può imparare dal proprio pensiero perché mentre sta facendo un ragionamento esiste una sorta di feedback sul pensiero stesso e ci consente di dare una valutazione al risultato del nostro ragionamento. Ad esempio siamo consapevoli che quando siamo arrabbiati “non abbiamo la mente lucida” e quindi i nostri ragionamenti sono distorti rispetto a quelli che faremmo in un momento di serenità. Un algoritmo non ha questa abilità. La valutazione di un output rimane esterno all’algoritmo stesso e questo fa sì che una IA non possa auto-valutare la qualità di un certo risultato che ha prodotto. 

Dotare le intelligenze artificiali di un corpo con cui possano interagire con il mondo reale è un progetto ambizioso che sta prendendo vita in svariati laboratori di chimica. Per certi versi sembra l’unica soluzione per testare i ragionamenti e gli esperimenti delle IA. L’inversione di ruoli che vede  la macchina dare istruzioni all’essere umano è una pillola difficile da mandare giù. Ma non si vuole rinunciare alla superiore efficienza che queste tecnologie presentano nell’esplorare e nel classificare lo spazio chimico, che appare ora più vasto che mai. La scoperta di una manciata di elementi chimici ha portato alla tavola periodica e questa a sua volta si è rivelata fondamentale nel guidare la ricerca verso nuove frontiere della conoscenza. La sinergia tra chimica, macchine virtuali e corpi meccanici forse renderà superflua la professione del chimico, ma nel frattempo forse riuscirà a svelare nuove trame che governano la materia nel nostro mondo

Rispondi