
Poter modificare geneticamente i batteri trasformandoli in fabbriche di farmaci, come l'insulina, ma anche il rischio di ottenere microganismi potenzialmente pericolosi : erano queste le grandi opportunità e le incognite che il 24 febbraio 1975 spinsero i pionieri delle ricerche sull' ingegneria genetica a riunirsi in California, ad Asilomar , per darsi regole che misero nero su bianco e che da allora sono diventate un punto di riferimento in tutto il mondo ogni volta che nella ricerca si aprono nuove frontiere e si entra in territori inesplorati . E' accaduto con la biologia sintetica , con le nanotecnologie e sta accadendo con l' intelligenza artificiale . "Quanto hanno fatto allora i biologi è un buon modello cui guardare ", ha detto recentemente uno dei pionieri delle ricerche sull'intelligenza artificiale, il Nobel Geoffey Hinton .
Come oggi accade pensando ai possibili sviluppi dell'IA in molti settori della società, anche all'inizio degli anni Settanta le tecnologie per manipolare il Dna avevano aperto possibilità inaspettate . Poter spostare un frammento di Dna da un organismo a un altro per studiarne la funzione " permetteva a chiunque di fare qualsiasi cosa ", aveva detto il pioniere di quella tecnica, il Nobel Paul Berg.
La stessa preoccupazione era stata espressa nel 1973 in una lettera firmata da numerosi ricercatori e pubblicata sulla rivista Science. Così nel 1974 Berg e gli altri pionieri delle ricerche sul Dna invitarono i colleghi a una pausa di riflessione , una moratoria dei loro esperimenti "fino a quando non fossero stati valutati meglio i potenziali rischi di queste molecole di Dna ricombinante o fino a quando non fossero stati sviluppati metodi adeguati per prevenirne la diffusione". Li invitarono quindi a confrontarsi ad Asilomar nel 1975.
Arrivarono in 150 fra ricercatori, rappresentanti di istituzioni governative e di aziende e 16 giornalisti e per tre giorni si confrontarono in discussioni animate che portarono a stilare regole per la sicurezza che ancora oggi sono un modello in tutto il mondo. Da allora ' Asilomar ' è il simbolo della capacità della comunità scientifica di autoregolarsi senza il coinvolgimento dei politici e il modello per tanti altri settori di frontiera, come la biologia sintetica, le nanotecnologie e l'intelligenza artificiale.
Risale al 5 gennaio 2017 , per esempio, la ' Conferenza di Asilomar sulla AI benefica ' organizzata dal Future of Life Institute. Anche in quel caso parteciparono molti ricercatori impegnati in discipline diverse, come l'economia, l'etica e la filosofia anche se, a differenza di quanto accadde nel 1975, molti dei partecipanti lavoravano per aziende private.
La conferenza di Asilomar ha influenzato anche la lettera aperta del 22 marzo 2023 nella quale più di 30mila persone, fra le quali Elon Musk, hanno espresso preoccupazione per i sistemi di IA "che possono rappresentare rischi profondi per la società e l'umanità".
Nel maggio 2024 è stata la volta di un nuovo appello in questa direzione.
Sull'impatto delle loro ricerche si è interrogato, all'inizio di quest'anno, anche il gruppo di ricerca cinese della Fudan University che ha messo a punto un sistema di intelligenza artificiale capace di auto-replicarsi. "Speriamo - hanno scritto i ricercatori - che la nostra scoperta serva come allerta per la società, per concentrare maggiormente gli sforzi tesi a comprendere e a valutare i possibili rischi anche a livello internazionale".
© RIPRODUZIONE RISERVATA