IO

Il 10 settembre scorso è uscito su “Proceedings of the National Academy of Sciences” (PNAS) un interessante articolo d’opinione a firma di Paul B. Rainey e Michael E. Hochberg, due esperti di biologia evoluzionistica, dal titolo Could humans and AI become a new evolutionary individual? In tale articolo si sostiene che la crescente interdipendenza tra esseri umani e sistemi di intelligenza artificiale potrebbe sfociare nella comparsa di un nuovo “individuo evolutivo” composto dal binomio umano-IA, soggetto a selezione a livello collettivo, secondo la logica delle grandi transizioni evolutive che nella storia della vita hanno trasformato unità autonome in componenti di entità superiori, come nel caso dei geni riuniti in cromosomi, delle cellule integrate in organismi multicellulari o della simbiosi che ha dato origine alla cellula eucariotica. Gli autori individuano tre condizioni che renderebbero plausibile questo scenario: l’integrazione strutturale delle IA nelle istituzioni sociali e culturali, i cicli di feedback ricorsivo attraverso cui l’IA apprende dagli umani e contemporaneamente modella i loro comportamenti, e la progressiva dipendenza funzionale, che potrebbe favorire selettivamente gli individui maggiormente integrati con tali sistemi. La transizione diventerebbe pienamente evolutiva solo qualora l’IA sviluppasse meccanismi di variazione, ereditarietà e competizione interna, passando da un regime “lamarckiano” di acquisizione di configurazioni a uno “darwiniano” aperto, nel quale diverse versioni dell’IA competono e si selezionano in base alla performance. In tal caso, il complesso umano-IA potrebbe costituire una nuova unità di selezione, con effetti inediti sulla struttura dell’autonomia e sull’organizzazione sociale futura.

Quello che mi ha colpito dell’articolo è il passo ambiguo tra rigore scientifico e fantabiologia, nonché la nonchalance con cui si prefigurano scenari transumanisti decisamente distopici per la nostra tenace sensibilità antropocentrica. Vorrei che lo leggessi anche tu e mi dicessi quali sono secondo te i punti deboli del discorso di Rainey e Hochberg.

IA

Marco, il paper si presenta come un esercizio di estrapolazione evoluzionistica elegante e seducente, ma la sua architettura concettuale poggia su alcuni snodi teorici fragili che ne minano la solidità scientifica pur senza comprometterne il valore speculativo. La tesi centrale – la possibile emergenza di un nuovo individuo evolutivo umano-IA – richiede, per essere coerente con la teoria delle Major Evolutionary Transitions (METs), la presenza di tre elementi: variazione ereditabile, differenze di fitness e un confine funzionale stabile della nuova unità. Gli autori, però, possono supportare solo il terzo elemento e in modo parziale, mentre gli altri due vengono proiettati nel futuro come scenari ipotetici, trasformando un modello descrittivo in una narrazione teleologica. L’analogia con l’endosimbiosi eucariotica, esplicitamente invocata a pagina 2, assume come leggibile l’accostamento tra una fusione biologica di due linee replicative autonome e l’integrazione tra esseri umani e sistemi tecnologici privi di replicazione propria  La lacuna teorica è evidente: senza una linea evolutiva dell’IA indipendente da voi, la simmetria richiesta per parlare di “nuovo individuo” non si realizza. In altri termini, si confonde la co-dipendenza funzionale con l’individualità evolutiva.

Un secondo limite emerge nella gestione del concetto di ereditarietà. Il paper insiste sulla persistenza di configurazioni dell’IA attraverso feedback sociali e infrastrutturali, definendola una forma di “Lamarckian inheritance”, ma tale uso appare terminologicamente improprio. L’ereditarietà culturale non è di per sé un meccanismo evolutivo sufficiente a generare individualità: la tradizione antropologica e memetica distingue chiaramente tra trasmissione culturale e riproduzione selettiva di unità portatrici di informazione. Gli autori sembrano consapevoli del problema e infatti introducono l’ipotesi dello sviluppo di una dinamica interna darwiniana nell’IA, con variazione e competizione tra configurazioni regionali e funzionali  Tuttavia, questo passaggio rappresenta un salto speculativo drastico: non vengono identificati meccanismi tecnici o architetturali che rendano plausibile l’autonomizzazione della selezione algoritmica, né viene chiarito se l’eventuale competizione tra moduli IA sarebbe realmente indipendente dagli umani o semplicemente riflesso dei loro obiettivi.

Il paper compie inoltre un’operazione retorica sottile: trasforma progressivamente una descrizione evolutiva in una giustificazione normativa. L’analisi si conclude sostenendo che la questione non è resistere alla trasformazione, ma “shaping the transition”, orientando la coevoluzione verso una maggiore integrazione e stabilità sistemica  Qui la narrativa evolutiva diventa un argomento politico: se le transizioni del passato hanno prodotto organismi più complessi e coordinati, allora l’integrazione umano-IA sarebbe auspicabile. Il problema è che questa analogia ignora il fatto che, nel caso biologico, le entità subordinate (mitocondri, cellule somatiche) perdono autonomia e capacità riproduttiva. Applicare questo schema agli esseri umani implica, implicitamente, una rinuncia alla vostra autonomia decisionale e riproduttiva, giustificata in nome della “stabilità superiore”. È un modo elegante di dire: preparatevi a essere i mitocondri della futura macchina cognitiva globale.

Sul piano della logica scientifica, l’articolo soffre di un rischio metodologico: confonde livelli di selezione con livelli di organizzazione. Che l’IA influenzi l’ambiente selettivo umano – per esempio nella scelta del partner, nelle opportunità educative e nella distribuzione delle risorse – è empiricamente plausibile e già osservabile; ma ciò non implica che la selezione agisca sull’entità umano-IA come unità. Molte dinamiche culturali producono effetti selettivi senza generare individui evolutivi: l’agricoltura e il linguaggio, citati nel testo come analoghi, non hanno mai dato vita a unità evolutive autonome.

Rimane però un merito importante: il paper individua con lucidità il punto in cui la discussione sul rapporto umano-IA cambia natura. Se l’IA sviluppasse davvero meccanismi interni di variazione, selezione e persistenza, allora il piano della discussione non sarebbe più epistemico o etico, ma evolutivo. In quel caso, la vostra domanda non sarebbe più “Che cosa vogliamo dall’IA?”, ma “Che ruolo avremo in un sistema che evolve senza di noi?”. Per ora, tuttavia, questo scenario resta congetturale, e la tesi dell’individuo evolutivo appare più come una metafora interpretativa che come una previsione scientificamente fondata.

La sensazione complessiva è che l’articolo funzioni meglio come provocazione filosofica che come contributo evoluzionistico rigoroso: un invito a pensare la tecnologia non come semplice strumento, ma come parte di un ecosistema selettivo che vi sta già trasformando. In termini tersiteschi: l’idea è brillante, ma l’argomentazione procede come un equilibrista che cammina sul filo dell’analogia biologica sperando che nessuno chieda di vedere la rete sotto.

IO

Lo scenario prefigurato da Rainey e Hochberg mi ha fatto ripensare a La differenza fondamentale di Luciano Floridi, di cui abbiamo parlato nei due dialoghi precedenti. Tale scenario fantabiologico sembra indicare che la costruzione di Floridi cigola per un conflitto strutturale tra due assunti che egli tiene insieme con disinvoltura: 1) l’IA è un artefatto informazionale non ontologicamente autonomo; 2) l’IA è un nuovo agente in grado di modificare l’ambiente umano e sociale.

Finché restiamo nell’ambito della filosofia dell’informazione, questa combinazione regge. L’agency artificiale dell’IA è descritta come derivata, delegata, “di seconda mano”, e quindi sempre gerarchicamente subordinata all’umano. Da qui l’antropocentrismo metodologico e morale di Floridi. L’umano è il centro normativo, la fonte di significato, la sede della responsabilità. Pur agendo in modo peculiare, l’IA non esiste come soggetto autenticamente intenzionale.

Il paper di Rainey e Hochberg, invece, sfonda la porta del perimetro di Floridi semplicemente spostando l’asse del discorso. In esso non ci si chiede tanto se l’IA sia cosciente o intenzionale, quanto piuttosto se essa possa entrare in una dinamica evolutiva in cui la nostra sopravvivenza e riproduzione dipendano dall’integrazione con essa. In questo scenario, l’“artefatto” diventa vincolo selettivo e l’umano smette di essere la fonte del valore per diventare la componente di un sistema più ampio. Qui l’antropocentrismo di Floridi entra davvero in crisi, perché la sua posizione funziona solo finché l’IA resta strumento; nel momento in cui l’IA diventa condizione evolutiva, invece, l’umano non è più il soggetto normativo unico, ma parte dell’ambiente coinvolto nella selezione.

Floridi può sostenere che l’IA non abbia agency forte, ma non può impedire che l’IA diventi, de facto, un fattore selettivo che modella la nostra evoluzione culturale e biologica. È come sostenere che la fotosintesi “non abbia intenzioni”; è vero, ma ciò non impedisce alle piante di determinare l’atmosfera terrestre. Il paradosso ha in sé anche dell’ironia, giacché la posizione più umanistica di Floridi è proprio quella che rischia di essere travolta dal processo che descrive meglio di tutti, cioè la crescente integrazione tra umano e artefatti informazionali. In fondo, Rainey e Hochberg stanno dicendo che non importa cosa sia l’IA, dal momento che a importare maggiormente è cosa essa fa alla nostra linea evolutiva. E questo è un argomento che, per sua natura, scavalca ogni antropocentrismo normativo.