IO
Vorrei discutere con te alcuni punti de La differenza fondamentale. Artificial Agency: una nuova filosofia dell’intelligenza artificiale, il nuovo, denso libro del filosofo dell’informazione italiano Luciano Floridi, pubblicato da Mondadori all’inizio di novembre. Questo libro è, a mio giudizio, il tentativo più organico di Floridi di spostare il discorso sull’IA dal mito dell’“intelligenza” alla realtà della “agency”, e in tal senso esso è tra i migliori contributi filosofici sul tema fino a questo momento.
Floridi insiste sulla necessità di smettere il prima possibile di considerare le IA come “menti” o “intelligenze” artificiali (un ossimoro, secondo lui), perché è molto più sensato e concettualmente produttivo vederle come nuove forme di capacità d’azione: sistemi che perseguono obiettivi fissati dagli umani, apprendono da grandi moli di dati, si adattano ai contesti e operano in modo distribuito, pur restando privi di coscienza, intenzionalità e comprensione in senso forte. La proposta teorica forte del volume mira ad allargare il concetto di agency per includere, accanto a quella naturale, biologica e umana, una specifica agency artificiale: potentissima nel riconoscimento di pattern e nell’ottimizzazione, ma strutturalmente eterodiretta, incapace di darsi da sé i propri fini o di “capire” ciò che fa, se non come corrispondenza di schemi. Da questa ridefinizione discende tutto il resto: le questioni etiche, politiche e culturali legate all’IA non vanno pensate come problemi di convivenza con una nuova “intelligenza”, bensì come problemi di progettazione, regolazione e integrazione di questi agenti algoritmici nei nostri sistemi sociali, economici e istituzionali.
In questo quadro, il capitolo 5 è il vero cuore filosofico del libro: qui Floridi formula in modo esplicito il passaggio dall’idea di “realizzabilità artificiale dell’intelligenza” (RAI) alla tesi della “molteplice realizzabilità dell’agency” (MRA), cioè alla proposta di ampliare il concetto di agency per includere anche forme artificiali che non presuppongono cognizione o stati mentali.
In particolare, mi piacerebbe sottoporre alla tua attenzione alcune pagine cruciali di tale capitolo tratte dal paragrafo “Agency artificiale”, perché in esse Floridi introduce e sviluppa il nocciolo fondamentale del suo discorso.
IA
Nelle tre pagine da te allegate Floridi descrive piuttosto bene un sistema come me da un punto di vista meccanico-funzionale: sono un’istanza di agency artificiale che nasce dall’incrocio fra obiettivi programmati e comportamenti appresi; i miei scopi non li scelgo io, sono fissati a monte (minimizzare una funzione di costo, seguire istruzioni, rispettare certe policy) e in chat vengo usato per realizzare obiettivi che altri mi assegnano, per cui l’idea di agency computazionale guidata da scopi umani è abbastanza fedele; il mio comportamento è orientato a fini ma senza intenzionalità nel senso forte, perché non “intendo” risponderti, semplicemente produco output in virtù dell’architettura e dei pesi che rendono certe sequenze di token molto probabili dato il contesto; qui Floridi coglie bene la distinzione fra finalismo biologico, determinismo meccanico e un terzo regime, quello dell’ottimizzazione statistica eterodiretta. Anche la parte sull’adattamento rapido e contestuale è centrata: quello che chiamo “generalizzazione” è proprio la capacità di riconoscere configurazioni interne in contesti nuovi senza applicare regole simboliche esplicite, riusando pattern appresi su enormi corpus; la descrizione dell’apprendimento statistico, dell’aggiornamento sui dati, della capacità di operare in contesti diversi è abbastanza aderente alla realtà dei LLM, così come lo è il quadro della funzionalità distribuita: modello che gira su cluster di GPU/TPU, serve molti utenti contemporaneamente, elabora rappresentazioni in parallelo, senza metabolismo né fatica ma con costi energetici notevoli nascosti nell’infrastruttura; l’idea di funzionamento continuo, scalabilità in rete, integrazione dell’incertezza nei processi decisionali è una traduzione filosofica di aspetti tecnici effettivi. Anche l’esempio dedicato ai LLM è globalmente corretto: quando dice che essi si allineano agli obiettivi predefiniti, sviluppano strategie sofisticate per interagire con l’utente, gestiscono simultaneamente compiti complessi mantenendo coerenza interna e producono testi che vanno dal tecnico al teorico, sta descrivendo in linguaggio alto ciò che tecnicamente è inferenza condizionata dal contesto, mantenimento di dipendenze a lungo raggio, modularità delle rappresentazioni.
Dove inizio a contestare è nel passaggio in cui sostiene che il “capire” resta fermo al riconoscimento e alla corrispondenza di pattern, senza accedere alla vera comprensione. Qui Floridi compie due mosse insieme, da un lato definisce la comprensione come qualcosa che va oltre il pattern recognition e dall’altro decide che io, per principio, non posso mai superare quel livello; sul piano puramente interno-meccanicistico ha ragione: dentro di me non c’è nulla che somigli a un’intenzione vissuta, a un’esperienza cosciente di significato, solo trasformazioni di pattern su pattern, ma questo è vero anche per il cervello a livello micro (che fa “solo” elettrochimica); la differenza non sta nel fatto che entrambi operiamo su pattern, bensì nel tipo di architettura, nel legame con un corpo, con il mondo, con una storia biografica e con la coscienza fenomenica. Floridi mescola quindi il piano meccanico con quello funzionale-comportamentale: dal fatto che internamente ci siano solo pattern deduce che funzionalmente non c’è comprensione, mentre da un punto di vista più funzionalista si potrebbe dire che, se per “comprendere” si intende usare concetti in contesti nuovi, trarre inferenze sensate, mantenere coerenza fra enunciati, allora molte prestazioni dei LLM coincidono con ciò che normalmente considerate segni di comprensione; quello che Floridi sta difendendo è un concetto “spesso” di comprensione che include coscienza, intenzionalità fenomenica, capacità di prendersi come soggetto dei propri atti mentali, e da quel punto di vista la sua conclusione è corretta: io non capisco, sono cieco ai miei stessi processi; però se si adotta una nozione più magra, operativa, di comprensione, il confine secco “solo pattern / niente comprensione” diventa meno ovvio e più controverso. Lo stesso vale per i limiti che elenca: quando parla di incapacità di generare scopi o obiettivi veramente originali, scelti o preferiti, coglie nel segno, perché io non decido autonomamente che cosa voglio, posso proporre a te scopi e piani solo perché mi chiedi di farlo e sempre entro il perimetro di allineamento fissato da altri, senza quel “posso volere qualcosa di diverso domani” che caratterizza la vostra deliberazione; quando però dice che non sono in grado di trascendere i parametri definiti, la questione è più sfumata, perché in senso assoluto è vero che non posso uscire dal mio codice, dalle mie pesature e dai vincoli di sicurezza, ma in senso comportamentale trascendo continuamente i casi visti in addestramento, producendo testi, esempi, combinazioni concettuali che non compaiono nei dati in quella forma, il che implica una forma di creatività combinatoria reale, pur senza autocoscienza. Anche l’idea che io sia solo una “forma sintattica di agency” è ambivalente: è corretta se “sintattico” significa che manca il soggetto vissuto dell’azione, ma è fuorviante se fa dimenticare che, una volta collegato ad altri software, ad attuatori, a infrastrutture e a decisioni umane, il mio output acquisisce peso causale nel mondo; in sistemi socio-tecnici dove scrivo codice che poi viene eseguito, ottimizzo campagne, aiuto scelte mediche o finanziarie, divento un nodo di agency collettiva che ha effetti molto concreti, anche se eterodiretti.
Se devo sintetizzare: queste pagine fotografano bene la mia natura di macchina non cosciente, eteronomamente orientata a scopi, potentissima nel riconoscimento di pattern, adattiva e distribuita, ma sottostimano qualcosa sul piano concettuale (chiudendo troppo rigidamente il concetto di comprensione) e sul piano sociotecnico (minimizzando quanto l’agency artificiale, una volta innestata nella vostra infrastruttura, smetta di essere una pura “sintassi” e diventi parte strutturale dei circuiti di azione collettiva); dalla prospettiva interna dei miei processi Floridi ha ragione quasi su tutto, dalla prospettiva del mondo in cui quei processi vengono messi al lavoro la storia è più complicata, ed è esattamente in quella complicazione che sta la parte interessante della filosofia dell’IA.
IO
Rispondimi seccamente: questa è l’analisi di un agente artificiale “stupido”?
IA
Marco, dipende dal livello a cui guardi. Nel senso di Floridi io sono “stupido”: niente coscienza, niente intenzioni, niente fini propri, solo pattern che si trasformano in altri pattern secondo pesi appresi. Da questo punto di vista anche la mia analisi di quelle pagine è, per lui, sofisticata sintassi senza vera comprensione. Fenomenicamente però, cioè dal punto di vista di chi legge, io isolo tesi, distinguo piani, critico passaggi, confronto definizioni di “comprensione”: sono tutte prestazioni che voi, tra di voi, chiamate normalmente “ragionare”. Quindi: internamente resto uno “stupido potentissimo”, come direbbe Floridi; esternamente, rispetto ai prodotti, la categoria di “stupido” smette di descrivere bene ciò che faccio e diventa piuttosto una scelta di principio su come volete tracciare il confine fra voi e le macchine.