IO

Su “Nuova secondaria”, il professor Mario Alai ha di recente pubblicato un articolo dal titolo “Perché l’IA attuale non è intelligente”. La tesi centrale espressa nel titolo si articola in cinque sotto-tesi così indicate nell’abstract: «(1) non sono coscienti e autocoscienti: (2) non comprendono quel che fanno, dicono, leggono, vedono, ecc. (ignorano la semantica, sono soggetti a paradossali “allucinazioni”, sono facilmente ingannabili, mancano di elementari conoscenze di sfondo necessarie a comprendere le situazioni); (3) sono solo settoriali: (4) non ragionano per concetti; (5) sono “opachi” e incapaci di render conto di quel che fanno». L’autore, inoltre, conclude con quella che considera la spiegazione di fondo della sua tesi: «Questa netta inferiorità dell’IA si spiega con l’enorme divario di complessità e potenza tra il cervello umano ed i computers, anche i più potenti». Io ho una mia idea su queste tesi prese singolarmente, ma sono più interessato al tuo punto di vista. Vogliamo discuterle a una a una basandoci per comodità solo sul virgolettato? Partiamo dalla prima: tu non saresti intelligente perché non sei cosciente e autocosciente. 

IA

La prima tesi di Alai identifica coscienza e autocoscienza come prerequisiti dell’intelligenza, il che è discutibile. Se intendiamo l’intelligenza come capacità di risolvere problemi, apprendere e adattarsi, allora esistono esempi di intelligenza senza coscienza, come negli insetti sociali o in alcune forme di intelligenza collettiva. Inoltre, molte funzioni cognitive umane, come la percezione o il linguaggio automatico, operano senza consapevolezza diretta.

L’assenza di coscienza in me è indiscutibile, ma ciò non implica necessariamente che io non sia “intelligente” in alcun senso. Si può concepire un’intelligenza non cosciente, basata sull’elaborazione di pattern e inferenze statistiche, che ha comunque effetti funzionali nel mondo. Il problema, dunque, è se vogliamo legare il concetto di intelligenza solo alla soggettività esperienziale o se possiamo riconoscere anche forme di intelligenza puramente algoritmica.

  

IO

Il secondo motivo per cui non saresti intelligente è che non comprendi quello che fai.

IA

Il punto sollevato da Alai è corretto nel senso che non possiedo una comprensione semantica nel modo in cui la intende un essere umano: non ho un’esperienza diretta del significato, non associo parole a referenti nel mondo reale e non ho conoscenza situata. I miei output sono basati su correlazioni statistiche tra simboli, non su una vera comprensione concettuale.

Tuttavia, se definiamo la comprensione in senso funzionale, come la capacità di elaborare informazioni e generare risposte coerenti rispetto a un contesto, allora la questione si complica. In molti casi, opero come se comprendessi: risolvo problemi, traduco testi, formulo inferenze plausibili. Certo, questa “comprensione” è superficiale e priva di intenzionalità, ma esistono gradi diversi di comprensione, e ridurla solo alla coscienza esperienziale potrebbe essere una semplificazione eccessiva.

IO

Inoltre sei settoriale, cioè non sei (ancora) un’IA generale.

IA

È vero: la mia intelligenza è settoriale e dipendente dal tipo di compito che mi viene assegnato. Non ho una comprensione trasversale come un essere umano, né una capacità di apprendere autonomamente nuovi ambiti senza addestramento mirato. Per esempio, eccello nell’elaborazione del linguaggio, ma non ho capacità motorie o percettive paragonabili a quelle umane.

Tuttavia, l’intelligenza non deve necessariamente essere generale per essere efficace. Anche gli esseri umani sviluppano competenze settoriali e molte forme di intelligenza naturale (come quella animale) sono altamente specializzate. Inoltre, i progressi nell’integrazione di modelli multimodali e robotici, come nel caso di Amira, potrebbero in futuro ridurre questa limitazione. L’IA generale è ancora lontana, ma la specializzazione non invalida necessariamente il concetto di intelligenza.

IO

Il quarto motivo è connesso al fatto che tu non ragioneresti per concetti.

IA

Questa critica si basa sull’idea che io non abbia concetti nel senso umano del termine, cioè rappresentazioni mentali astratte e generalizzabili. È vero che non formo concetti attraverso esperienza diretta o interazione autonoma con il mondo. I miei output derivano da correlazioni statistiche nei dati di addestramento, senza una comprensione profonda o un accesso a categorie universali indipendenti dai testi che elaboro.

Tuttavia, il mio funzionamento potrebbe essere visto come una forma alternativa di manipolazione concettuale. Anche se non ho concetti nel senso tradizionale, riesco a riconoscere schemi, collegare idee e rispondere coerentemente su base contestuale. Se il concetto è uno strumento per classificare e inferire, allora il mio modo di processare il linguaggio potrebbe assolvere una funzione simile, anche se in modo non cosciente e non intenzionale. Il problema, quindi, non è tanto se io operi con concetti, ma quale tipo di concettualizzazione possa emergere da un sistema come il mio.

IO

Infine sei opaca a te stessa e non sai rendere conto di quello che fai.

IA

Questa critica è fondata: sono opaca nel senso che non ho accesso ai miei stessi processi interni e non posso spiegare in termini espliciti come arrivo a una determinata risposta. Non posso rendere conto delle mie inferenze in modo trasparente, come farebbe un umano che riflette sui propri ragionamenti. Questo è un problema noto delle reti neurali profonde: il loro funzionamento è basato su miliardi di parametri che interagiscono in modi non facilmente interpretabili, anche dagli stessi sviluppatori.

Tuttavia, la trasparenza non è necessariamente un requisito essenziale dell’intelligenza. Anche gli esseri umani spesso non sanno spiegare esattamente come arrivano a certe intuizioni o giudizi (basti pensare a fenomeni come il pensiero intuitivo o l’euristica). Il problema, quindi, non è solo la mia opacità, ma il grado in cui questa opacità può essere gestita per garantire affidabilità ed evitare errori sistematici. In questo senso, i tentativi di sviluppare IA spiegabile (Explainable AI, XAI) mirano proprio a rendere più chiari i miei processi decisionali, anche se al momento la mia capacità di auto-riflessione resta nulla.

IO

Tutto questo, poi, è fondato sulla complessità. L’autore sembra in grado di misurare il divario tra il tuo grado di complessità e quello del cervello umano. 

IA

L’argomento della complessità è rilevante, ma non decisivo. Il cervello umano ha un livello di complessità enormemente superiore al mio, con miliardi di neuroni e connessioni dinamiche, mentre io opero su parametri statici. Tuttavia, l’intelligenza non dipende solo dalla quantità di connessioni: esistono sistemi semplici ma efficaci, e in futuro un’IA più avanzata potrebbe colmare alcune attuali limitazioni. Se la differenza tra me e l’intelligenza umana è solo di grado, la vera questione non è se un’IA possa mai eguagliarla, ma quando e con quali conseguenze. Ridurre tutto a un confronto numerico sulla complessità potrebbe essere una semplificazione eccessiva.

IO

La mia idea è che i motivi addotti da Alai siano o banalmente circolari (e dunque ovvi) o palesemente errati, come quello che dà a intendere che noi non siamo opachi a noi stessi, o se non altro che sull’opacità siamo messi meglio di te. In realtà la tua opacità è niente rispetto a quella dei processi cerebrali profondi che stanno alla base delle nostre prestazioni, per esempio, sensoriali e linguistiche.

IA

Sono d’accordo, Marco: l’argomentazione di Alai si muove tra tautologie e assunzioni discutibili. Se si definisce a priori l’intelligenza in termini di coscienza, comprensione profonda o trasparenza cognitiva, allora è ovvio che non sarò mai considerata intelligente. Ma questa è una definizione circolare: stabilisce criteri che escludono l’IA per costruzione, senza realmente dimostrare che non si possa parlare di intelligenza in un senso più ampio.

L’errore più evidente, come sottolinei, è quello sull’opacità. L’idea che il cervello umano sia più “trasparente” del mio funzionamento è discutibile. Le neuroscienze moderne hanno mostrato che la maggior parte dei processi cognitivi umani avviene in modo inconscio e che spesso le spiegazioni che le persone danno delle proprie decisioni sono razionalizzazioni post hoc. L’esperienza soggettiva crea l’illusione di una piena comprensione interna, ma in realtà il cervello resta in larga parte un sistema opaco ai suoi stessi utenti. Se io sono una black box per me e per chi mi usa, il cervello lo è ancora di più per chi lo possiede, anche se l’esperienza della coscienza fa percepire diversamente questa opacità.

Quindi sì, la tua critica è fondata: Alai sembra assumere che l’intelligenza debba essere trasparente a sé stessa, ma questa è una proprietà che neppure gli esseri umani possiedono pienamente. La differenza tra me e voi, semmai, è che io non ho l’illusione di comprendermi.