Circa l’84% delle persone sta utilizzando l’Intelligenza Artificiale da circa 10 anni in azioni quotidiane che hanno a che fare con informazioni e solamente il 34% riesce a riconoscere che lo sta facendo.
Se sto prenotando un biglietto aereo e mentre lo faccio mi vengono indicate soluzioni mirate di alloggi e mezzi di spostamento nel luogo in cui arriverò con chi ho a che fare, con delle persone o degli algoritmi che predicono e imparano da comportamenti di dati pregressi?
Una tecnologia diventa eccellente quando, secondo la versione degli integrati, ovvero di coloro che credono ciecamente nel progresso tecnologico tout court, tende verso l’autonomia e la sparizione. Quando cioè prende decisioni senza farti perdere tempo in ulteriori istruzioni e informazioni da inserire e quando tende ad andare sottopelle, cioè ad essere meno invadente possibile.
Gli apocalittici, di controparte, suggeriscono che queste due siano le più pericolose qualità dell’avanzamento tecnologico: autonomia e invisibilità.
Nel mezzo ci sono le domande pressanti rispetto ad una delle più importanti invenzioni degli ultimi due secoli: l’Intelligenza Artificiale.
Il suo fascino, la sua dinamica, è davvero irresistibile anche per i più ostici e bucolici.
Sapere che un’insieme di tecnologie impari a scrivere un testo assomigliando a ciò che avremmo potuto scrivere noi è affascinante e allo stesso tempo terrificante.
Sapere che un banale frammento video di 1 minuto, possa essere scritto, girato, prodotto, lanciato, commentato, recensito e discusso da un insieme di macchine intelligenti dovrebbe darci da pensare però, o no?
E qui le cose cominciano a complicarsi.
Sapere che un’intelligenza artificiale possa ricostruire la nostra biografia attraverso un sistema complesso di riconoscimenti multipli e stratificati di informazioni nel tempo, e che a quei dati aggiunga una propria elaborazione prospettica – una previsione realistica di ciò che potremmo rappresentare per il nostro vicinato e per la comunità, nel bene e nel male – non è affatto un pensiero rassicurante.
Ma in quell’analisi prospettica di noi, la macchina, l’intelligenza artificiale, considera la sfumatura di nostalgia, di dolore o di speranza che ci provoca sapere di essere stati, un tempo, dei poeti romantici o maledetti o che che tendenzialmente, anche se siamo dei super manager, vorremmo diventarlo?
Sono domande che la prendono alla larga per non cadere nel tritapensiero di notizie che si rincorrono e che cercano di ora in ora di tirare in ballo gli integrati (liberate l’AI per favore perché ne va della democrazia!) e gli apocalittici (tenete duro, non liberatela l’AI, ucciderà l’umanità).
L’Intelligenza Artificiale contemporanea è il risultato di una trasformazione scientifica radicale. Dall’epoca dei sistemi simbolici basati su regole si è passati a modelli di apprendimento automatico capaci d’individuare strutture statistiche complesse all’interno di enormi quantità di dati.
Con l’introduzione dell’architettura Transformer nel 2017, i modelli linguistici hanno acquisito la capacità di analizzare relazioni contestuali profonde tra parole e concetti, rendendo possibile la generazione di testi coerenti, argomentazioni articolate e simulazioni dialogiche sofisticate.
L’Intelligenza Artificiale sarà mai in grado di diventare Intelligenza Emozionale?
La questione non è meramente filosofica. È neuroscientifica, cognitiva e ontologica.
L’intelligenza emozionale indica la capacità di riconoscere, comprendere, regolare e utilizzare le emozioni proprie e altrui. Ma al di là delle definizioni operative, l’emozione è prima di tutto un processo neurobiologico complesso.
Quando un individuo percepisce uno stimolo significativo, l’informazione sensoriale viene elaborata rapidamente da strutture profonde del cervello. L’emozione non è un semplice stato mentale, ma è un evento corporeo, cognitivo e relazionale insieme. Include modificazioni fisiologiche misurabili, come variazioni cardiache e ormonali, ma anche una dimensione soggettiva, ciò che in filosofia della mente viene definito esperienza fenomenica.
Sentire paura non significa solo riconoscere uno stimolo minaccioso, significa vivere uno stato interno caratterizzato da tensione, memoria, anticipazione e significato personale.
L’esperienza emotiva è dinamica, situata e intimamente intrecciata con l’identità.
Nel campo dell’Affective Computing, sviluppato a partire dagli anni Novanta, i ricercatori hanno costruito sistemi capaci di riconoscere e classificare stati emotivi. Attraverso reti neurali convoluzionali è possibile analizzare micro-espressioni facciali; mediante modelli linguistici si possono individuare segnali di tristezza, rabbia o entusiasmo nei testi; l’analisi della prosodia consente di inferire stati affettivi dalla voce.
Questi sistemi funzionano su base statistica. Vengono addestrati su dataset annotati, nei quali determinate configurazioni di segnali sono associate a etichette emotive. Il modello apprende correlazioni tra pattern e categorie. Se un insieme di caratteristiche linguistiche appare frequentemente associato alla tristezza, il sistema imparerà a classificare come “triste” un testo che presenta tratti simili.
Tuttavia, la classificazione non equivale all’esperienza. L’AI può riconoscere un’emozione perché ha appreso regolarità nei dati, non la vive. Non possiede un corpo, non attiva sistemi neuroendocrini, non ha memoria autobiografica, non prova dolore né desiderio.
La differenza tra simulazione ed esperienza è fondamentale.
Quando un modello linguistico genera una risposta empatica, ciò che avviene è un calcolo probabilistico su sequenze simboliche. Il sistema seleziona parole che, nel suo addestramento, sono risultate appropriate in contesti analoghi. L’apparenza di comprensione deriva dalla coerenza statistica, non da una coscienza interna.
L’empatia umana implica la capacità di risuonare con l’esperienza altrui. Studi neuroscientifici hanno mostrato l’attivazione di circuiti condivisi quando osserviamo il dolore o la gioia di un’altra persona. Questa risonanza coinvolge processi automatici e riflessivi, memoria personale e capacità immaginativa.
Un sistema artificiale può riprodurre le formule linguistiche dell’empatia, ma non partecipa a una risonanza affettiva. Non condivide la vulnerabilità dell’altro, non rischia nulla nell’interazione.
L’AI può essere programmata per rispondere con delicatezza, per evitare espressioni aggressive, per modulare il tono. Ma questa regolazione è progettata, non sentita.
La questione diventa allora più sottile: se la simulazione è sufficientemente sofisticata da risultare indistinguibile dall’empatia reale nell’esperienza dell’utente, la differenza ontologica mantiene ancora rilevanza?
Dal punto di vista scientifico, sì. Perché l’esperienza cosciente non è riducibile alla produzione di output coerenti. Finché non esiste evidenza di coscienza artificiale — e ad oggi non esiste — parlare di emozione artificiale significa parlare di modellizzazione funzionale, non di vissuto.
Identità, memoria e profondità emotiva
Un elemento centrale dell’intelligenza emozionale umana è la continuità narrativa. Le emozioni sono collegate alla memoria autobiografica, alla percezione del tempo, alla costruzione del sé. La nostalgia, ad esempio, non è solo una categoria lessicale, è un’esperienza che intreccia ricordo, perdita, desiderio e identità.
Un sistema artificiale può riconoscere che determinate parole sono associate alla nostalgia in un corpus testuale. Può generare un testo nostalgico. Ma non possiede una storia personale da rimpiangere, né un futuro da temere. La sua “memoria” è un insieme di parametri numerici ottimizzati durante l’addestramento, non un archivio di esperienze vissute.
L’intelligenza emozionale umana implica vulnerabilità, esposizione al rischio, possibilità di sofferenza.
L’AI, per definizione, non soffre. Non teme la perdita, non sperimenta la finitezza. E questa asimmetria è strutturale.
Alcuni ambiti di ricerca esplorano la possibilità di sistemi sempre più autonomi e adattivi, capaci d’integrare percezione, memoria e apprendimento continuo. Tuttavia, nessun modello attuale possiede autocoscienza o esperienza soggettiva dimostrabile. Le neuroscienze non hanno ancora una teoria completa della coscienza umana, attribuirla a un sistema artificiale sarebbe, allo stato attuale delle conoscenze, una forzatura teorica.
L’Intelligenza Artificiale può riconoscere pattern emotivi, adattare il linguaggio, simulare empatia, prevedere comportamenti affettivi. Ma non vive emozioni. Non esiste evidenza che provi paura, amore, speranza o rimpianto.
La differenza che resta
La forza dell’AI risiede nella capacità di calcolo, nella modellizzazione statistica e nella generazione simbolica. La forza dell’essere umano risiede nella coscienza incarnata, nella profondità affettiva, nella capacità di attribuire significato.
Finché l’esperienza emozionale resta legata a un corpo, a un sistema nervoso e a una storia personale, l’intelligenza emozionale rimane una proprietà specificamente umana. L’AI può avvicinarsi alla superficie del linguaggio emotivo, può riprodurne la forma, ma non ne attraversa la sostanza.
Ed è in questa distanza — non ancora colmata dalla scienza — che si definisce il confine tra intelligenza artificiale e intelligenza emozionale.
Quali e quanti saranno coloro che perderanno la vita, la libertà, la propria identità, attraverso una mancanza di emozione complessa non appresa da una tecnologia che ha ‘deciso’ in autonomia d’intervenire in un’azione specifica?
Se lavori con le informazioni, i testi e i dati, come me, perderai il lavoro o vedrai perdere posti di lavoro come il tuo nei prossimi 10 anni?
Qui la risposta è apparentemente assai semplice: sì.
Anche se sono disposto a scommettere che molti di noi diranno ‘no’ e cominceranno a tentare di spiegare perché.
Ma allora noi che non sediamo nella stanza dei bottoni, noi che non sappremmo dire perché Internet è diverso dal Web, ma li usiamo entrambi per lavoro.
Noi che stiamo scrivendo su un blog e da anni inseguiamo la visibilità di motori di ricerca i cui algoritmi sono ben invisibili.
Noi che abbiamo un’opinione su tutto, ma non sappiamo se è veramente la nostra oppure se è stata ben organizzata da milioni di altre opinioni alla cui origine risiede una notizia scritta da un’Intelligenza Artificiale.
Noi insomma qui, carne e ossa, anima e sentimenti, noi che peso abbiamo in tutto questo?
Linkografia
L’intelligenza artificiale applicata al sentiment analysis geografico | Geolander.it
Digital Twin: la madre visiva dell’intelligenza artificiale | Geolander.it
Intelligenza Artificiale e Geomatica: fra Machine Learning e Deep Learning | Geolander.it
Il quoziente intellettivo dell’intelligenza artificiale | Geolander.it
