Miniaturizzazione e Integrazione
L’evoluzione delle tecnologie, in particolare delle tecnologie della comunicazione, si è sviluppata secondo una direzione precisa, guidata da due tendenze principali: la miniaturizzazione della tecnologia, ridotta progressivamente fino a diventare quasi invisibile per l’utente finale, e l’integrazione dei linguaggi sempre più sofisticati in grado di simulare tutti i sensi percettivi dell’essere umano.
Tuttavia,con l’arrivo dell’intelligenza artificiale generativa, questo cammino si sta arricchendo di nuove complessità e questioni etiche inedite.
Negli ultimi decenni, la miniaturizzazione ha permesso di ridurre le dimensioni dei dispositivi tecnologici, rendendoli via via meno invasivi e visibili. Questa riduzione non è soltanto una questione estetica o di design, ma è parte di una filosofia che mira a rendere la tecnologia sempre meno percepibile.
Tuttavia, proprio questa “sparizione” della tecnologia può generare nuove preoccupazioni. Man mano che i dispositivi diventano invisibili, essi sfuggono al controllo consapevole dell’utente, che potrebbe non rendersi conto della loro presenza o di come operano. La tecnologia invisibile può monitorare, raccogliere dati, inviare informazioni senza che l’utente ne abbia reale percezione o cognizione. La miniaturizzazione influisce sugli stati comportamentali d’uso andando ad incidere sui sistemi neuro-antropologici degli individui e delle società.
Parallelamente alla miniaturizzazione, la tecnologia ha perseguito l’integrazione dei linguaggi: dal testo si è passati all’audio e al video, fino a creare sistemi capaci di coinvolgere più sensi simultaneamente. Internet stesso, con il concetto di hypertext, è stato uno dei primi strumenti di connessione e moltiplicazione delle informazioni, un mezzo per espandere il testo in direzioni multiple e in rete.
Ogni collegamento rappresenta una connessione e una possibilità di interpretazione che arricchisce il significato originario. Eppure, questa continua integrazione porta con sé delle criticità. Mentre ci avviciniamo a esperienze sempre più immersive, rischiamo di perdere la capacità di filtrare e distinguere le informazioni.
L’integrazione sensoriale può ridurre la nostra capacità di discernere la realtà dall’illusione digitale, generando esperienze in cui l’individuo diventa sempre più passivo, riducendo lo spazio per la riflessione critica e per l’interpretazione personale.
L’ipertesto, con le sue connessioni multiple, ha anticipato in qualche modo l’arrivo dell’intelligenza artificiale generativa, un’innovazione che ha elevato la connessione tra testi e contenuti a un livello superiore. Quando interagiamo con un sistema come ChatGPT, il sistema crea nuove connessioni tra contenuti, seguendo input specifici e combinando informazioni per produrre risposte plausibili e coerenti.
Ma cosa succede quando questa tecnologia acquisisce una vera e propria autonomia?
L’idea di una AI generativa che operi senza intervento umano apre scenari più complessi di quelli finora immaginati.
Inoltre, l’uso del termine “intelligenza” per descrivere queste tecnologie non è neutrale. Esso attribuisce a tali sistemi un’aura di autorità e quasi di inviolabilità, come se si trattasse di un’entità in grado di pensare e sentire, rendendola difficile da mettere in discussione.
Tuttavia, l’intelligenza umana è un concetto complesso: non è solo la capacità di raccogliere e analizzare informazioni, ma anche di percepire stati d’animo, di cogliere sfumature emotive, di agire con empatia e comprensione.
L’intelligenza emotiva e i limiti delle tecnologie
Negli ultimi anni, abbiamo assistito a una crescente valorizzazione dell’intelligenza emotiva, ossia la capacità di riconoscere, comprendere e gestire le emozioni proprie e altrui.
Questa dimensione dell’intelligenza è profondamente umana e si basa su aspetti che vanno oltre la logica e l’informazione. Un sistema di intelligenza artificiale, anche il più avanzato, non possiede tale capacità. Esso può replicare modelli di linguaggio, riconoscere schemi, generare risposte, ma non può provare emozioni o empatia. Su questo punto, AI e cibernetica, unendosi stanno provando a ricostruire robot-umanoidi in grado di ‘provare empatia’. Anche su questa frontiera gli interrogativi etici non mancano.
La mancanza di intelligenza emotiva, almeno finora, nelle AI, ha modellizzato una teoria del divario fondamentale tra la tecnologia e l’uomo. Un sistema generativo può apparire “intelligente” solo perché riesce a simulare risposte che rispecchiano le aspettative dell’utente.
La parola “intelligenza” qui rischia di essere ingannevole, creando l’illusione di una mente pensante laddove, in realtà, esiste solo un sistema di correlazione di dati.
La capacità di connettere informazioni e generare risposte è una forma di potenziamento della comunicazione, ma non può sostituire l’intelligenza umana nel suo senso più ampio.
È importante non attribuire a queste tecnologie un’aura di infallibilità o di sacralità, ma considerarle come strumenti, strumenti potenti sì, ma limitati nella loro capacità di comprendere e interagire a livello umano.
Ma cos’è l’intenzionalità?
L’intenzionalità va intesa come la capacità della mente di “indirizzarsi” verso un oggetto, un’idea o uno scopo, è stata un tema centrale per filosofi come Aristotele, Cartesio e Brentano. Ogni pensatore ha contribuito a modellare la nostra comprensione di cosa significhi avere una mente, un’intenzione e, per estensione, un’intelligenza.
L’intelligenza come potenzialità e atto
Per Aristotele, l’intelligenza è la parte più alta della nostra natura, qualcosa che ci permette di percepire e comprendere la realtà in modo razionale. La mente umana ha una potenzialità che si realizza nell’atto del pensiero. Aristotele vedeva l’intelligenza come legata alla nostra capacità di percepire il mondo e di giudicare, di agire con uno scopo: un elemento fondamentale della sua teoria teleologica, in cui ogni cosa ha una “finalità” o “scopo” intrinseco.
Cartesio, nel XVII secolo, sviluppa l’idea del cogito – “Cogito, ergo sum” (Penso, dunque sono) – come fondamento dell’intenzionalità e della consapevolezza di sé. Cartesio ritiene che il pensiero sia essenzialmente intenzionale: è sempre rivolto a qualcosa, che si tratti di un’idea, di un oggetto o di un sentimento. L’intenzionalità, per Cartesio, è la caratteristica che distingue la mente (res cogitans) dalla materia (res extensa). La sua visione dualistica pone la mente come unica fonte di intenzionalità e, quindi, di intelligenza autentica, qualcosa di inaccessibile per una macchina o un’entità puramente fisica.
Nel XIX secolo, Franz Brentano riprende il concetto di intenzionalità, facendone il punto cardine della filosofia della mente. Secondo Brentano, l’intenzionalità è ciò che distingue gli stati mentali dagli stati fisici. Ogni atto mentale è rivolto a un contenuto o a un oggetto, sia esso reale o immaginato. L’intenzionalità diventa così il “marchio della mente”, ciò che permette agli esseri umani di avere pensieri su cose che non esistono necessariamente nel mondo fisico. La sua visione ha avuto un enorme impatto sulla fenomenologia e sul pensiero di filosofi come Husserl e Heidegger.
Edmund Husserl, fondatore della fenomenologia, approfondisce il concetto di intenzionalità come base della coscienza. Per Husserl, l’intenzionalità non è solo una caratteristica degli atti mentali, ma il modo in cui viviamo ogni esperienza. Ogni atto della coscienza è orientato verso un contenuto e dà significato al mondo. Husserl propone che l’intenzionalità sia la condizione stessa della conoscenza e dell’esperienza del mondo, poiché solo attraverso l’intenzionalità possiamo avere coscienza di qualcosa e, dunque, comprenderlo.
Martin Heidegger e, successivamente, Maurice Merleau-Ponty portano avanti l’idea che l’intenzionalità non sia un processo astratto della mente, ma qualcosa di “incarnato” e strettamente legato alla nostra esistenza fisica. Per Heidegger, l’essere umano è un “essere-nel-mondo”, e l’intenzionalità è legata alla nostra interazione pratica e concreta con il mondo. Merleau-Ponty sviluppa ulteriormente questa idea, sottolineando come la percezione e l’intenzionalità siano radicate nel nostro corpo e nel modo in cui viviamo fisicamente il mondo.
La mente computazionale e le sfide dell’intenzionalità
Con l’avvento dell’intelligenza artificiale e della filosofia della mente nel XX secolo, il concetto di intenzionalità diventa centrale anche per la scienza cognitiva. Filosofi come John Searle e Daniel Dennett hanno dibattuto su come (o se) l’intenzionalità possa essere riprodotta da una macchina. Searle, con il suo celebre esperimento mentale della “stanza cinese”, sostiene che i computer, pur essendo in grado di simulare l’intenzionalità, non possono mai avere una vera comprensione o intenzionalità autentica. Dennett, invece, propone una visione più funzionalista, suggerendo che un sistema complesso come un computer potrebbe, in linea teorica, mostrare una sorta di intenzionalità “debole” o “apparente” se agisce come se avesse uno scopo.
Oggi, la questione è ancora aperta: se una macchina possa sviluppare una forma autentica di intenzionalità è un tema che resta incerto e controverso. Alcuni sostengono che l’intenzionalità richiede un livello di coscienza e di esperienza incarnata che una macchina, priva di corpo e vissuto, non potrà mai raggiungere. Altri, invece, vedono nel progresso delle reti neurali e dei modelli di apprendimento profondo la possibilità di una “simulazione” sempre più sofisticata, che potrebbe avvicinarsi a una forma di intenzionalità, sebbene molto diversa da quella umana.
In conclusione, l’intenzionalità è stata vista nel pensiero filosofico come l’essenza della coscienza e della vera intelligenza. Creare un’IA che possieda una forma di intenzionalità genuina significherebbe replicare non solo la mente ma anche il contesto esistenziale e corporeo che rende l’esperienza umana unica e irripetibile.
Bibliografia Ragionata
L’intelligenza artificiale generativa rappresenta una delle più recenti e radicali evoluzioni nelle tecnologie della comunicazione, incarnando in sé tre tematiche fondamentali: miniaturizzazione, integrazione e intenzionalità. Questi temi delineano un percorso che intreccia non solo la storia della tecnologia, ma anche secoli di riflessioni filosofiche sulla natura della mente, della coscienza e dell’intelligenza.
- Miniaturizzazione. La riduzione progressiva delle dimensioni dei dispositivi tecnologici, oggi spesso percepibili come “invisibili”, non è solo un’evoluzione tecnica ma una trasformazione dell’interazione umana con la tecnologia stessa. Da Norbert Wiener, fondatore della cibernetica, deriva una delle prime riflessioni sulla comunicazione e il controllo nei sistemi tecnologici, anticipando molti degli sviluppi contemporanei legati alla miniaturizzazione e all’automatizzazione tecnologica. Questo tema è qui trattato per evidenziare le implicazioni della miniaturizzazione sulla percezione e consapevolezza dell’utente, temi approfonditi anche da Kaplan e Haenlein nel contesto etico della tecnologia moderna.
- Integrazione dei linguaggi. Parallelamente alla miniaturizzazione, il tema dell’integrazione dei linguaggi tecnologici è centrale per comprendere come la comunicazione sia divenuta multidimensionale e coinvolga progressivamente sensi ed esperienze percettive. L’ipertesto, teorizzato con Internet come connessione multipla tra contenuti, è un’anticipazione di questa integrazione, in cui il testo lascia spazio a una fusione di elementi che amplificano il senso e l’interpretazione. Filosofi come Luciano Floridi esplorano come questa interconnessione tra informazione e percezione influisca sull’esperienza umana e sulla società, mentre Harari riflette sulle implicazioni culturali e sociali che le tecnologie integrate portano nella vita quotidiana.
- Intenzionalità e intelligenza artificiale. Il concetto di intenzionalità è storicamente legato alla filosofia della mente e alla questione dell’intelligenza, come spiegato da Aristotele, Brentano e Cartesio. L’intenzionalità, ovvero la capacità della mente di rivolgersi a un oggetto o uno scopo, viene riconosciuta come tratto distintivo della coscienza umana. I pensatori classici hanno posto le basi per la comprensione di cosa significhi “intendere” o “pensare”, e i filosofi contemporanei, come Dennett e Searle, hanno esteso questa analisi al campo delle intelligenze artificiali, ponendosi il problema di come (e se) la macchina possa possedere una forma di intenzionalità. La “stanza cinese” di Searle, ad esempio, mette in dubbio la possibilità che una macchina generativa possa mai possedere una comprensione autentica o intenzionale, aprendo interrogativi profondi sui limiti dell’IA.
In questo contesto, la bibliografia proposta offre una mappa critica di opere che, attraversando diverse epoche e correnti di pensiero, consentono di cogliere i presupposti filosofici, scientifici ed etici che sottendono l’evoluzione tecnologica e intellettuale dell’intelligenza artificiale generativa. Questi autori e testi, esaminando la questione dell’autonomia tecnologica e della sua integrazione nella società umana, aiutano a riflettere sul significato di intelligenza e intenzionalità nell’ambito di una tecnologia che, pur potente, non può prescindere dai suoi limiti né dai valori che la guidano.
- Aristotele. Metafisica. A cura di Giovanni Reale. Milano: Bompiani, 2007.
- Brentano, Franz. La psicologia dal punto di vista empirico. A cura di Paolo Parrini. Bologna: Il Mulino, 1997.
- Cartesio, René. Meditazioni metafisiche. A cura di Etienne Gilson. Roma: Laterza, 2003.
- Dennett, Daniel. Coscienza: un tentativo di spiegazione. Traduzione di Maurizio Balistreri. Milano: Cortina, 2009.
- Husserl, Edmund. Idee per una fenomenologia pura e per una filosofia fenomenologica. Traduzione di Vincenzo Costa. Milano: Einaudi, 2002.
- Heidegger, Martin. Essere e tempo. Traduzione di Alfredo Marini. Milano: Mondadori, 2006.
- Merleau-Ponty, Maurice. Fenomenologia della percezione. Traduzione di A. Bonomi. Milano: Bompiani, 2014.
- Searle, John R.Mente, linguaggio e società. Traduzione di Giovanni Bonaiuti. Milano: Il Mulino, 2002.
- Floridi, Luciano. La quarta rivoluzione: come l’infosfera sta trasformando il mondo. Torino: Codice Edizioni, 2017.
- Kaplan, Andreas & Haenlein, Michael. “Siri, Siri, in tasca mia: gli aspetti etici dell’intelligenza artificiale generativa”. Business Horizons, 62(2), 2020, pp. 35-45.
- Discussione etica sugli assistenti digitali e sul rischio dell’autonomia dell’intelligenza artificiale.
- Harari, Yuval Noah. Homo Deus: breve storia del futuro. Milano: Bompiani, 2017.
- Wiener, Norbert. Cybernetics: Or Control and Communication in the Animal and the Machine. Cambridge: MIT Press, 1948.