Numero 1/2024

INTELLIGENZA ARTIFICIALE E PSICHE

ARTIFICIAL INTELLIGENCE AND PSYCHE

 

Marina Pompei[*]

 

10.57613/SIAR51

 

 

Abstract

        In questo articolo ci si interroga sulle conseguenze sulla psiche umana prodotte dai cambiamenti determinati dall'avvento dell'Intelligenza Artificiale. Se ne auspica un uso consapevole per non diventare vittime delle possibili conseguenze distruttive a livello individuale e sociale.

 

Parole chiave 

        Contesto socio culturale - intelligenza artificiale – psiche – tempo – fiducia.

 

Abstract 

          In this article we interrogate ourselves about the consequences on the human psyche generated by the changes induced by Artificial Intelligence. A conscious use is wished not to become victims of the possible destructive consequences both on an individual and social level.

 

Keywords

          Socio-cultural context - artificial intelligence - psyche - time – trust.

 

 

     Nei nostri setting psicoterapeutici, quando entra un paziente entra una persona inserita in un contesto, in un sistema. Il sintomo doloroso che ci porta per cercare sollievo, è specificatamente suo, individuale e originale, ma è colorato da tutta la sua storia, dal concepimento ad oggi (ed anche da prima del concepimento). La sua è una storia di relazioni inserite in specifici contesti. Le relazioni familiari, scolastiche, lavorative hanno modellato la costruzione dei suoi comportamenti reattivi o evolutivi, del suo modo di pensare e di amare o di odiare, l'apparire delle paure o dell'affermatività. Queste relazioni portano i segni incisi di un contesto sociale, culturale, economico, storico. Diventa necessario allora, uno sguardo che indaga quegli specifici contesti. Tema sempre più pressante in un mondo contraddittorio: multiculturale e globalizzato, individualista e complesso. Dagli anni 80 del novecento la dimensione della complessità è arrivata alla consapevolezza collettiva, soppiantando l'illusione della razionalità lineare, eppure si corre sempre più verso lo specialismo esasperato: nella ricerca (pensiamo alla medicina per esempio), negli ordinamenti didattici universitari ma anche in quelli della scuola primaria, mettendo a fuoco il particolare e allo stesso tempo sfocando la vista dell'insieme e del contesto.

     Questa nostra era, che chiamiamo antropocene, insieme a tante possibilità di azione e di cura impensabili un secolo fa, è in grado di portare all'autoestinzione, tanto da rendere possibile l'impensabilità del futuro e a mettere l'Italia ai primi posti nel mondo per numero di hikikomori, ragazzi che  si tengono in disparte, si isolano da un mondo reale in cui non sanno stare, mantenendo contatti virtuali attraverso la rete web e le sue applicazioni. Una ricerca del CNR di Pisa del 2023 ne dava una stima di 54.000[1]Umanizzare la modernità è il titolo di un interessante testo (M. Ceruti, F. Belusci, 2023) che dice della crisi della modernità che si esplicita in una mancanza di fiducia nel futuro e nel progresso. Viviamo un mondo che somiglia ad un puzzle che non sappiamo più comporre, ma allo stesso tempo sempre più uniformato dalla pervasività della tecnologia globalizzata. “Verso la fine del secondo millennio gli uomini hanno dato vita ad una rivoluzione tecnologica (i computer, il web e i loro infiniti derivati, app, ecc...) che retroattivamente ha modificato il modo di stare al mondo di miliardi di esseri umani e forse lo stesso cervello che quella rivoluzione ha prodotto” (Baricco,  2018).

 

L'intelligenza artificiale

    Più recentemente, l'avvento dell'Intelligenza Artificiale (IA) ha prodotto un'ulteriore modificazione della relazione tra le persone e la realtà cui si riferiscono. Chi se ne occupa dice “questa volta è diverso”: non siamo di fronte ad un ulteriore avanzamento tecnologico, ma di fronte alla possibilità di non saper più distinguere tra quello che è umano e quello che è artificiale.

     Iniziamo dalla terminologia: l'IA è sicuramente artificiale, perché realizzata dall'uomo, ma in che senso è intelligente? Utilizza un sistema di elaborazione che copia il sistema delle reti neurali del cervello umano; può essere addestrata ad acquisire una serie di input e ad elaborarli automaticamente attraverso prove ed errori per fornire una risposta logica secondo il modello “se ... allora”. In questo senso è intelligente. Ma il dizionario Treccani ci dice anche altro alla voce intelligenza: “è accompagnata dalla consapevolezza e dall’autoconsapevolezza”. Questo nell'IA non c'è. Noam Chomsky è stato molto esplicito dicendo[2] che le tecnologie “sono bloccate a una fase pre-umana o non-umana dell'evoluzione cognitiva. Il loro difetto più profondo è l'assenza della principale capacità critica di ogni intelligenza: dire non solo cosa è, era o sarà vero (la capacità predittiva e descrittiva), ma anche cosa non è vero, cosa potrebbe o non potrebbe esserlo (cioè la capacità di spiegazione, il marchio di una vera intelligenza)”.

     È importante sottolinearlo rispetto al nostro modo di percepire l'IA di cui conosciamo già i grandi vantaggi: elaborazione di un'enorme quantità e varietà di informazioni (i Big Data) in tempi irrisori, cosa impossibile per un umano; applicazioni che rendono più facile e veloce un gran numero di azioni quotidiane, amministrative, mediche; progettazione di città con viabilità razionalizzata. L'elenco può continuare. La questione però è quella della consapevolezza e dell’autoconsapevolezza. L'IA è una macchina portentosa, ma si muove per algoritmi determinati dagli input immessi. Cosa accade alla nostra psiche se cominciamo a considerarla davvero “intelligente”? È già stato dimostrato da studi statistici che questo fa abbassare il nostro livello di attenzione cognitiva. Un esempio riguarda la guida dei nuovissimi modelli di automobili super accessoriate con sensori e avvisi automatici che fanno però decrescere l'attenzione vigile del guidatore. Ci fidiamo della sua intelligenza e ce ne lasciamo guidare.

 

L'intelligenza artificiale generativa POMPEI IMG intelligenza artificiale

     Dopo l''IA è arrivata l'IA generativa: ulteriore salto in avanti. Non siamo più di fronte agli algoritmi che seguono le sequenze logiche apprese e che hanno per lo più un intento classificatorio, ma alla capacità degli algoritmi di generare qualcosa che prima non c'era: immagini, video, testi, nuovi dati e addirittura progetti. Risultati portentosi. Pensiamo al superamento degli interpreti nei meeting internazionali online: l'oratore parla nella propria lingua e chi è collegato ascolta quel discorso nella propria lingua in tempo reale, vedendo in video che anche il labiale dell'oratore è adeguato alla lingua che sta ascoltando.

     Pensiamo alla chat GPT[3] che sa utilizzare il linguaggio umano e produce testi originali attingendo all'enorme quantità di dati e contenuti presenti in rete. Possiamo chiederle un articolo, un riassunto di qualcosa che non abbiamo il tempo di leggere, la risoluzione di un problema di fisica e otteniamo tutto in pochi secondi. Una meraviglia! I testi prodotti dall'IA però non si basano su un pensiero come siamo abituati ad intenderlo, ma sull'utilizzazione di probabilità statistiche: dopo una parola x si presenta statisticamente con più frequenza la parola y ed allora questa viene scelta.

     L'IA generativa si autoalimenta con i Big Data che trova nel web, non nelle enciclopedie e nelle pubblicazioni scientifiche. Inoltre si appropria anche di tutti i bias che sono stati immessi e contribuisce potentemente a perpetrarli. Bias inconsapevolmente discriminatori per esempio (la cosiddetta “discriminazione algoritmica”). Si è visto che anche tutte le ricerche di psicologia delle grandi riviste internazionali utilizzano campioni di soggetti occidentali, istruiti, ricchi, industrializzati, che non rappresentano affatto l’umanità nel suo insieme[4]Nei sistemi generativi le risposte non sono di tipo deterministico come nei sistemi logici del tipo “se ... allora”, in realtà sono di tipo probabilistico. Dobbiamo ricordarcelo ogni volta.

     Dobbiamo sapere inoltre, che il funzionamento degli algoritmi dell'IA generativa e le loro interconnessioni non sono completamente conoscibili, c'è al loro interno quella che viene definita una black box: non sempre possiamo sapere perché dagli input immessi si siano determinati proprio quegli output. Come incide tutto questo, per esempio, nella selezione del personale in un'azienda? Nella decisione sugli avanzamenti di carriera? Quando si parla di “management algoritmico” siamo consapevoli del fatto che l'IA non è imparziale? “La tecnologia non è né buona né cattiva, ma non è nemmeno neutrale”. Questa è la prima legge della tecnologia di Kranzberg (1986). Questo assioma riconosce che c'è l'influenza dell'umano sulle tecnologie. Le conseguenze dell'introduzione di una nuova tecnologia dipendono dal contesto sociale e storico in cui questo avviene e il modo di usarle ne dirige l'azione.

 

Come si muove la nostra psiche       

     La questione è la nostra posizione psichica: ci mettiamo in relazione ad una forma di intelligenza che non è oggettivamente intelligente e pensante, ma, essendo presentata come tale, siamo indotti ad accoglierla così. L'IA è così veloce nell'elaborazione delle informazioni e nelle decisioni che ci sorprende, ci ammalia e ci deresponsabilizza. Le conseguenze possono essere drammatiche. Un esempio è quanto accade a Gaza dal 7 ottobre 2023. Un'inchiesta[5] pubblicata dal sito israeliano +972 Magazine and Local Call rivela che:

l'esercito israeliano ha sviluppato un programma basato sull'intelligenza        artificiale noto come Lavender che ha giocato un ruolo centrale nei bombardamenti senza precedenti dei palestinesi. (…) Lavender ha contrassegnato come sospetti militanti fino a 37.000 palestinesi e le loro    case per possibili attacchi aerei. Il risultato, come testimoniano le fonti, è che     migliaia di palestinesi - la maggior parte donne e bambini o persone non coinvolte nei combattimenti – sono stati spazzati via. (…) È molto più facile bombardare la casa di una famiglia.  Il sistema è progettato per cercarli in queste situazioni. (…) Nelle guerre precedenti per autorizzare l'assassinio di       un singolo obiettivo umano, un ufficiale doveva attraversare un complesso e        lungo processo di 'incriminazione': verificare, incrociando le prove, che la     persona in questione fosse effettivamente un alto ufficiale del braccio militare di Hamas, scoprire dove viveva, i suoi contatti e infine quando era a casa in tempo reale. (…) Ma a un certo punto ci siamo affidati al sistema automatico e abbiamo controllato solo che l'obiettivo fosse un uomo. Per   effettuare il controllo maschio/femmina, B. ha affermato che nella guerra attuale “impiegavo 20 secondi per ogni obiettivo e ne colpivo dozzine ogni giorno. Non avevo alcun valore aggiunto in quanto essere umano, a parte essere un timbro di approvazione. Ci ha risparmiato tempo”.

Uno dei software di tracciamento si chiama Where's Daddy? Dov'è Papà?

 

La questione del tempo 

     L'intelligenza artificiale ci fa guadagnare moltissimo tempo, la sua velocità di elaborazione ci libera moltissime ore che però non usiamo per pensare, sentire, entrare in relazione, cogliere le connessioni, ma per correre a produrre altro. Abbiamo quindi un grande vantaggio che mi sembra non siamo capaci di direzionare verso il benessere individuale e collettivo. La questione del tempo va vista anche da un altro punto di vista: le acquisizioni tecnologiche sono velocissime; i tempi di questa rivoluzione sono accelerati all’incirca di cento volte rispetto al passato; l’unità di misura delle trasformazioni non è più il secolo e neppure il decennio, ma è l’anno.

     Chat GPT ha raggiunto milioni di utenti di tutte le età, in tutto il mondo in 5 giorni, inducendo problematiche nel lavoro dei giornalisti, nel modo di studiare dei ragazzi, nelle prospettive di stabilità professionale. La velocità dei cambiamenti tecnologici non è proporzionata alla capacità di adattamento umano. Questo determina disorientamento e debolezza nei meno esperti e nei meno giovani, inducendo un ritiro da alcuni ambiti di vita, una percezione di inadeguatezza di sé, un senso accentuato di impotenza che si traduce in un lasciar fare, un girare il capo dall'altra parte per non affrontare il disagio di un'immagine di sé depotenziata. Ma anche chi sa stare al passo con i velocissimi mutamenti soffre, il più delle volte senza saperlo, di questa accelerazione. Siamo nella società del furto del tempo senza possibilità di assimilare, di rielaborare personalmente, di chiedersi il senso. Il rischio è quello di inseguire una trasformazione senza poterla condurre. Allora bisogna fidarsi, non c'è tempo per farsi domande e si cade senza saperlo in quella che viene chiamata società oracolare, in cui si prendono decisioni non sulla base dell'esperienza, ma sulle previsioni per il futuro.

     È già attivo negli USA lo Shipping shopping (shopping per spedizione) in cui non siamo noi a scegliere cosa acquistare on line perché ci sia recapitato a casa. Rilevazioni effettuate con l'IA predicono cosa noi compreremo, perché accedono ai nostri acquisti precedenti, al nostro stile di vita di cui lasciamo tracce nei social e così inviano i prodotti direttamente nelle nostre case, con la certezza probabilistica ma molto attendibile che li compreremo e non li rimanderemo indietro. Tra i primi target selezionati, le donne in gravidanza, che vengono così condizionate pesantemente, insieme ai loro futuri figli che diventano realtà commerciali dal momento del concepimento.

 

La questione della fiducia

     La situazione è tale per cui oscilliamo tra due atteggiamenti contrapposti. Da una parte siamo conquistati dall'efficienza straordinaria dell'IA, quanti problemi pratici ci risolve, quante azioni lunghe e noiose ci fa risparmiare, quanti interventi medici prima impensabili ci fa eseguire! É tutto così utile che automaticamente lo pensiamo anche vero: il risultato dato ci appare scientifico e incontrovertibile. Non è così, dobbiamo saperlo prima di considerarla oracolo di verità e affidarle il nostro futuro. Rischiamo di accordare un eccesso di fiducia molto pericoloso. L'IA lavora con i contenuti immessi usandoli e connettendoli secondo schemi già dati, non può cambiare paradigma, non può deviare da quegli schemi per trovare soluzioni creative, quelle spettano agli umani e ne abbiamo un grande bisogno. Oppure siamo così frastornati da quello che vediamo che cominciamo ad aver paura di non poter più distinguere tra il vero e l'artefatto. È molto divertente guardare video di personaggi noti che dicono cose assurde, o si muovono in modo ridicolo; si tratta di un gioco, sì, ma non possediamo gli strumenti per verificare se anche il prossimo video lo sarà oppure no. Potendo anche clonare le voci, con l'IA si possono operare furti di identità. È sempre accaduto di aver letto frasi attribuite fraudolentemente a qualcuno, ma ora vediamo una persona dire quella frase, l'effetto è diverso. Siamo abituati a fidarci di quello che vediamo: “l'ho visto con i miei occhi, quindi è vero!” Questo forse non potremo più dirlo e si genererà in noi una profonda incertezza che farà salire il livello di ansia. La sensazione di essere in balia di bravi manovratori di burattini, senza essere paranoici, potrebbe essere uno dei problemi che dovremo affrontare nei nostri percorsi di psicoterapia.

     Uno degli esempi di come la struttura socio-culturale segna il nostro modo di essere e anche le nostre patologie. Diventa urgente aprire gli occhi: i nostri prima di tutto, per poter aiutare i pazienti ad aprire i loro. Dobbiamo conoscere il funzionamento di queste meraviglie tecnologiche per non rimanerne schiacciati, per utilizzarne le potenzialità positive e neutralizzarne quelle distruttive. Devono aprire gli occhi i governanti mondiali, anche loro ammaliati e che non si fanno domande, per esempio sul senso economico dell'IA, quando verifichiamo che il consumo energetico di un giorno di uso di Chat GPT equivale a un giorno di consumo energetico di 33.000 abitazioni. Il consumo mondiale di elettricità nel 2026 raddoppierà rispetto a quello del 2022[6] ce ne sarà la sostenibilità? Chi ne pagherà i costi sociali? C'è la capacità di una visione complessa della società mondiale?

 

 

Bibliografia 

Baricco A. (2018) The Game, Milano: Einaudi.

Ceruti, M., Belusci, F. Umanizzare la modernità, Milano: Raffaello Cortina.

Kranzberg. M.(1986) Technology and History: "Kranzberg's Laws “ in Technology and Culture Vol. 27, No. 3 (Jul., 1986) https://doi.org/10.2307/3105385.

[1] TG2000 del 3/3/2023.

[2] www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html

[3] Vedi Pompei, M.  (2023) Chat GPT e sviluppo psicologico in Psicoterapia Analitica Reichiana n.1/2023 -  DOI 10.57613/SIAR 39

[4] Anche la psicoterapia, che descrive il funzionamento degli esseri umani e soprattutto quello disfunzionale dei pazienti, rischia di non vedere affatto tutto quello che è implicito ed esprime i valori della cultura dove la psicoterapia si è sviluppata, che non corrispondono necessariamente a quelli del paziente.

[5] Ne sono pubblicati stralci nell'articolo L'algoritmo di Yuval Abraham pubblicato sul quotidiano “Il Manifesto” del 5/4/2024.

[6] Dati IEA 2023.

[*] Psicologa psicoterapeuta, analista e didatta supervisore S.I.A.R. Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.. Studio professionale: Via Valadier, 44-00193 Roma

Share