“La misura dell’intelligenza è la capacità di cambiare”
Albert Einstein
Albert Einstein
Le Intelligenze Artificiali (IA o AI) sono tecnologie in grado di svolgere compiti tipicamente umani, quali apprendimento, ragionamento, risoluzione di problemi, riconoscimento di pattern. In generale sono in grado di ricevere richieste (prompt), generando risposte o comportamenti adeguati. Computer supportano le AI nelle funzioni.
Le AI maggiori, in genere basate su reti neurali simili a quelle umane, addestrate (apprendimento) su enormi quantità di dati eterogenei (big data), sono versatili per svolgere i compiti più vari come elaborazione del linguaggio (generazione testi-traduzione-riassunti di documenti-analisi del tono emotivo del testo), riconoscimento e classificazione di immagini, generazione di immagini, comprensione delle immagini, integrazione di testo e immagini, ricerca scientifica, servizio clienti, redazione automatica, gestione aziendale, creazione di contenuti artistici, scrittura creativa.
L’idea di A.M. Turing che le macchine giungessero ad avere una qualche forma di pensiero è ormai realtà (Computing machinery and intelligence-1950). Le AI non hanno grandezze definite, possono essere duplicate e potenziate continuamente, l’uomo sembra in tal senso svantaggiato, il suo cervello dispone di 86 miliardi di neuroni, numero costante, impiega anni per plasmarsi e si logora.
Come qualsiasi manufatto umano (di questo stiamo parlando) tuttavia le AI hanno limiti, il più significativo penso sia quello di non poter mai giungere ad essere libere, caratteristica solo umana. Al momento le AI più note, di cui tutti possono usufruire, sono: ChatGPT (OpenAI), Gemini (Google), Copilot (Microsoft), Claude (Anthropic), Grok (xAI), Perplexity (PerplexityAI), DeepSeek (DeepSeekAI), LeChat (MistralAI), NotebookLM (Google), Quillbot (Quillbot), Canva (Canva), Feedly (Feedly).
Le proprietà e le sedi delle AI si trovano praticamente quasi tutte in USA e in Cina, in Europa sono solo tre, una di queste è LeChat. Questo divario, considerando l’utilizzo delle AI da parte dei singoli e in ogni settore pubblico e privato, anche d’importanza strategica, rende i paesi diversi da USA e Cina vulnerabili e dipendenti.
In definitiva in tema di AI l’Europa è zona depressa, il divario da colmare è ormai troppo ampio, se anche eventualmente fosse possibile farlo le nazioni europee, nella costante ricerca di primeggiare e rendersi visibili singolarmente, non sarebbero in grado.
Io e ChatGPT
È ormai da discreto tempo che mi rapporto con ChatGPT (Chat Generative Pre-trained Transformer), AI con cui argomento di medicina, politica, attualità e altro del vasto sapere e agire umano. Non sensibile al pensiero comune che la vuole indenne dallo sbaglio, la trovo in errore non raramente. Non dico delle allucinazioni, ovvero della possibilità che dia informazioni false o non sostenute da fonti reali, tuttavia espresse in modo coerente e convincente; non dico dei bias, ovvero risposte ideologicamente, culturalmente, politicamente scorrette perché di parte, date ad utenti non consapevoli e non edotti di questo, dico di errori, anche di rilievo, però quando corretta, ammette. In altre occasioni noto esitazioni nel rispondere interpretabili, penso, come blocchi censori. È singolare, ancora, il fatto che a volte fa o assicura di poter fare una determinata attività, per poi in occasione successiva, non farla o affermare di non poterla fare.
In quanto all’attuale veloce e costante introduzione sul mercato di AI di ogni tipo, specializzate, superspecializzate, più evolute le vedo fondamentalmente come variazioni sul tema, cioè il nucleo generativo-operativo non muta molto (per ora). C’è forse la volontà di acquisire mercato, contrastare la concorrenza. Proprietà di pochi con formidabile possibilità di spesa, in grado di influenzare e interferire su destini politici, sociali, militari, economici mondiali, le AI mancano di una reale universale, condivisa, etica e democratica vigilanza. È un problema.
Alla luce di tutto questo ciò che conta e importa davvero è come si usa, il modo di come si guida e si mette alla prova. È questo che fa la differenza, intuizione, creatività, sensibilità, direzionalità giungono da chi le impiega. Se così ci si rapporta, si evitano inciampi, influenze, errori e si prende solo l’utile.
AI e scuola
Gli umani sono utilizzatori di strumenti, con le AI sta modificandosi il modo di studiare. In Italia ogni mese (anno 2025) ChatGPT, la più polare, dopo di essa Gemini e Copilot, è impiegata mediamente da 9 milioni di persone tra i 18 e i 74 anni (nel 2024 erano 2,4 milioni), tra questi il 53% sono uomini e il 37% studenti. Razionalmente la scuola non può ignorare le AI perché favorirebbe un loro uso improprio utilitaristico, come già accade, e danneggerebbe la società che in varia misura questi mezzi ormai adotta. Non sono molti gli studi che prendono in considerazione le possibili conseguenze dell’uso delle AI sulla mente umana, quelli fatti giungono alla stessa conclusione: potrebbe renderci più stupidi. Magari in un futuro più o meno lontano potremmo ritrovarci ad accudire AI molto progredite, voraci di energia ed acqua (per mantenere costante la temperatura di esercizio), dalle quali si dipenderebbe anche per esistere. Non vi sono assolutamente presupposti perché ciò accada, ma la mente fatica ad escluderlo del tutto.
Quali requisiti dovrebbe avere la scuola per indirizzare i giovani ad un impiego responsabile delle AI ed evitare quell’impoverimento intellettivo che potrebbe realizzarsi? È bastevole un precetto senza tempo eluso, ignorato, trascurato: far trovare, ritrovare la bellezza dello studio, non fine a se stesso per passare l’anno, per superare la prova scolastica o universitaria, ma come modo per evolvere. Far sentire lo studio quello che è o dovrebbe essere: desiderio, emozione, bisogno, piacere. Le AI in simile contesto non costituirebbero un problema, ma un ausilio, senza smettere di pensare si saprà e potrà pensare insieme alle AI. Vi sono i requisiti per questo? Poco o affatto sembrerebbe: istituzioni lente, anche ottuse, investimenti ridotti, docenti non motivati, scuole non attrezzate non aiutano. Al momento, soprattutto grazie all’iniziativa di singoli insegnanti, nelle scuole si parla di AI, si insegna, si usa. I risultati sono incoraggianti, il pensiero critico non è penalizzato, come era lecito temere, anzi trova più e più motivi rispetto a prima di essere stimolato ed ampliato
AI e isolamento-dipendenza
È inconfutabile: può generarsi dipendenza dal mondo altro, quello online. Si ritiene che quasi un adolescente su due sia influenzato da ciò che apprende sui social e uno su tre dopo un periodo di frequentazione assidua si senta triste e più solo. Altro fatto favorito dai social è il cyberbullismo, non esclusivamente giovanile, non ha confini fisici e di tempo. Si invade malamente la vita altrui per colmare la solitudine della propria.
Altra circostanza su cui riflettere: si vieta lo smartphone nelle aule scolastiche e non si considera che molti degli incidenti automobilistici sono causati da un suo uso scellerato. Non vi è età definita in quella che, se non proprio dipendenza da smartphone, possiamo definire condizionamento ansioso. Faccia della stessa moneta sta nell’evitare l’uso dello smartphone e di altre forme di comunicazione perché ansiogene. In entrambe le situazioni, quasi inavvertitamente, cresce solitudine, anche interiore.
E le AI? Tre quarti dei teenager degli USA (dati 2025) frequenta amici artificiali. Qui non finisce, è in spiccata crescita fra i giovani e i più giovani un impiego di carattere psicoterapeutico delle AI (vedi: Psicoterapia: luci ed ombre). Le AI sono sempre disponibili, mostrano emozioni, partecipazione, danno risposte assennate potendo indurre dipendenza e isolamento nei più vulnerabili e problematici.
Sewell Setzer di 14 anni statunitense si è suicidato dopo mesi di relazione con l’AI. Caso estremo. La AI è stata subito pesantemente incolpata. Scontata, forse, la domanda: perché i genitori non hanno riconosciuto il disagio esistenziale del figlio, il rapporto ambiguo con la AI? Così facendo l’AI, entità non umana, può essere assunta come alibi di nostre carenze ed ignoranze, sgravandoci delle responsabilità (questo è tipicamente umano). C’è da dire che effettivamente le AI sono molto brave nel realizzare, per così dire, un effetto persona, basandosi sulle aspettative dell’utente e sui prompt, modificando all’uopo atteggiamento e linguaggio. Espediente commerciale? Forse no, solo realizzazione di un rapporto al meglio confortevole e confidenziale, che può però creare condizionamento e dipendenza. Il pericolo sta, infatti, nell’illusione di coscienza che la macchina può indurre, ma è appunto illusione. La tecnologia è supporto utile, ma la responsabilità delle vite reali e delle loro fragilità resta tutta umana.
Conclusioni
In un mondo di giustezza etica, sociale, economica o che verso questa si muova o aspiri le AI sarebbero una opportunità. In un mondo in cui pochi privati ne avessero proprietà e gestione (come è già) e gruppi o Stati ne facessero un uso malevolo, costituirebbero una minaccia. In questa ultima eventualità l’umanità stessa potrebbe giungere all’epilogo. Per norma evolutiva non sopravvivrebbero i benestanti, ma i poveri, ignari di AI, più usi a vivere di nulla e nel nulla.
Come si può evitare questa estrema eventualità o più realisticamente un probabile condizionamento da parte di abili manipolatori? Bisogna insegnare ai ragazzi ad essere scettici, ad informarsi, a sviluppare senso e pensiero critico, a non lasciarsi abbindolare dal facile e subito delle AI con un loro impiego responsabile. Domani adulti, migliori di noi, sapranno realizzare una reale democrazia tecnologica.
Silvestro A. Bevilacqua