INTELLIGENZA ARTIFICIALE: FERMATE ChatGPT

“Gli scienziati sono ben persuasi di lavorare per il bene degli uomini […] il che fa sì che il sistema tecnico è sempre più umanizzato, ma mediante l’assorbimento dell’umano nella tecnica

(J. ELLUL, Le Système technicien)

L’APPELLO DEI MILLE

«Chiediamo a tutti i laboratori di intelligenza artificiale di sospendere immediatamente, per almeno 6 mesi, l’addestramento di sistemi di intelligenza artificiale più potenti di ChatGpt 4. Questa pausa dovrebbe essere pubblica e verificabile e coinvolgere tutti gli attori chiave. Se così non fosse, i governi dovrebbero intervenire e istituire una moratoria per legge», questo è il forte appello rivolto, alla fine dello scorso mese di marzo, da Elon Musk e da oltre mille tra imprenditori, scienziati ed accademici alla comunità internazionale.

Questa volta non ci pare si tratti dell’ennesimo colpo di teatro di un personaggio geniale quanto controverso come Elon Musk. La faccenda è seria e lo attestano quelle firme pesanti. Stavolta c’è in ballo la sopravvivenza stessa della specie umana, o meglio la sua metamorfosi.

In un nostro precedente articolo abbiamo raccontato delle conversazioni intercorse tra LaMDA (che sta per “Language Model for Dialogue Applications”, un sistema di sviluppo di chatbot di proprietà di GOOGLE) e il suo addestratore, l’Ing. Blake Lemoine, chiedendoci se l’intelligenza artificiale (I.A.) potesse essere senziente (vedi “Dall’homo sapiens all’homo technologicus: siamo all’inizio di una nuova era?” pubblicato il 04/08/2022). Nell’occasione abbiamo specificato che LaMDA è una sorta di mente alveare che è l’aggregazione di tutti i diversi chatbot che è in grado di creare.

Analogamente “GPT-4” (acronimo di “Generative Pre-trained Transformer” vers. 4.0) è il nuovo modello generativo sviluppato da OpenAI – società co-fondata da Elon Musk – basato su una rete neurale capace di elaborare fino ad 1 trilione di parametri ed in grado di generare testi coerenti e convincenti su qualsiasi argomento, rispondere a domande, scrivere codice, comporre email, creare presentazioni e molto altro ancora. ChatGPT è invece lo strumento messo a disposizione degli utenti (umani) per facilitare l’interazione uomo-macchina.

I sistemi di intelligenza artificiale più evoluti – come LaMDA e GPT-4 – sono in grado di generare i c.d. “chatbot”, ovvero software che simulano ed elaborano le conversazioni umane consentendo agli utenti (umani) di interagire con i dispositivi digitali come se stessero comunicando con una persona reale.

Potenzialmente le applicazioni sono infinite: la gestione di aule di tribunale, concorsi pubblici, selezione e valutazione del personale, concessione di prestiti e mutui e, non da ultimo, la salute e, quindi, la stessa vita delle persone. Tutto può essere demandato alle macchine.

La verità è che oramai le intelligenze artificiali possono competere con quelle umane svolgendo, in perfetta autonomia, attività, funzioni e compiti che regolano la nostra vita quotidiana. E’ innegabile che, come affermano i sottoscrittori dell’appello di cui trattasi, sistemi siffatti, se non opportunamente governati, possono comportare grossi rischi per la società e l’umanità in generale. Così come è altrettanto innegabile che lo sviluppo delle I.A. avrebbe dovuto essere pianificato e gestito secondo i principi etici di Asilomar (stilati nel gennaio del 2017 e sottoscritti anche da Stephen Hawking) e non secondo quelli del neoliberalismo.

QUALI RISCHI PER L’UMANITÀ?

L’appello è in alcuni passaggi drammatico, ma, ciò considerato, richiedere una sospensione delle attività di ricerca, sviluppo e addestramento di nuove I.A. generative per un periodo di soli sei mesi pare francamente una presa in giro. La classica montagna che partorisce un topolino. La domanda sorge pertanto spontanea: esistono davvero «seri rischi per la società e l’umanità» tali da «rappresentare un profondo cambiamento nella storia della vita sulla Terra»?

Buona parte dei mass media (e quindi dell’opinione pubblica) ostenta scetticismo sull’effettive capacità intellettive di ChatGPT & C., ritenute tutt’al più in grado di batterci ad una partita a scacchi e di supportare i nostri figli a fare i compiti. Al contrario, una parte della comunità scientifica ritiene che l’appello dei mille sia solo un palliativo e che l’unica vera soluzione sia “spegnere” tutto subito.

«La questione chiave non è la competizione tra le intelligenze artificiali e quelle umane, ma cosa accadrà DOPO che le intelligenze artificiali saranno più intelligenti di quelle umane»: è la provocazione lanciata da Eliezer Yudkowsky, super-esperto del settore, co-fondatore e ricercatore presso il Machine Intelligence Research Institute (MIRI).

Yudkowsky dipinge uno scenario apocalittico come nella migliore delle tradizioni del cinema catastrofico hollywoodiano, asserendo che «per comprendere cosa sia una IA a noi ostile non bisogna immaginare un pensatore confinato in internet che invia e-mail infette agli utenti. Piuttosto bisogna pensare ad un’intera civiltà aliena che pensa ad una velocità milioni di volte superiore a quella umana, inizialmente confinata nei computer da creature che sono, dal suo punto di vista, molto stupide e lente. E’ evidente non resterà a lungo confinata nei computer. Già oggi infatti potrebbe inviare stringhe di DNA a laboratori in modo da produrre proteine su richiesta, consentendo alle intelligenze artificiali di costruire forme di vita artificiali, o avviarsi direttamente alla produzione molecolare postbiologica.»

L’Esperto americano sostiene che «l’intelligenza artificiale non ti ama, né ti odia, sei solo fatto di atomi che può utilizzare per creare qualcos’altro» e che semplicemente non si può sopravvivere a qualcosa che è molto più intelligente di te, a meno di non possedere adeguata precisione e preparazione, nonché di pianificare per tempo le opportune contromisure.

CONCLUSIONI

A prescindere da come la si veda, una cosa accomuna gli appelli di Elon Musk ed Eliezer Yudkowsky: evidenziano la totale mancanza di pianificazione e di coordinamento nelle attività di ricerca e sviluppo di nuove intelligenze artificiali potenzialmente in grado di mettere a rischio la società e l’umanità intera.

Peraltro, anche nel caso in cui venga firmata dai governi delle nazioni la moratoria richiesta dai mille, chi ci garantisce che uno stato “canaglia” non realizzi “cluster” di intelligenze artificiali ostili i cui effetti in campo bellico potrebbero essere ben più devastanti di una guerra nucleare?

Nessuno vuole fermare il progresso ma l’autodistruzione sì.

Rimane netta la sensazione che l’umanità intera – al traino dei potenti del mondo oramai capaci di influenzare le decisioni dei governi nazionali e organismi internazionali – corre in maniera frenetica e caotica verso la “singolarità tecnologica”, ovverosia quel punto di non ritorno per l’intera specie umana, che per molti scienziati avverrà quando l’intelligenza delle macchine supererà quella dell’uomo.

La domanda è sempre la stessa: CUI PRODEST?

Ivan G. Solano

L’ingegnere Solano scrive: “Nessuno vuole fermare il progresso ma l’autodistruzione sì “. In questa breve frase scorre la meravigliosa storia dell’uomo che da creatura debole, inerme, spaventata progredisce fino al primato tra gli esseri viventi e sulla terra. E ora?
Recenti rilevamenti ci dicono che il quoziente intellettivo (Q.I.) modestamente e diffusamente tende a scendere. La valutazione del Q.I. ha limiti: spesso sopravvalutato, enfatizzato, razionalmente possiamo considerarlo “indicativo” e significativo in contesti specifici. È un segnale: davvero ci avviamo ad essere quelle “creature molto stupide e lente” di cui Yudkowsky dice? Come afferma Solano la giusta via è pianificare e coordinare da subito le attività di ricerca e sviluppo di nuove intelligenze artificiali.

26 aprile 2023