May 7, 2025

Prima di trattare le varie teorie riguardanti l’intelligenza artificiale, bisogna precisare che, in questa branca della scienza, esiste una particolare categoria di studi, che ruotano attorno al concetto di “intelligenza artificiale forte”.

Formenti spiega come, per i sostenitori di questa teoria “ la mente cosciente non sarebbe altro che un analogo biologico dei programmi che girano sul computer.”1Ciò equivale a ridurre il cervello ad una semplice “macchina di carne”, trasformando il problema della comprensione dei meccanismi cognitivi, in quello della loro semplice emulazione.

Tale aspetto è il principale limite di questa epistemologia nervosa, poiché una corretta riproduzione digitale di un processo cognitivo, è impensabile senza la sua adeguata definizione. Il sogno degli scienziati attratti dall’idea dell’IA forte, assomiglia al tentativo di quanti vogliono correre ancor prima di saper camminare, poiché eliminano del tutto la questione delle funzioni cerebrali, riducendo il tutto ad un banale “copia e incolla”. Lo stesso Formenti puntualizza che :”confondere la capacità di simulare determinati fenomeni con la capacità di produrli realmente ( e quindi capirli) […] Significa commettere un’imperdonabile ingenuità epistemologica.

Secondo lo studio Giuseppe Longo, la convinzione di poter superare il pensiero dal suo supporto è totalmente infondata e l’impossibilità di effettuare una tale operazione è universalmente riconosciuta dalla comunità scientifica.

Uno dei pionieri degli studi sulle intelligenze artificiali è stato Edward Fredkin, il quale ha iniziato il suo percorso di studi nel programma militare SAGE, per poi continuare il suo operato, da civile, presso il MIT.

Fredkin è stata una figura molto particolare, era afflitto da fobie apocalittiche, che lo inducevano a credere ad una prossima fine del mondo, in previsione della quale si era convinto del fatto che “i progressi veloci dell’ IA [erano] la sola salvezza dell’umanità, i soli mezzi attraverso cui l’intelligenza razionale potesse prevalere sui limiti e la pazzia umani.”2

Lo studioso considerava il mondo un gigantesco computer e sulla base di questa speculazione si era posto l’obiettivo di creare un programma, da lui denominato “l’algoritmo globale”, con cui garantire la pace e la prosperità. Fredkin ha fondato anche una disciplina interessata esclusivamente al raggiungimento di tale traguardo: la “fisica digitale”, per la quale il mondo è una simulazione di Dio.

E’ facile notare come tutto il modello teorico dello scienziato sia caratterizzato da uno stretto legame con la religione; ciò rafforza la tesi espressa da Noble nel suo la religione della tecnologia, secondo cui la tecnica è espressione del desiderio umano di ottenere la redenzione, il paradiso, l’immortalità, riversando nella scienza pulsioni proprie dei culti religiosi. Nel postmodernismo le barriere che separavano tecnologia e religione sono crollate, per Noble questi percorsi sono ormai strettamente intrecciati, tanto da costituire un unico sentiero che conduce alla vita eterna. Un’immortalità digitale, in sintonia con quella religiosa, poiché anch’essa privata del corpo, vissuta come pura astrazione nell’etere informazionale.

Sulla stessa scia di Fredkin si collocano altri tre scienziati: Newell, Simon e J.C. Shaw, i quali ambivano, come il loro precedessore, a sviluppare dei programmi in grado di simulare la mente umana. I loro studi portarono alla creazione del programma “Logic Theorist progettato per provare automaticamente i teoremi derivati dai Principia Mathematica di Russell e Whiteghead.”3Gli studiosi erano accesi sostenitori della teoria dell’intelligenza artificiale forte, a dimostrazione di ciò, Newell e Simon hanno scritto che: “ il punto di vista fondamentale del nostro lavoro è stato che il computer programmato e il processo di soluzioni umane sono entrambe specie che appartengono al genere del sistema di elaborazione dell’informazione […] L’ambiguità che ha tormentato la teoria dei più alti processi mentali e altre parti della psicologia scompare quando i fenomeni sono descritti come programmi.”4

Un’altra importante figura che ha animato i palcoscenici degli studi sull’IA, è stato Minsky, rimasto celebre per i suoi continui attacchi all’anatomia umana e alle capacità dell’uomo in generale, “ le sue affermazioni mostravano un profondo disprezzo per la mera mortalità e un’impazienza nell’attesa di qualcosa di superiore.”5

Minksy considera la mente una semplice macchina di carne e il corpo un fardello inutile, l’uomo è dunque tenuto a sbarazzarsi di entrambi, poiché ciò che è realmente importante è la facoltà cognitiva, paragonabile ad un semplice programma informatico. Lo studioso si è improvvisato un novello Cartesio digitale, mostrando tendenze che potrebbero tranquillamente essere definite extropiane. Minsky ha anche coniato il termine “agenti intelligenti”, nel tentativo di spiegare il comportamento do una macchina capace di apprendere, pensare e decidere. “Il modello si fonda su una rete composta da una miriade di “atomi di pensiero” [virgolette originali], o monadi logiche, capaci di compiere operazioni computazionali estremamente semplici […] Presi singolarmente gli agenti possono combinare poco, ma la loro “assemblea” (che Minksy chiama la “società della mente”) [virgolette originali] sarebbe dotata di facoltà emergenti che trascendono la sommatoria delle capacità individuali delle monadi.”6. Ovvero una teoria secondo cui il tutto è più della somma delle singole parti.

Formenti nota come questa intuizione di Minsky, benché astratta, riassume il concetto su cui si fonda il filone della “computazione evolutiva”, impegnata nello sviluppo di programmi in cui IA indipendenti interagiscono nel tentativo di risolvere problemi derivanti dai cambiamenti ambientali, per individuare strategie di adattamento.

Un indirizzo di studi più affine alle idee dello scienziato è invece quello del “connessionismo”, un’analisi scientifica delle capacità delle IA, romanzate da Gibson. L’obiettivo è quello di valutare e comprendere il modo in cui IA indipendenti interagiscono, nella speranza di osservare la manifestazione di comportamenti umani, come l’apprendere o il pensare.

L’approccio a cui si ricorre sia nel connessionismo che nella computazione evolutiva, è quello del bottom-up: i ricercatori danno agli agenti comandi semplici, sperando che i comportamenti intelligenti “emergano dalla massiccia applicazione parallela di queste semplici regole e dalla loro [degli elementi] interazione.”7

Esempio di applicazione bottom-up è stato il progetto A-Life, ideato dallo scienziato Von Neumann, che “sviluppa la teoria dell’autoriproduzione cellulare degli automi”8, ovvero mirante ad analizzare se l’intelligenza artificiale può riprodursi ed il modo in cui ciò avviene. Lo scienziato però non è mai riuscito ad ultimare il suo esperimento. Nel 1980 poi, la NASA si è interessata a questa teoria ed ha avviato un nuovo programma A-Life con lo scopo di valutare la possibilità di “progettare macchine capaci di produrre, replicare, cresce, autoripararsi ed evolversi, macchine da utilizzare per la colonizzazione di altri pianeti.”9

L’esperimento, nota Noble, era animato da profondi sentimenti religiosi, il gruppo di lavoro era convinto di stare creando una nuova forma di vita di silicio, l’infatuazione era tale da indurre gli scienziati s concepire le IA come “nostra progenie in senso sia completamente letterale che materiale.”10Nuovi essere digitali che avrebbero regalato all’uomo l’immortalità.

Uno dei più accaniti sostenitori della vita artificiale è stato J. Doyne Farmer, secondo le cui profezie, apparirà una nuova classe di organismi artificiali “nel senso che saranno in origine progettati dagli uomini […] Si riprodurranno e si evolveranno in qualcosa di diverso dalla loro forma iniziale. Saranno “viventi” [virgolette originali] sotto ogni ragionevole definizione della parola […] Il passo del cambiamento evoluzionistico sarà di conseguenza estremamente rapido.”11

Nonostante progetti come A-Life abbiano abbandonato la pretesa di riprodurre perfettamente i meccanismi cognitivi umani, sconfessando la teoria del cervello come semplice “macchina di carne”, l’approccio bottom-up rimane comunque saturo di slanci religiosi.

Come ha puntualizzato Formenti, lo scienziato impegnato nello studio delle IA, si è spogliato degli abiti del demiurgo, per vestire quelli dell’alchimista, che risveglia “l’anima “virtuale” [ virgolette originali] che sonnecchia nella macchina.12 Ciò che rimane immutata è la tensione religiosa che pervade la corsa verso l’eldorado artificiale.

L’onnipotenza di Neuromante ed Invernomuto è il testimone evoluzionistico, che in A-Life, passa dall’uomo alla macchina. Se nel romanzo le IA alterano la realtà, nella scienza postmoderna, queste la colonizzeranno in un futuro prossimo, la bandiera dell’eternità sventola sia nella finzione letteraria che nei bollettini scientifici, saldando con ostinazione la scienza avanguardistica e redenzione religiosa. La realtà, lungo il sentiero che porta alla salvezza, ha di gran lunga superato la fantascienza, laddove Gibson si “limita” a costruire divinità virtuali, A-Life, Friedkin, Farmer, Minsky si spingono molto oltre, dando per scontato l’avvento di una nuova alba di silicio, in cui gli esseri umani saranno definitivamente obsoleti.

1 Carlo Formenti, Incantati dalla rete, Raffaello Cortina Editore, Milano, 2000, p.113

2 David F. Noble, La religione della tecnologia, tr. it. Edizioni di Comunità, Torino, 200, p.203

3 Ibidem, p.204

4 Ibidem, op. cit. p.204

5 Ibidem, p.205

6 Carlo Formenti, Incantati dalla rete, Raffaello Cortina Editore, Milano, 2000, p.135

7 Ibidem, p.136

8 David F. Noble, La religione della tecnologia, tr. it. Edizioni di Comunità, Torino, 200, p.219

9 Ibidem, p.219

10 Ibidem, p.220

11 Ibidem, op. cit. p.223

12 Carlo Formenti, Incantati dalla rete, Raffaello Cortina Editore, Milano, 2000, p.137

 

James Lamarina

No Comments