← Torna ai documenti

E se la superintelligenza artificiale fosse solo una teoria del complotto e una forma di distrazione di massa?

web Elaborato Creato il 2025-11-15
Modifica

Metadati

Hash
46830fc5736e68df...
Data Pubblicazione
2025-11-14
Lingua
it
Ultimo Aggiornamento
2025-11-15 21:43

Sintesi Breve

Riassunto generato da Gemini (max 200 parole)

L'articolo mette in discussione l'imminente avvento della superintelligenza artificiale (AGI), definendola un mito pericoloso e una teoria del complotto. Molti esperti ritengono improbabile che l'AGI venga raggiunta con i paradigmi attuali del deep learning. Si critica l'attenzione eccessiva verso scenari fantascientifici, che distrae dai rischi concreti dell'IA, come l'impatto sul lavoro, i costi ambientali e i pregiudizi algoritmici. La narrazione sull'AGI, alimentata da interessi economici, influenza la percezione dei costi e benefici dell'IA, sottraendo risorse a soluzioni più pratiche e concrete. Il vero rischio è ignorare i danni attuali dell'IA, illudendosi che una futura superintelligenza risolverà tutti i problemi.

Trascrizione Estesa

Testo rielaborato e formattato da Gemini

“Preoccuparsi della superintelligenza artificiale è un po’ come porsi il problema del sovrappopolamento di Marte prima ancora di averci messo piede”, aveva spiegato nel 2015 Andrew Ng, pioniere del deep learning, ex ingegnere di Google e Baidu ed ex direttore dell’AI Lab di Stanford. A distanza di anni, le parole pronunciate da Ng rimangono quelle che meglio descrivono il problema della artificial general intelligence (AGI), l’AI di livello almeno pari a quello umano: è una tecnologia che non solo non esiste, ma nemmeno sappiamo se mai sarà raggiunta. Peggio ancora: nessuno ha la più pallida idea di come la si possa costruire, a maggior ragione in una fase in cui la legge di scala teorizzata dall'amministratore delegato di Anthropic, Dario Amodei – secondo cui le abilità dei large language model (LLM) crescono proporzionalmente al crescere delle dimensioni dei modelli, dei dati usati in fase di addestramento e della potenza di calcolo a disposizione – sta vivendo un momento di invalidazione, perché i modelli più recenti hanno mostrato progressi marginali a fronte di dimensioni e consumi esponenzialmente superiori. È questo che rende problematiche le varie lettere aperte contro lo sviluppo della superintelligenza artificiale: partono da una premessa sbagliata, cioè che la AGI sia dietro l’angolo, per concentrarsi su un problema che non esiste, distraendo così la società dai rischi concreti dell’intelligenza artificiale, come impatto sul mondo del lavoro, costi ambientali, pregiudizi algoritmici, sorveglianza, tra gli altri. La superintelligenza artificiale è solo un mito? Perché ChatGPT e gli altri large language model – strumenti statistici la cui unica abilità, per quanto sorprendente, è prevedere quale parola abbia la maggiore probabilità di essere coerente con quelle che l’hanno preceduta – dovrebbero prendere coscienza, diventare superintelligenti e magari anche ribellarsi all’essere umano? Com’è possibile che sia normale ridicolizzare le persone che soffrono di ecoansia a causa della crisi climatica, mentre viene preso sul serio chi teme uno scenario Terminator, in cui l’intelligenza artificiale annienta la specie umana? “Mi sorprende sempre come alcune persone che hanno una profonda conoscenza tecnica del funzionamento di questi strumenti possano credere alla AGI”, ha affermato, parlando con la MIT Tech Review, Ben Goertzel, scienziato informatico e autore del primo paper scientifico (2007) in cui si affronta il tema dell’intelligenza artificiale generale. Con tutta probabilità, Goertzel fa riferimento ai padrini del deep learning Geoff Hinton e Yoshua Bengio, i cui nomi compaiono regolarmente nei vari appelli contro la superintelligenza artificiale. E che con la loro presenza contribuiscono a dare credito a questi timori, per lo sconforto della stragrande maggioranza degli scienziati informatici specializzati in intelligenza artificiale. Se c’è un aspetto su cui infatti non ci possono essere dubbi, è che la comunità scientifica è estremamente scettica sulla possibilità che lo sviluppo del deep learning e dei modelli linguistici possa portare all’avvento della AGI e della superintelligenza artificiale (che rappresenta la naturale evoluzione della prima). Gli scienziati che sono contro l'AGI Lo ha confermato ancora una volta un recente sondaggio pubblicato dalla Association for the advancement of artificial intelligence (Aaai), in cui sono stati interpellati 475 ricercatori in intelligenza artificiale e i cui risultati sono ancora una volta molto netti: secondo il 76% degli intervistati è “improbabile” o “molto improbabile” che la AGI possa essere raggiunta “seguendo gli attuali paradigmi del deep learning”. In parole più semplici: nessuno può escludere che un domani l’intelligenza artificiale generale venga in qualche modo raggiunta, ma tre quarti dei ricercatori sono convinti che, affinché ciò si verifichi, sia necessario un nuovo “breakthrough” tecnologico: qualcosa che permetta di andare oltre al deep learning e di cui al momento non si vede nemmeno l’ombra. “Gli immensi investimenti nella crescita della scala [dei modelli linguistici, ndr], non accompagnati da sforzi altrettanto significativi per capire cosa stia realmente accadendo, mi sono sempre sembrati mal riposti”, ha spiegato al New Scientist Stuart Russell, docente di Informatica a Berkeley e tra gli autori del rapporto. “Penso che, circa un anno fa, sia diventato evidente a tutti che i benefici della legge di scala avevano raggiunto il picco”. Effettivamente, fino a poco tempo fa sembrava che il clima attorno alla AGI stesse finalmente cambiando. Gary Marcus, scienziato informatico che da anni si batte contro le narrazioni fantascientifiche che circondano il deep learning, ha per esempio mostrato come un numero crescente di personalità – tra cui alcuni dei massimi esperti, come l’informatico Richard Sutton, Andrej Karpathy di Tesla e in parte perfino Demis Hassabis di DeepMind – abbia fatto retromarcia rispetto a queste grandiose promesse tecnologiche. La teoria del complotto legato alla superintelligenza artificiale D’altra parte, chi può realmente credere a Sam Altman quando afferma che l’impatto ambientale odierno è inevitabile se vogliamo usare l’AI per “risolvere la fisica” (qualunque cosa voglia dire) e “curare il cancro”, quando è lo stesso fondatore di OpenAI a puntare economicamente su deepfake, contenuti erotici e tutto il mare di AI slop – contenuti di scarsissima qualità automaticamente generati – reso possibile da Sora? Se le cose stanno così, rimane da capire perché non riusciamo a liberarci dai discorsi sull’imminente, ma sempre futuro, avvento della AGI. Da una parte, promettere che una tecnologia talmente potente da trasformare per sempre l’umanità sia dietro l’angolo torna estremamente utile ai vari colossi che stanno scommettendo migliaia di miliardi di dollari sulle potenzialità dell’intelligenza artificiale. Investimenti che iniziano a suscitare perplessità e a far temere che sia imminente lo scoppio di una bolla speculativa, ma che sono ovviamente giustificabili se la promessa è quella di dare vita a un “dio digitale”. Dall’altra, questa narrazione della superintelligenza artificiale sembra ormai aver preso una vita propria, in maniera non dissimile da ciò che avviene con le più note teorie del complotto: “Se stai dando vita a una teoria del complotto, ti servono alcuni ingredienti fondamentali: uno schema abbastanza flessibile da essere credibile anche quando le cose non vanno come previsto, la promessa di un futuro migliore che potrà realizzarsi solo se i ‘veri credenti’ riusciranno a svelare dei misteri e la speranza di una salvezza dagli orrori di questo mondo. L’AGI soddisfa praticamente tutti questi requisiti”, ha scritto Will Douglas Heaven sulla MIT Tech Review. È un’interpretazione che aiuta a comprendere anche il fervore religioso, quasi mistico, con cui si parla dell’imminente avvento di un’entità dai poteri sovrannaturali che cambierà per sempre il destino dell’umanità. Da questo punto di vista, l’intelligenza artificiale si sta rivelando la fede più adatta alla nostra epoca tecnologica. Come ha scritto Erik Davis nel suo fondamentale saggio Techgnosis, “viviamo in una cultura ipertecnologica e cinicamente postmoderna che sembra attratta come uno sciame di falene dalle fiamme tremolanti della mente premoderna”. Nessuno sa esattamente definire che cosa sia la superintelligenza artificiale (d’altra parte, non sappiamo nemmeno definire con certezza che cosa sia l’intelligenza), nessuno sa quando verrà costruita o se sia possibile costruirla. E nessuno sa nemmeno se ciò, eventualmente, ci proietterà verso un destino utopico o apocalittico (altro elemento di chiara derivazione religiosa). Il vero “rischio esistenziale” Eppure, dare retta a queste narrazioni mistiche ha delle ripercussioni molto terrene: “È importante mettere in discussione ciò che ci viene raccontato sull’AGI, perché aderire a questa idea non è affatto innocuo”, scrive ancora Will Douglas Heaven. “In questo momento, l’AGI è la narrazione più influente nel mondo della tecnologia e, in una certa misura, nell’economia globale. Non possiamo capire davvero cosa stia accadendo nell’intelligenza artificiale senza comprendere da dove provenga l’idea di AGI, perché eserciti un fascino così forte e in che modo plasmi il nostro modo di pensare la tecnologia nel suo insieme”. Non solo: il racconto della AGI ha modificato il modo in cui analizziamo gli attuali immensi costi di questa tecnologia, facendo passare l’idea che siano un problema secondario rispetto ai potenziali guadagni. Ha sottratto risorse ad applicazioni più concrete e pratiche di questa tecnologia, facendo credere che sia utile integrare LLM e “agenti” ovunque, anche dove basterebbe un classico algoritmo predittivo. Ci illude che i più grandi problemi della nostra epoca – compresa la crisi climatica – possano essere risolti da macchine superintelligenti che individueranno tutte le soluzioni in un attimo. È questo il vero “rischio esistenziale” a cui stiamo andando incontro: quello di prestare troppa poca attenzione ai danni sociali, economici e ambientali dell’intelligenza artificiale perché stiamo dando retta a chi promette, spesso per il proprio tornaconto economico, che un domani questa tecnologia potrà risolverli senza difficoltà. La superintelligenza artificiale è un mito pericoloso. Ed è per questo che dovremmo iniziare a trattarla per quello che realmente è: una teoria del complotto o al massimo una narrazione millenarista in bilico tra salvezza dell’umanità e fine dei tempi. Non certo scambiarla per una credibile prospettiva scientifica.

Cartelle

Cartelle in cui è catalogato il documento

Testo Estratto (Cache)

Testo grezzo estratto dalla sorgente

“Preoccuparsi della superintelligenza artificiale è un po’ come porsi il problema del sovrappopolamento di Marte prima ancora di averci messo piede”, aveva spiegato nel 2015 Andrew Ng, pioniere del deep learning, ex ingegnere di Google e Baidu ed ex direttore dell’AI Lab di Stanford.
A distanza di anni, le parole pronunciate da Ng rimangono quelle che meglio descrivono il problema della artificial general intelligence (AGI), l’AI di livello almeno pari a quello umano: è una tecnologia che non solo non esiste, ma nemmeno sappiamo se mai sarà raggiunta.
Peggio ancora: nessuno ha la più pallida idea di come la si possa costruire, a maggior ragione in una fase in cui la legge di scala teorizzata dall'amministratore delegato di Anthropic, Dario Amodei – secondo cui le abilità dei large language model (LLM) crescono proporzionalmente al crescere delle dimensioni dei modelli, dei dati usati in fase di addestramento e della potenza di calcolo a disposizione – sta vivendo un momento di invalidazione, perché i modelli più recenti hanno mostrato progressi marginali a fronte di dimensioni e consumi esponenzialmente superiori.
È questo che rende problematiche le varie lettere aperte contro lo sviluppo della superintelligenza artificiale: partono da una premessa sbagliata, cioè che la AGI sia dietro l’angolo, per concentrarsi su un problema che non esiste, distraendo così la società dai rischi concreti dell’intelligenza artificiale, come impatto sul mondo del lavoro, costi ambientali, pregiudizi algoritmici, sorveglianza, tra gli altri.
La superintelligenza artificiale è solo un mito?
Perché ChatGPT e gli altri large language model – strumenti statistici la cui unica abilità, per quanto sorprendente, è prevedere quale parola abbia la maggiore probabilità di essere coerente con quelle che l’hanno preceduta – dovrebbero prendere coscienza, diventare superintelligenti e magari anche ribellarsi all’essere umano? Com’è possibile che sia normale ridicolizzare le persone che soffrono di ecoansia a causa della crisi climatica, mentre viene preso sul serio chi teme uno scenario Terminator, in cui l’intelligenza artificiale annienta la specie umana?
“Mi sorprende sempre come alcune persone che hanno una profonda conoscenza tecnica del funzionamento di questi strumenti possano credere alla AGI”, ha affermato, parlando con la MIT Tech Review, Ben Goertzel, scienziato informatico e autore del primo paper scientifico (2007) in cui si affronta il tema dell’intelligenza artificiale generale.
Con tutta probabilità, Goertzel fa riferimento ai padrini del deep learning Geoff Hinton e Yoshua Bengio, i cui nomi compaiono regolarmente nei vari appelli contro la superintelligenza artificiale. E che con la loro presenza contribuiscono a dare credito a questi timori, per lo sconforto della stragrande maggioranza degli scienziati informatici specializzati in intelligenza artificiale.
Se c’è un aspetto su cui infatti non ci possono essere dubbi, è che la comunità scientifica è estremamente scettica sulla possibilità che lo sviluppo del deep learning e dei modelli linguistici possa portare all’avvento della AGI e della superintelligenza artificiale (che rappresenta la naturale evoluzione della prima).
Gli scienziati che sono contro l'AGI
Lo ha confermato ancora una volta un recente sondaggio pubblicato dalla Association for the advancement of artificial intelligence (Aaai), in cui sono stati interpellati 475 ricercatori in intelligenza artificiale e i cui risultati sono ancora una volta molto netti: secondo il 76% degli intervistati è “improbabile” o “molto improbabile” che la AGI possa essere raggiunta “seguendo gli attuali paradigmi del deep learning”.
In parole più semplici: nessuno può escludere che un domani l’intelligenza artificiale generale venga in qualche modo raggiunta, ma tre quarti dei ricercatori sono convinti che, affinché ciò si verifichi, sia necessario un nuovo “breakthrough” tecnologico: qualcosa che permetta di andare oltre al deep learning e di cui al momento non si vede nemmeno l’ombra.
“Gli immensi investimenti nella crescita della scala [dei modelli linguistici, ndr], non accompagnati da sforzi altrettanto significativi per capire cosa stia realmente accadendo, mi sono sempre sembrati mal riposti”, ha spiegato al New Scientist Stuart Russell, docente di Informatica a Berkeley e tra gli autori del rapporto. “Penso che, circa un anno fa, sia diventato evidente a tutti che i benefici della legge di scala avevano raggiunto il picco”.
Effettivamente, fino a poco tempo fa sembrava che il clima attorno alla AGI stesse finalmente cambiando. Gary Marcus, scienziato informatico che da anni si batte contro le narrazioni fantascientifiche che circondano il deep learning, ha per esempio mostrato come un numero crescente di personalità – tra cui alcuni dei massimi esperti, come l’informatico Richard Sutton, Andrej Karpathy di Tesla e in parte perfino Demis Hassabis di DeepMind – abbia fatto retromarcia rispetto a queste grandiose promesse tecnologiche.
La teoria del complotto legato alla superintelligenza artificiale
D’altra parte, chi può realmente credere a Sam Altman quando afferma che l’impatto ambientale odierno è inevitabile se vogliamo usare l’AI per “risolvere la fisica” (qualunque cosa voglia dire) e “curare il cancro”, quando è lo stesso fondatore di OpenAI a puntare economicamente su deepfake, contenuti erotici e tutto il mare di AI slop – contenuti di scarsissima qualità automaticamente generati – reso possibile da Sora?
Se le cose stanno così, rimane da capire perché non riusciamo a liberarci dai discorsi sull’imminente, ma sempre futuro, avvento della AGI. Da una parte, promettere che una tecnologia talmente potente da trasformare per sempre l’umanità sia dietro l’angolo torna estremamente utile ai vari colossi che stanno scommettendo migliaia di miliardi di dollari sulle potenzialità dell’intelligenza artificiale. Investimenti che iniziano a suscitare perplessità e a far temere che sia imminente lo scoppio di una bolla speculativa, ma che sono ovviamente giustificabili se la promessa è quella di dare vita a un “dio digitale”.
Dall’altra, questa narrazione della superintelligenza artificiale sembra ormai aver preso una vita propria, in maniera non dissimile da ciò che avviene con le più note teorie del complotto: “Se stai dando vita a una teoria del complotto, ti servono alcuni ingredienti fondamentali: uno schema abbastanza flessibile da essere credibile anche quando le cose non vanno come previsto, la promessa di un futuro migliore che potrà realizzarsi solo se i ‘veri credenti’ riusciranno a svelare dei misteri e la speranza di una salvezza dagli orrori di questo mondo. L’AGI soddisfa praticamente tutti questi requisiti”, ha scritto Will Douglas Heaven sulla MIT Tech Review.
È un’interpretazione che aiuta a comprendere anche il fervore religioso, quasi mistico, con cui si parla dell’imminente avvento di un’entità dai poteri sovrannaturali che cambierà per sempre il destino dell’umanità. Da questo punto di vista, l’intelligenza artificiale si sta rivelando la fede più adatta alla nostra epoca tecnologica. Come ha scritto Erik Davis nel suo fondamentale saggio Techgnosis, “viviamo in una cultura ipertecnologica e cinicamente postmoderna che sembra attratta come uno sciame di falene dalle fiamme tremolanti della mente premoderna”.
Nessuno sa esattamente definire che cosa sia la superintelligenza artificiale (d’altra parte, non sappiamo nemmeno definire con certezza che cosa sia l’intelligenza), nessuno sa quando verrà costruita o se sia possibile costruirla. E nessuno sa nemmeno se ciò, eventualmente, ci proietterà verso un destino utopico o apocalittico (altro elemento di chiara derivazione religiosa).
Il vero “rischio esistenziale”
Eppure, dare retta a queste narrazioni mistiche ha delle ripercussioni molto terrene: “È importante mettere in discussione ciò che ci viene raccontato sull’AGI, perché aderire a questa idea non è affatto innocuo”, scrive ancora Will Douglas Heaven. “In questo momento, l’AGI è la narrazione più influente nel mondo della tecnologia e, in una certa misura, nell’economia globale. Non possiamo capire davvero cosa stia accadendo nell’intelligenza artificiale senza comprendere da dove provenga l’idea di AGI, perché eserciti un fascino così forte e in che modo plasmi il nostro modo di pensare la tecnologia nel suo insieme”.
Non solo: il racconto della AGI ha modificato il modo in cui analizziamo gli attuali immensi costi di questa tecnologia, facendo passare l’idea che siano un problema secondario rispetto ai potenziali guadagni. Ha sottratto risorse ad applicazioni più concrete e pratiche di questa tecnologia, facendo credere che sia utile integrare LLM e “agenti” ovunque, anche dove basterebbe un classico algoritmo predittivo. Ci illude che i più grandi problemi della nostra epoca – compresa la crisi climatica – possano essere risolti da macchine superintelligenti che individueranno tutte le soluzioni in un attimo.
È questo il vero “rischio esistenziale” a cui stiamo andando incontro: quello di prestare troppa poca attenzione ai danni sociali, economici e ambientali dell’intelligenza artificiale perché stiamo dando retta a chi promette, spesso per il proprio tornaconto economico, che un domani questa tecnologia potrà risolverli senza difficoltà.
La superintelligenza artificiale è un mito pericoloso. Ed è per questo che dovremmo iniziare a trattarla per quello che realmente è: una teoria del complotto o al massimo una narrazione millenarista in bilico tra salvezza dell’umanità e fine dei tempi. Non certo scambiarla per una credibile prospettiva scientifica.

Rigenera Contenuti

Rielabora i contenuti con Gemini

Nota: La rigenerazione richiederà alcuni secondi e sovrascriverà i contenuti esistenti.