← Torna ai documenti

Che cos’è (veramente) l’INTELLIGENZA ARTIFICIALE? FILOSOFIA con Luciano Floridi

youtube Elaborato Creato il 2025-10-26
Modifica

Metadati

Hash
3d56cf98b6e047ce...
Data Pubblicazione
20250901
Lingua
it
Ultimo Aggiornamento
2025-10-26 09:28

Sintesi Breve

Riassunto generato da Gemini (max 200 parole)

L'intervento analizza l'evoluzione dell'intelligenza artificiale, dalle origini con Alan Turing e John McCarthy fino all'attuale esplosione dei modelli generativi basati sulla statistica. Si sottolinea come, contrariamente alle aspettative iniziali di un'intelligenza artificiale simile a quella umana, si sia sviluppata una capacità di risolvere problemi in ambienti digitali, grazie all'enorme quantità di dati e alla potenza computazionale. L'autore evidenzia il rischio di trasformare il mondo a misura dell'intelligenza artificiale, adattando l'ambiente alle macchine anziché sviluppare un'intelligenza artificiale in grado di interagire con il mondo reale. Conclude auspicando un futuro in cui l'intelligenza artificiale sia considerata uno strumento, come i cavalli vapore, senza la pretesa di emulare l'intelligenza umana.

Trascrizione Estesa

Testo rielaborato e formattato da Gemini

Più il mondo diventa digitale, più gli agenti artificiali e l'intelligenza artificiale avranno successo, e sempre più avremo la tentazione di trasformare il mondo in un ambiente che fa comodo a loro, magari non troppo a noi. L'intelligenza artificiale oggi è un argomento onnipresente, non solo al cinema, sui giornali e in casa, ma anche al lavoro e in automobile. Se ne parla, se ne discute, suscitando paure ed entusiasmi. Cerchiamo di capire di cosa stiamo parlando quando parliamo di intelligenza artificiale. Sono passati molti decenni da quando l'intelligenza artificiale è emersa come disciplina. Il primo a parlarne, anche se non in questi termini, è considerato il padre della disciplina: Alan Turing. In un famoso lavoro del 1950, Turing introduce un test per valutare se le macchine siano o meno, in termini di comportamento, indistinguibili da un essere umano quando vengono poste delle domande. Non parleremo del test in questo contesto, ma passiamo subito a quello che è successo immediatamente dopo. Pochi anni dopo, a Dartmouth, un gruppo di giovani, tra cui John McCarthy, ha bisogno di finanziamenti per un seminario sulla capacità delle macchine di risolvere problemi al posto degli esseri umani, con un'intelligenza apparente. McCarthy, dopo molte discussioni, propone il termine "intelligenza artificiale". Da quel momento, da Dartmouth ad oggi, abbiamo utilizzato questa terminologia. Cosa è successo negli anni? In una prima fase, si pensava che la logica matematica sarebbe stata lo strumento per realizzare l'intelligenza artificiale, generando qualcosa che la maggior parte delle persone avrebbe confuso con intelligenza umana o biologica. Per decenni, abbiamo cercato di realizzare il sogno, o l'incubo, di un'intelligenza artificiale sintetica. I risultati furono impressionanti ma anche deludenti. L'intelligenza artificiale giocava a dama meglio di chiunque altro, ma non così bene a scacchi. Poteva giocare bene a scacchi solo con un'enorme banca dati. John McCarthy stesso, quando Deep Blue vinse contro il campione del mondo, disse che quella non era la strada, ma un'imbroglio. La seconda fase dell'intelligenza artificiale, quella che viviamo oggi, nasce molti anni fa, ma ha raggiunto l'attenzione di tutti solo recentemente. Questa intelligenza artificiale non si basa sulla logica matematica, ma sulla statistica. Grazie a enormi quantità di dati, potenza computazionale e finanziamenti, si è verificata l'esplosione dell'intelligenza artificiale generativa, come i Large Language Models, tra cui la serie GPT di OpenAI. La fama è iniziata con ChatGPT 3.5. Questa nuova intelligenza artificiale procede per associazioni e correlazioni, imparando dai dati e migliorando le proprie prestazioni. Oggi, l'intelligenza artificiale è in grado di scrivere sonetti, riassunti e produrre video, rispondendo alle nostre domande basandosi sui dati che ha già visto. Si parla sempre più di una reale intelligenza di questi strumenti, ma invece di un matrimonio tra ingegneria e biologia, c'è stato un divorzio. Questa intelligenza non ha nulla a che fare con quella di un animale o di un essere umano. È la capacità di risolvere problemi date le circostanze. L'intelligenza artificiale ha successo a intelligenza zero perché abbiamo adattato il mondo a questi sistemi. Abbiamo costruito il magazzino intorno alle capacità del robot, non viceversa. Più il mondo diventa digitale, più l'intelligenza artificiale avrà successo, e sempre più avremo la tentazione di trasformare il mondo in un ambiente che fa comodo a loro, magari non troppo a noi. La sfida è progettare ambienti in cui l'intelligenza artificiale possa operare con successo, ma dovremmo smettere di chiamarla intelligenza artificiale. Forse, in futuro, l'intelligenza artificiale sarà come i cavalli vapore, una misura di potenza senza che nessuno si chieda se ci sono cavalli veri all'interno.

Cartelle

Cartelle in cui è catalogato il documento

Testo Estratto (Cache)

Testo grezzo estratto dalla sorgente

Più il mondo diventa digitale, più agenti artificiali e intelligenza artificiale avrà successo, sempre più avremo la tentazione di trasformare il mondo in un mondo che fa comodo a loro, magari non troppo a noi. L'intelligenza artificiale oggi è un argomento che troviamo ovunque, non soltanto al cinema, sui giornali e in casa, al lavoro, nell'automobile. se ne parla, se ne discute, chi ne ha paura, grandi entusiasmi. Vediamo un attimo di capire di che cosa stiamo parlando quando parliamo di intelligenza artificiale. Sono adesso passati tanti tanti decenni da quando l'intelligenza artificiale è emersa come disciplina. Il primo a parlarne, anche se non in termini di intelligenza artificiale, ma viene preso un po' come il padre della disciplina è Alan Turing. In un famosissimo lavoro del 1950 introduce un test per capire se le macchine siano o meno in termini di comportamento indistinguibili da un essere umano quando gli si fanno un po' di domande. Non parleremo del test, non è questo il contesto, ma passiamo subito a quello che è successo subito dopo, immediatamente dopo. pochi anni passano e a Datmut un gruppetto di ragazzi tra i quali John McCarty hanno bisogno di un po' di soldi, qualche dollaro. Fanno domanda per un finanziamento, per fare un seminario, una riunione sul tema delle macchine e della loro capacità di risolvere problemi al posto degli esseri umani con quello che potrebbe sembrare intelligenza, richiederebbe intelligenza se fatte da un essere umano queste cose. E Gian Becati dopo tante discussioni e diversi nomi che vengono proposti, tra l'altro uno dei partecipanti è Shannon, il padre fondatore della teoria dell'informazione che ne propone uno impronunciabile, inutile. Jocati è quello che propone la soluzione migliore, brillante. dice, me lo raccontava, ci siamo incontrati lui in tarda età, io molto giovanotto, un po' di anni fa, prima eh della sua dipartita, ebbe l'idea di chiamare questa cosa intelligenza artificiale. Da allora, dal famosissimo momento di intuito brillante a Dartmoth, ad oggi abbiamo utilizzato questa terminologia. Che cosa è successo negli anni? che in una prima fase, eh anche perché la logica matematica era una nuova disciplina a partita da poco, eh non erano spassati molti anni dalla pubblicazione di principi matematica da parte di Whited e Russell, in un primo momento si pensò che la logica matematica sarebbe stata lo strumento per realizzare l'intelligenza artificiale con tutta una lunga serie complessa e incatenata di sé allora e altri passaggi più complessi si sarebbe riusciti a generare qualcosa che la maggior parte delle persone avrebbero confuso per intelligenza umana o biologica, almeno per decenni abbiamo cercato di realizzare il sogno o l'incubo, a seconda delle prospettive, di una intelligenza artificiale sintetica. I risultati a quel tempo furono impressionanti da un certo punto di vista, ma anche molto deludenti. L'intelligenza artificiale giocava a dama meglio di chiunque altro, ma non così bene a scacchi. In realtà poteva giocare bene a scacchi soltanto se allora aveva anche una enorme banca dati. Di fatto finivi per giocare con tutte le più grandi menti di tutti i tempi a scacchi. difficile vincere, ma non era quel modo di essere realmente intelligenti. Lo stesso John Mercati, quando Deep Blue vinse il campione del mondo, disse: "Guardate che questa non è la strada, questa è imbrogliare, non è l'intelligenza artificiale che volevamo fare noi da ragazzi." aveva ragione, però dissi anche a John in quel momento quando ci vedemo a Amsterdam, cioè John, ma io non sono d'accordo proprio, perché sono d'accordo sull'analisi, quella non è intelligenza, ma quello che vuoi fare tu non si può realizzare. Non sappiamo come, non abbiamo neppure una chiara eh idea di che cosa sia l'intelligenza biologica, lasciamo stare quella umana, tantomeno quellartificiale rimase poco convinto John Mecati. John morì pensando che l'intelligenza artificiale un giorno sarebbe stata realizzata. non vide la seconda fase. La seconda fase dell'intelligenza artificiale è quella che viviamo oggi. nasce molti molti anni fa, ma di fatto ha raggiunto le case e l'attenzione di tutte e di tutti soltanto l'altro ieri, pochi anni e l'intelligenza artificiale è realizzata non in termini di logica matematica, se allora, deduzione e così via, ma in realtà come branca della statistica. cambia casa, cambia pelle e grazie a straordinarie, enormi quantità di dati che l'umanità non ha mai visto, grosso modo il 99% dei dati a nostra disposizione, se fate 100 tutti i dati prodotti dall'umanità da quando è uscita dalle caverne a oggi, il 99% è stato generato negli ultimi 20 anni. Immaginate di tutti gli Z byte che abbiamo, quantità oceaniche di dati ogni ZByte, i primi due sono tutta la storia umana fino a al 20005, gli altri a 180 sono stati generati da noi negli ultimi pochi decenni. Allora, grazie a grandissime quantità di dati, a potenza computazionale che quando insegnavo questi temi, le reti neurali negli anni 90, potevamo soltanto sognarci sulla lavagna pensando quanto sarebbe bello se e altre due componenti, tanti tanti dollari, eh perché tanta tanta energia elettrica e tante capacità umane. Eh straordinari algoritmi e soprattutto, vi dicevo, componente vita nostra sempre più digitale. Tutto questo ha portato alla esplosione, nel senso buono del termine, eh lo sviluppo della intelligenza artificiale, quella generativa, quella di oggi, i cosiddetti foundation models o una loro parte i Large Language Models, uno dei quali il più famoso è tutta la serie GPT prodotta da Open AI. La fama di tutto questo è nata e inizia con CH GPT 3.5. Ricordo allora un giornalista che mi disse "Chi se lo sarebbe mai aspettato?". Io che sono un antipatico, dissi "Guardi che si chiama 3.5". È come se uno fosse arrivato alla serie numero 3 e mezzo e si chiedesse non l'ha mai vista nessuno? Ma veramente è dalla prima serie che gli esperti stavano guardando lo sviluppo di tutto questo. Detto questo, la sorpresa fu che venne dato gentilmente a disposizione di tutte e di tutti. bastava avere una connessione un po' un po' di buona volontà e iniziamo a vedere che cosa avrebbe potuto fare la nuova intelligenza artificiale. Questa nuova, vi dicevo, non si basa sulla stretta deduzione, non è una branca della logica matematica, ma è una branca della statistica. E che vuol dire? che e semplifico tantissimo, spero che chi si occupa di questi argomenti in questo secondo possa staccare la spina, procede per associazioni e correlazioni. Tanti tanti dati da questa parte corrispondono a questo risultato dall'altro. Ovviamente molti passi avanti e immaginate che tutto questo sia stato legato poi a qualcosa che noi avevamo già visto, l'avevamo visto con i motori di ricerca quando molti anni fa, da tempo ormai iniziavi a cercare quale fosse una buona pizzeria in città e mentre scrivevi eh ti completava la frase il tuo autore di ricerca, il solito Google e tu ti chiedevi "Ma come fa a sapere che vorrei una buona pizza a e" e ti diceva Milano, beh, sa che sei a Milano può completare e così via, cioè l'autocompletamento probabilistico di una stringa. Sto semplificando oltre misura, ma non in modo del tutto forviante. Immaginate allora che per completare quella stringa ci siano delle probabilità, queste probabilità possono essere calcolate, molti filtri, enormi quantità di dati e autoapprendimento, cioè tanto più il sistema funziona, tanto meglio riuscirà ad imparare dal suo output, dai suoi risultati che rientrano a su a loro volta come input per migliorare la performance e così via. A questo punto abbiamo oggi un'intelligenza artificiale in grado di scrivere eh un sonetto come Shakespeare, eh un riassunto di un articolo, produrre quella generativa, un video sulla base di tre righe di uno script qualsiasi e rispondere alle nostre domande a seconda di qualunque se siano, purché si rivolgano a dati che il sistema ha già visto. Non chiedete, è pericoloso chiedere i risultati della prossima partita a uno di questi motori, a uno di questi sistemi, perché potrà darvi soltanto, diciamo, al meglio una qualche indicazione di massima, sa quello che ha visto perché è stato esercitato su quei dati. A volte questi sistemi si collegano oggi sempre di più anche a motori di ricerca e quindi più velocemente vi potrà dire che cosa è avvenuto ieri, letteralmente questa mattina, ma cosa avverrà domani per potrà soltanto indovinarlo, provare a fare qualcheazione così come noi potremmo farlo, ma non può certo vedere il futuro. In questo contesto si parla sempre più di una reale intelligenza di questi strumenti, quello che era il vecchio sogno di far sposare l'ingegneria da un lato e la biologia dall'altro, nel senso che l'ingegneria di un artefatto avrebbe avuto modo di collegarsi, di realizzare, di mettere a terra una qualche forma di intelligenza somigliante a quella biologica, fosse anche soltanto quella di un gatto o di un topo o di una mosca. e via sarebbe cresciuta. Allora, questo matrimonio tra ingegneria e biologia è quello che noi da almeno sicuramente da geomcati in poi abbiamo cercato teoricamente di realizzare. Che cosa è successo in realtà? E questa è una storia che dovete prendere con un po' di attenzione, un po' di eh un grammo di sale, come si suol dire, perché è una storia che vi racconto io, ci sono persone che la pensano molto diversamente. In realtà credo che quello che sia accaduto è quello che segue, invece di andare in direzione di una intelligenza in grado di comportarsi intelligentemente nei confronti della realtà e quindi, ad esempio, flessibile, essere in grado, ad esempio, di non dire certe cose eh in quella giornata a quella persona, perché lo vedi che quella persona sta nervosa, quindi è intelligente non dirle queste cose, è intelligente ricordarsi di prendere le chiavi quando esci di casa, perché sennò poi non entri. è anche intelligente, eh, ed è una forma di intelligenza quella musicale, c'è una forma di intelligenza corporea, ci sono forme di intelligenza ovviamente di tipo logico matematico che però potrebbero non corrispondere a quelle di tipo molto più intuitivo, linguistico o visivo. Insomma, ci sono tante forme di intelligenza. Il sogno, vi dicevo, o l'incubo di realizzare tutte queste forme di intelligenza da un punto di vista ingegneristico, in realtà hanno preso una direzione diversa. Invece di andare verso un matrimonio, siamo andati verso un divorzio e ci siamo un po' cascati in questo divorzio. Vi ricordo che questa nuova intelligenza artificiale ha il suo inizio, in realtà nella branca molto specifica della processazione del linguaggio naturale, il cosiddetto naturalo language processing. il linguaggio naturale nella traduzione per migliorare la capacità di tradurre, ad esempio, dall'inglese all'italiano e viceversa, ha anche permesso la possibilità di produrre nuovi contenuti. Ma questi nuovi contenuti, questa intelligenza che noi attribuiamo ai sistemi, di fatto non è e non ha nulla a che fare con quello che noi potremmo attribuire a un animale o addirittura a noi stesse, a noi stessi. non è intelligenza, è capacità di risolvere problemi date le circostanze o di prendersi cura di compiti date le circostanze. Ma non c'è alcuna intelligenza in questo. Come può essere? Voi immaginate il vostro telefono ha un po' di intelligenza artificiale dentro per fare le foto sempre meglio. La comunicazione che abbiamo online con strumenti digitali avviene sempre meglio perché c'è un po' di intelligenza artificiale che la migliora. Le auto a guida autonoma, se e quando funzionano in versione limitata, ma funzionano, lo fanno grazie all'intelligenza artificiale. Insomma, c'è un'enorme quantità di successi e il limite sembra essere veramente, no, impensabile. Sempre più riusciremo a creare sistemi artificiali che si prendono cura delle cose, del mondo, di compiti. Come può essere che lo facciano intelligenza zero? Perché quando lo facciamo noi a intelligenza zero le cose non funzionano. Se gioco a scacchi a intelligenza zero, se faccio i piatti a intelligenza zero, ma succede un disastro. Allora, caro filosofo, c'è qualcosa che non torna. L'intelligenza artificiale ha successo a intelligenza zero, facendo cose al posto nostro. Com'è andata? Eh, manca un elemento, una variabile che è quella di chi si adatta a cosa. Noi abbiamo fatto sempre di più eh il mondo a immagine di questi sistemi artificiali. Una, e questo è un esempio molto concreto, un'auto a guida autonoma in un contesto dove ad esempio non c'è connettività, non ci sono sensori, tutte le altre auto non sono a guida autonoma, quindi non c'è comunicazione tra a guida autonoma e un'altra. Insomma, in un contesto in cui manca la rete è un nodo privo di qualsiasi capacità di azione. Ha successo soltanto tanto quanto, come si suol dire, nella misura in cui l'ambiente è amichevole nei suoi confronti. Se voi prendete un'auto a guida autonoma e la mettete nel deserto, avete semplicemente un ferro vecchio. Non ve lo consiglio. Cambiando quello che deve essere cambiato, come si può dire con una frasetta latina, mutadis mutandis. Eh, questo si applica anche eh al software se non ci fossero i dati per l'esercitazione, per l'apprendimento, se noi non vivessimo costantemente on life, quindi costantemente connessi, oltre che essere esseri analogici, ma anche esseri digitali, se ad esempio tutto il sistema bancario non fosse anche digitale, ma avere degli agenti che possono prendere i dati e fare cose al posto nostro in un mondo analogico dove deve andare in banca a consegnare fisicamente quell'assegno. Ma cosa ci faremo? Pensate veramente che avremo dei robottini che prendono l'assegno lo portano in banca, si fanno dare i soldi e torno da noi? Non è così. Vi ricordo, noi non abbiamo degli androidi che guidano al posto nostro. Abbiamo rifatto l'automobile, l'abbiamo ripensata senza volante e senza pedali perché perché è un nodo nella rete. Noi possiamo avere agenti digitali che fanno operazioni bancarie al posto nostro perché abbiamo trasformato la banca in una banca digitale, abbiamo reso il mondo amichevole friendly, si direbbe in inglese verso l'intelligenza artificiale e quindi funziona. capire tutto questo e quindi realizzare che non abbiamo costruito una forma di intelligenza biologica o anche super biologica, umana o super umana in modo ingegneristico, ma in realtà abbiamo costruito macchine che funzionano intelligenza zero grazie al fatto che il mondo è sempre più friendly nei loro confronti, che quindi in un contesto di immagazzinamento quello che facciamo è costruire il magazzino intorno alle capacità del robot non viceversa. Vuol dire capire anche dove stiamo andando nei confronti del futuro. E questa è l'ultima cosa che vorrei aggiungere qui. Piccolo riassuntto, l'intelligenza artificiale nasce molti anni fa con Alan Tuning, poi John Mccati la chiamerà così, ha circa un 60 anni di sviluppo legato alla logica matematica. svolta statistica, l'intelligenza artificiale può o cosiddetta può trarre vantaggio dai dati, dalla computazione, dai finanziamenti e dal fatto che noi viviamo sempre più in una realtà digitale e quindi funziona. Funzionando straordinari algoritmi, straordinaria intelligenza umana nella realizzazione di tutto ciò, andiamo verso un futuro in cui sempre di più questa intelligenza artificiale avrà successo. Ma si tratta di agenti in realtà a intelligenza zero, ma ha enorme capacità di successo interagendo con un mondo che è sempre più il loro mondo. È un mondo digitale in cui loro sono i pesci e noi facciamo un po' di scuba diving, come si direbbe, siamo i sommozzatori, siamo noi che portiamo le bombole in un contesto in cui tutto è digitale e noi siamo analogici. Più il mondo diventa digitale, più agenti artificiali e intelligenza artificiale avrà successo, sempre più avremo la tentazione di trasformare il mondo in un mondo che fa comodo a loro, magari non troppo a noi. Quante volte ci siamo sentiti dire "Guarda, questa cosa va fatta così perché è l'unico modo in cui la macchina riesce poi a darti una mano, a processare l'input, a fare quello che dovrebbe fare." È chiaro che è l'intelligenza umana che in questo caso si sta adattando alla rigidità, chiamiamola un po' stupidità del sistema in questione. Se questo è il mondo verso il quale stiamo andando, quindi una trasformazione del mondo a misura dell'intelligenza artificiale, non un'intelligenza artificiale che è in grado di interagire con il mondo, capite che uno dei grandi rischi è che questo mondo sia per le macchine e non per noi. con un esempio molto semplice, già in corso, che il trasporto urbano sia pensato per far sì che autobus a guida autonoma abbiano successo, ma che chi sta ad ascoltare e il sottoscritto non siano gli attori principali. Grande errore, gravissimo e vi assicuro lo faremo per poi rimpiangere e tornare sui nostri passi perché non funzionerà. È chiaro che, ad esempio, in termini di traffico e di circolazione, quello che ci interessa è avere una città a nostra misura, non che funzioni purché si faccia tutto per le auto autonome che siano in grado di poter operare al loro interno. Quindi la sfida oggi è una sfida di design eh design del degli ambienti all'interno dei quali questa intelligenza artificiale può operare con successo. È anche una sfida di design della intelligenza artificiale stessa, ma dovremmo proprio smettere di chiamarla intelligenza artificiale. Ultima battuta, non succederà. Il termine ormai è così diffuso, è così comune, ei hai qui, ei hai lì, ei hai ovunque. Il linguaggio non si riforma con la bacchetta magica della filosofia, però potrebbe succedere una cosa che sarebbe, a mio avviso, auspicabile. Torniamo all'auto di qui sopra. Tanto tanto tempo fa, quando iniziò la rivoluzione industriale e si dovevano vendere per la prima volta motori a vapore, chi li doveva piazzare sul mercato aveva una grande competizione, i cavalli, non sapeva come fare per convincere chi doveva comprare un buon motore a vapore, che era appunto il momento di rimpiazzare il cavallo e metterci questo motore in questione. E allora quel periodo presero un cavallo di media statura, di media forza, di media età, insomma un buon cavallo ordinario e facendogli sollevare un certo quantitativo di peso in un certo quantitativo di tempo, ebbero la misura di un un cavallo vapore e i motori da allora in poi hanno come potenza i cavalli vapore, ma per fortuna nessuno oggi cerca gli zoccoli o la criniera all'interno di un motore. Allora, l'HP o i cavalli vapore eh saranno un po' l'intelligenza artificiale del domani. Ci sarà una generazione che guarderà a AI e non si chiederà per fortuna mai più se è veramente o meno intelligente, nello stesso modo in cui noi non ci chiediamo, ci mancherebbe se ci sono cavalli e quanti cavalli ci sono veramente con zoccolo e criniera all'interno di un'automobile. Ja.

Rigenera Contenuti

Rielabora i contenuti con Gemini

Nota: La rigenerazione richiederà alcuni secondi e sovrascriverà i contenuti esistenti.