← Torna ai documenti

La filosofa Mariarosaria Taddeo: “L’IA intelligente? Fantascienza di basso livello”

web Elaborato Creato il 2025-11-22
Modifica

Metadati

Hash
be20e2763aa29851...
Data Pubblicazione
2025-11-21
Lingua
it
Ultimo Aggiornamento
2025-11-22 10:10

Sintesi Breve

Riassunto generato da Gemini (max 200 parole)

Mariarosaria Taddeo, esperta di etica digitale e tecnologie della difesa, critica l'attuale approccio all'IA, sottolineando come le promesse iniziali di risolvere problemi globali siano state disattese, con un focus eccessivo su applicazioni superficiali. Sottolinea che l'IA, se usata correttamente, può essere uno strumento potente per comprendere il mondo, ma avverte dei rischi di alienazione nel mondo del lavoro e di adozione acritica. Un punto cruciale è l'assenza di regolamentazione nell'uso dell'IA in contesti delicati come la difesa, con il rischio di crimini di guerra impuniti e l'erosione del diritto internazionale. L'intervista evidenzia la necessità di un dibattito pubblico sulla difesa e di linee guida etiche per l'uso dell'IA, promuovendo un equilibrio tra tecnologia, etica e difesa per proteggere i principi democratici. Taddeo riflette anche sul suo percorso professionale, sull'importanza di un linguaggio preciso e sulla necessità di non perdere se stessi nel perseguimento degli obiettivi.

Trascrizione Estesa

Testo rielaborato e formattato da Gemini

«L’intelligenza artificiale non diventerà mai intelligente. È molto artificiale e pochissimo intelligente. Tutto ciò che riguarda macchine senzienti, coscienti e creative è pura fantascienza. E anche di basso livello». Mariarosaria Taddeo, professoressa ordinaria di Digital Ethics and Defence Technologies all’Università di Oxford, è la prima donna ad Oxford ad avere “defence” nel titolo della sua cattedra. Studia l’etica del digitale e le tecnologie della difesa, nel punto in cui il digitale, come l’intelligenza artificiale, diritto internazionale e democrazia entrano in attrito. «L’intelligenza artificiale è una delle più grandi chiave di volta che l’umanità abbia mai avuto tra le sue mani. Ma va usata bene e non possiamo perdere questa opportunità. Siamo partiti dicendo che con l’IA avremmo curato l’Alzheimer, risolto la crisi climatica, e siamo arrivati invece alle chat erotiche su ChatGPT. Qualcosa, evidentemente, è andato storto» Filosofa italiana, nata a Napoli e cresciuta a Bari, è una delle più grandi esperte mondiali di etica digitale. Taddeo arriva a Oxford seguendo un percorso che affonda le radici molto prima dell’università: le conversazioni da bambina con uno zio filosofo («avevo 8 anni e quelle chiacchierata gettavano semi dentro di me»), l’incontro con un professore di liceo che le apre le porte della logica («non ci ha fatto studiare sui manuali, ma leggere i testi direttamente, cogliendone lo spirito, le motivazioni più profonde delle domande e delle risposte che offrivano»), l’idea maturata presto, che i filosofi debbano occuparsi delle sfide del proprio tempo. «Io ho sempre pensato di dovermi occupare di qualcosa di attuale». Laurea in filosofia all’Università di Bari, tesi sull’intelligenza artificiale simbolica, lavorando sul Symbol Grounding Problem, la domanda che attraversa da decenni il dibattito sull’IA: le macchine possono davvero capire i simboli che manipolano? «La risposta è no». Tesi con Luciano Floridi «il mio maestro, persona straordinaria». Un Erasmus a Berlino nel 2002 le apre gli occhi sul digitale: mentre la digitalizzazione tedesca corre, l’Italia arranca. Rientra, completa un dottorato a Padova sulla fiducia nei sistemi di agenti artificiali distribuiti e parte per una summer school in Estonia, nei giorni successivi al cyberattacco russo che paralizza il Paese. È lì che intuisce lo snodo fra tecnologia e sicurezza. Rientra, vince una Marie Curie Fellowship con il punteggio massimo europeo, si trasferisce in Inghilterra e, passo dopo passo, approda all’Università di Oxford, polo di eccellenza, dove diventa professoressa ordinaria di Digital Ethics and Defence Technologies a 43 anni. Oggi dirige il Gruppo di Ricerca su Etica Digitale e Tecnologie per la Difesa. Ha pubblicato su Nature, Nature Machine Intelligence, Science e Science Robotics. Il suo ultimo libro, Codice di guerra (Cortina, 2025), raccoglie sedici anni di studi. Ad aprile 2024 ha ricevuto l’onorificenza di Cavaliere al Merito della Repubblica. Per l’impatto della sua ricerca sull’etica dell’innovazione digitale e sulle tecnologie emergenti. Oggi l’intelligenza artificiale sta trasformando tutto: lavoro, sicurezza, democrazia, potere. Che cosa significa davvero? «Le trasformazioni si possono subire o guidare. A volte invece ho la sensazione che le subiamo. È preoccupante, le trasformazioni digitali sono profonde, ne avvertiremo le conseguenze per generazioni. Se le guidiamo per assicurarci che migliorino le condizioni dell’ambiente, della società e degli individui, avremo contribuito a migliorare il modo per le prossime generazioni. Se le seguiamo e lasciamo che a guidarle siano interessi meramente commerciali e finanziari, avremo barattato il nostro futuro e quello delle prossime generazioni per qualche chat erotica. In gioco ci sono i diritti, la giustizia, l’uguaglianza, la pluralità, la tolleranza delle società democratiche e la salute dell’ambiente». È qui che entra in gioco l’etica? «L’etica viene spesso confusa o con l’enunciazione dei divieti o, peggio ancora, con il buon senso. In realtà, l’etica non è solo ciò che non si fa: è anche ciò che si può fare bene, ciò che si può fare meglio e quindi si deve fare. Serve a guidare la trasformazione digitale, a far sì che il potenziale della tecnologia sia usato per il bene degli individui, della società e dell'ambiente. Serve a darci limiti oltre i quali non dobbiamo spingerci, ma anche la direzione di viaggio. Ci indica i posti da evitare (i rischi) e quelli in cui fermarsi (le opportunità)». Partiamo da un punto fermo: lei sostiene che l’IA non diventerà mai intelligente… «Diciamolo subito: l’intelligenza artificiale non diventerà mai intelligente. E tutti questi dibattiti sulle sue capacità di essere creativa, di sviluppare una coscienza e affini non hanno attinenza con la realtà. Io credo che siano tentativi capziosi di distrarci da questioni molto più complesse su cui dobbiamo discutere…». Qual è allora la vera promessa? «L’intelligenza artificiale, se usata bene, è una delle più grandi chiave di volta che l’umanità abbia mai avuto tra le sue mani. È uno strumento che ci permette di scandagliare il mondo intorno a noi e capirlo molto più profondamente di quanto abbiamo mai fatto. Le faccio un esempio: quest’anno produrremo qualcosa come 250 zettabyte di dati [uno zettabyte è uguale e mille miliardi di Gigabyte ndr]. Immagini una fila di 42 miliardi di DVD. In quei 42 miliardi di DVD sono nascoste informazioni preziosissime sulla realtà. E non sono accessibili senza l’intelligenza artificiale. Molti dicono che l’IA è il pesce che nuota nel mare del digitale. Non è così. Il pesce è l’informazione. L’IA è la nostra canna da pesca. Senza questo strumento, restiamo sulla riva di un oceano meraviglioso senza poter accedere alle sue risorse. Non possiamo perdere questa occasione…» Cosa succederà nel mondo del lavoro? «Ci sarà una fase di assestamento, ma sono convinta che alla fine sarà uno strumento in più per fare vecchi lavori in modo diverso, più efficiente e sicuro, o nuovi lavori. La sfida è fare in modo che tra deleghe all’IA e nuove professioni, il lavoro diventi un’occasione per gli esseri umani per esprimere e raffinare creatività, competenze e autonomia. Avremo bisogno anche di formarci… Per non andare alla deriva». Qual è la deriva…? «Sono due. La prima è che l’IA sul lavoro porti a una nuova forma di alienazione. Se la sua integrazione non è parte di una strategia ben congegnata, se non si applicano misure per evitare che l’autonomia umana si pieghi a quella artificiale, il rischio di alienazione è severo. Molto facile seguire le macchine se, per esempio, le aziende non prevedono meccanismi che permettano ai dipendenti di dissentire dalle indicazioni sulla base della loro expertise. La seconda viene dalla spinta commerciale, che è fortissima. La deriva in questo caso è immaginare prodotti da vendere, invece che strumenti per migliorare l’ambiente che ci circonda. Se tutto quello che faremo con l’AI saranno chat erotiche o affini, qualcosa sarà andato storto...». Dal suo osservatorio, come si sta adottando l’IA? «In maniera meno strategica di quanto necessario. Si tende a fare una blanket adoption, un’adozione a tappeto. È un approccio che non paga. L’AI deve essere usata sulla base di una strategia: capire quali processi automatizzare, in che modo, in che fase. E soprattutto temo che a questa automatizzazione non corrisponda una riprogettazione degli spazi dell'autonomia umana. E infine temo che venga usata per prendere decisioni…» E in questo caso che rischi ci sono? «Se non lasciamo all’essere umano l’autonomia di essere in disaccordo con la macchina e di far prevalere la sua intuizione, esperienza, empatia, rischiamo di invertire la gerarchia: un’autonomia artificiale che delimita quella umana. È molto facile che accada, soprattutto in contesti in cui la responsabilità (“liability”) non è chiara. Se dissentire dalla macchina comporta rischi più alti per la liability, è probabile che si finisca per seguire le indicazioni delle macchine, anche solo per pigrizia. È una delle forme di alienazione di cui parlavamo prima». Che cosa dobbiamo preservare per non perdere noi stessi? «Skills umane: pensiero critico, certo, ma anche abilità operative. Ai miei studenti ricordo sempre ‘Sally’, un film in cui il protagonista, un pilota anziano, riesce a fare atterrare un aereo in avaria sfruttando le correnti. È cruciale che i piloti sappiano far atterrare un aereo, anche quando questo compito sarà svolto dalle macchine». Lei ha nel suo titolo accademico la parola “difesa”. Che cosa accade quando l’intelligenza artificiale entra nei sistemi dove un errore pesa infinitamente di più, come la difesa, la guerra, la sicurezza degli Stati? «Le guerre e la difesa sono, insieme al digitale, un altro fattore di grande trasformazione delle nostre società. L'Europa che conosciamo è un'Europa nata da una serie di guerre, da quella dei Trent’anni (1618-1648), degli Ottant’anni [la ribellione delle Province Unite dei Paesi Bassi contro il dominio spagnolo, durata dal 1568 al 1648 ndr] fino alle due Guerre Mondiali. In particolare, le società democratiche e liberali nelle quali viviamo oggi sono il frutto della Seconda Guerra Mondiale. Il secondo dopoguerra ha segnato il consolidamento del diritto umanitario internazionale e delle democrazie liberali. I due sono fratelli gemelli, nati insieme dallo sforzo di stabilire la pace. Oggi droni, intelligenza artificiale, sensori quantistici stanno trasformando la difesa. Immagini delle matrioske: la società liberale ha dentro la difesa, che ha dentro la tecnologia. La bambola più piccola trasforma quella più grande. E la domanda che dovremmo porci è se stiamo usando il digitale per trasformare la difesa in modi che non violino i principi delle nostre società democratiche e liberali?». E la risposta? Qual è il rischio concreto? «L'intelligenza artificiale è ormai adottata in maniera trasversale dalle difese occidentali e non solo. La guerra in Ucraina è stata uno spartiacque. Oggi utilizziamo l'intelligenza artificiale per l'intelligence, per il cyber e anche nell’impiego delle armi e le decisioni in battaglia. E in un contesto di guerra in cui, almeno in teoria, ogni operazione è regolamentata al dettaglio dal diritto umanitario internazionale e dalle leggi dei conflitti armati, non abbiamo uno straccio di regolamentazione che si applichi direttamente all'intelligenza artificiale». Quali le conseguenze? «Si commettono atrocità, crimini di guerra, che poi rischiano di rimanere impuniti. Ma c’è anche un’altra cosa: quando l’adozione di una tecnologia è sistematica e quella tecnologia è sistematicamente non regolamentata, il rischio è che il diritto si svuoti dall’interno. È come se piano piano ci abituassimo a dire: “Sì, certo, il principio di distinzione (quello secondo cui i non combattenti non devono essere messi intenzionalmente in pericolo) esiste, c’est un principe, ma con l’intelligenza artificiale lo abbiamo un po’ superato. Piano piano i princìpi si atrofizzano: si seccano come piantine al sole senza acqua. E quando i principi si indeboliscono, il diritto internazionale perde forza. E se muore il diritto internazionale, prima o poi anche le democrazie liberali smetteranno di godere di buona salute. Con loro anche noi». Cosa succede quando una tecnologia è adottata in guerra senza una regolamentazione? «Forse uno degli esempi più eclatanti di ciò è ciò che è accaduto a Gaza. I report ci dicono che l’esercito israeliano ha utilizzato due sistemi di intelligenza artificiale per identificare target. Uno di questi sistemi, Il Lavender aveva una soglia di falso positivo del 10%. Significa che, su 37.000 persone identificate come target di operazioni militari, circa 3.700 potevano essere errori. Questo ci fa capire quanto sia importante una regolamentazione internazionale, per esempio è cruciale avere delle leggi che stabiliscano qual è la soglia di falso positivi per IA usati in guerra per evitare che 3.700 persone vengano poste in pericolo ingiustificatamente. Ad oggi non esiste alcuna norma specifica che si applichi direttamente all’intelligenza artificiale nella difesa. C’è di più. Le indagini giornalistiche ci dicono che gli ufficiali incaricati di validare le decisioni suggerite da questi sistemi avevano 10 secondi per verificare le decisioni indicate dai sistemi IA. 10 secondi sembrano insufficienti, soprattutto data la soglia di errore al 10%. Anche questo aspetto del processo deve esse regolamentato, quanto tempo ha, che tipo di metodologia si usa per validare un’indicazione dell’AI, che formazione ha l’ufficiale, sono tutti aspetti devono essere regolamentati. Tecnologia, etica e difesa sono tre sfere che devono stare sempre in equilibrio». Da dove partire? «È importante far cadere il tabù sulla difesa. Smettere di pensare che la difesa sia una cosa intrinsicamente negativa o di cui per questo non ci occupiamo. Nella democrazia liberale non esiste il Ministero della guerra, esiste il Ministero della difesa. Ed è la forza che lo Stato esercita per proteggere la democrazia stessa e come questa forza venga applicata deve essere sotto lo scrutinio di tutti. La difesa è il banco di prova della democrazia. Se uno Stato si comporta come un terrorista fuori dai suoi confini, vale a dire violando i diritti degli esseri umani non suoi cittadini prima o poi farà lo stesso all’interno dei suoi confini. Soprattutto le democrazie liberali nascono dall’universalismo Kantiano, la dignità e i diritti degli esseri umani non nascono o decadono con i confini territoriali. Uno Stato che applica due pesi e due misure, non incarna i principi della democrazia. Per questo la difesa deve essere un argomento di dibattito pubblico, è un argomento del quale ci dobbiamo interessare, così come ci interessiamo della finanza, dell’economia, della politica. E c’è poi bisogno di un lavoro concettuale sull’etica che sia in grado di tradursi in linee guida per guidare le forze di difesa nell’uso dell’AI. L’etica non è una visione assolutista: è fatta di trade-off, di equilibri che cambiano a seconda del contesto. La capacità di capire qual è l’equilibrio giusto, quando e come certi principi vadano bilanciati è cruciale. È il lavoro che faccio da anni con il Ministrero della Difesa inglese. Allo stesso tempo l’etica deve definire i limiti: non tutto è compromettibile. È come creare uno spazio cartesiano: tracciamo gli assi, e dentro quelli ci muoviamo». Lei è tra le esperte mondiali di etica e digitale. Ha ricevuto numerosi premi per il suo lavoro. Nel 2024 il Presidente della Repubblica Italiana l’ha insignita del titolo di Grande Ufficiale al Merito. Come ha vissuto il riconoscimento? «È stata una grandissima emozione. Il premio è stato un onore ancora più bello perché ho grande stima per il Presidente Mattarella. È stata un’occasione per ripercorrere gli anni passati. Sono partita per UK con grande entusiasmo, ma non stato facile trasferirsi in un paese con una cultura così diversa dalla nostra. Sento molta nostalgia di tante cose e delle persone che amo. Io non arrivavo da un’università internazionale, non sapevo l’inglese, sono donna. Insomma ci ho messo tanto impegno. Che ne sia valsa la pena lo credo tutti i giorni quando lavoro con il mio gruppo di ricerca, ma questo riconoscimento mi ha fatto pensare che in fondo il mio Paese mi vuole bene… Ed è una bella sensazione per un’emigrata». Tornerà in Italia? Cosa c’è nel suo futuro? «Nelle condizioni giuste, sarebbe una grandissima gioia. Una conquista. Ma non credo ci siano ancora le premesse. Tempo fa ho parlato di etica delle AI in Difesa, in Italia, in una riunione a porte chiuse e un signore, dall’altra parte del tavolo, mi ha risposto: “la guerra è una cosa brutta e cattiva!”. Sotto intendendo che come donna delle cose brutte e cattive, non me ne devo occupare. Qui in Inghilterra esiste un contesto in cui la conversazione, anche con l'esponente della difesa ad alto livello, è costante e costruttiva». Lezioni imparate che possono servire a tutti noi? «Le rispondo su due fronti. Professionalmente, la cosa più importante che ho imparato è che il linguaggio è uno strumento ad alta precisione: bisogna usarlo bene. E questo è importante fuori e dentro l’accademia. Un linguaggio slabbrato ci rende manipolabile, quando siamo noi ad usarlo rende difficile spiegare le nostre idee; quando lo usano gli altri crea una forma di opacità che impedisce un contraddittorio vero. Che sia per la ricerca, per il dialogo, per il discorso politico la ricerca di un linguaggio preciso è la ricerca per una compressione profonda e per un dialogo costruttivo. Dal punto di vista personale, invece, per anni ho sempre e solo buttato il cuore oltre l'ostacolo, credendo fosse l’unico modo per raggiungere gli obbiettivi che mi prefiggevo. Lo faccio ancora, però, in questo processo, bisogna stare attenti a non perdere se stessi. Il “conosci te stesso” di Socrate significa pratica te stesso nel tentativo di migliorarsi senza lasciarsi svilire dall’impegno per raggiungere una meta e senza snaturarsi per compiacere una cultura diversa dalla propria… Sto imparando una lezione vecchia più di 2.400 anni, la condivido per quelli lenti come me».

Cartelle

Cartelle in cui è catalogato il documento

Testo Estratto (Cache)

Testo grezzo estratto dalla sorgente

«L’intelligenza artificiale non diventerà mai intelligente. È molto artificiale e pochissimo intelligente. Tutto ciò che riguarda macchine senzienti, coscienti e creative è pura fantascienza. E anche di basso livello».
Mariarosaria Taddeo, professoressa ordinaria di Digital Ethics and Defence Technologies all’Università di Oxford, è la prima donna ad Oxford ad avere “defence” nel titolo della sua cattedra. Studia l’etica del digitale e le tecnologie della difesa, nel punto in cui il digitale, come l’intelligenza artificiale, diritto internazionale e democrazia entrano in attrito. «L’intelligenza artificiale è una delle più grandi chiave di volta che l’umanità abbia mai avuto tra le sue mani. Ma va usata bene e non possiamo perdere questa opportunità. Siamo partiti dicendo che con l’IA avremmo curato l’Alzheimer, risolto la crisi climatica, e siamo arrivati invece alle chat erotiche su ChatGPT. Qualcosa, evidentemente, è andato storto»
Filosofa italiana, nata a Napoli e cresciuta a Bari, è una delle più grandi esperte mondiali di etica digitale. Taddeo arriva a Oxford seguendo un percorso che affonda le radici molto prima dell’università: le conversazioni da bambina con uno zio filosofo («avevo 8 anni e quelle chiacchierata gettavano semi dentro di me»), l’incontro con un professore di liceo che le apre le porte della logica («non ci ha fatto studiare sui manuali, ma leggere i testi direttamente, cogliendone lo spirito, le motivazioni più profonde delle domande e delle risposte che offrivano»), l’idea maturata presto, che i filosofi debbano occuparsi delle sfide del proprio tempo. «Io ho sempre pensato di dovermi occupare di qualcosa di attuale».
Laurea in filosofia all’Università di Bari, tesi sull’intelligenza artificiale simbolica, lavorando sul Symbol Grounding Problem, la domanda che attraversa da decenni il dibattito sull’IA: le macchine possono davvero capire i simboli che manipolano? «La risposta è no». Tesi con Luciano Floridi «il mio maestro, persona straordinaria». Un Erasmus a Berlino nel 2002 le apre gli occhi sul digitale: mentre la digitalizzazione tedesca corre, l’Italia arranca. Rientra, completa un dottorato a Padova sulla fiducia nei sistemi di agenti artificiali distribuiti e parte per una summer school in Estonia, nei giorni successivi al cyberattacco russo che paralizza il Paese. È lì che intuisce lo snodo fra tecnologia e sicurezza.
Rientra, vince una Marie Curie Fellowship con il punteggio massimo europeo, si trasferisce in Inghilterra e, passo dopo passo, approda all’Università di Oxford, polo di eccellenza, dove diventa professoressa ordinaria di Digital Ethics and Defence Technologies a 43 anni.
Oggi dirige il Gruppo di Ricerca su Etica Digitale e Tecnologie per la Difesa. Ha pubblicato su Nature, Nature Machine Intelligence, Science e Science Robotics. Il suo ultimo libro, Codice di guerra (Cortina, 2025), raccoglie sedici anni di studi. Ad aprile 2024 ha ricevuto l’onorificenza di Cavaliere al Merito della Repubblica. Per l’impatto della sua ricerca sull’etica dell’innovazione digitale e sulle tecnologie emergenti.
Oggi l’intelligenza artificiale sta trasformando tutto: lavoro, sicurezza, democrazia, potere. Che cosa significa davvero?
«Le trasformazioni si possono subire o guidare. A volte invece ho la sensazione che le subiamo. È preoccupante, le trasformazioni digitali sono profonde, ne avvertiremo le conseguenze per generazioni. Se le guidiamo per assicurarci che migliorino le condizioni dell’ambiente, della società e degli individui, avremo contribuito a migliorare il modo per le prossime generazioni. Se le seguiamo e lasciamo che a guidarle siano interessi meramente commerciali e finanziari, avremo barattato il nostro futuro e quello delle prossime generazioni per qualche chat erotica. In gioco ci sono i diritti, la giustizia, l’uguaglianza, la pluralità, la tolleranza delle società democratiche e la salute dell’ambiente».
È qui che entra in gioco l’etica?
«L’etica viene spesso confusa o con l’enunciazione dei divieti o, peggio ancora, con il buon senso. In realtà, l’etica non è solo ciò che non si fa: è anche ciò che si può fare bene, ciò che si può fare meglio e quindi si deve fare. Serve a guidare la trasformazione digitale, a far sì che il potenziale della tecnologia sia usato per il bene degli individui, della società e dell'ambiente. Serve a darci limiti oltre i quali non dobbiamo spingerci, ma anche la direzione di viaggio. Ci indica i posti da evitare (i rischi) e quelli in cui fermarsi (le opportunità)».
Partiamo da un punto fermo: lei sostiene che l’IA non diventerà mai intelligente…
«Diciamolo subito: l’intelligenza artificiale non diventerà mai intelligente. E tutti questi dibattiti sulle sue capacità di essere creativa, di sviluppare una coscienza e affini non hanno attinenza con la realtà. Io credo che siano tentativi capziosi di distrarci da questioni molto più complesse su cui dobbiamo discutere…».
Qual è allora la vera promessa?
«L’intelligenza artificiale, se usata bene, è una delle più grandi chiave di volta che l’umanità abbia mai avuto tra le sue mani. È uno strumento che ci permette di scandagliare il mondo intorno a noi e capirlo molto più profondamente di quanto abbiamo mai fatto. Le faccio un esempio: quest’anno produrremo qualcosa come 250 zettabyte di dati [uno zettabyte è uguale e mille miliardi di Gigabyte ndr]. Immagini una fila di 42 miliardi di DVD. In quei 42 miliardi di DVD sono nascoste informazioni preziosissime sulla realtà. E non sono accessibili senza l’intelligenza artificiale. Molti dicono che l’IA è il pesce che nuota nel mare del digitale. Non è così. Il pesce è l’informazione. L’IA è la nostra canna da pesca. Senza questo strumento, restiamo sulla riva di un oceano meraviglioso senza poter accedere alle sue risorse. Non possiamo perdere questa occasione…»
Cosa succederà nel mondo del lavoro?
«Ci sarà una fase di assestamento, ma sono convinta che alla fine sarà uno strumento in più per fare vecchi lavori in modo diverso, più efficiente e sicuro, o nuovi lavori. La sfida è fare in modo che tra deleghe all’IA e nuove professioni, il lavoro diventi un’occasione per gli esseri umani per esprimere e raffinare creatività, competenze e autonomia. Avremo bisogno anche di formarci… Per non andare alla deriva».
Qual è la deriva…?
«Sono due. La prima è che l’IA sul lavoro porti a una nuova forma di alienazione. Se la sua integrazione non è parte di una strategia ben congegnata, se non si applicano misure per evitare che l’autonomia umana si pieghi a quella artificiale, il rischio di alienazione è severo. Molto facile seguire le macchine se, per esempio, le aziende non prevedono meccanismi che permettano ai dipendenti di dissentire dalle indicazioni sulla base della loro expertise. La seconda viene dalla spinta commerciale, che è fortissima. La deriva in questo caso è immaginare prodotti da vendere, invece che strumenti per migliorare l’ambiente che ci circonda. Se tutto quello che faremo con l’AI saranno chat erotiche o affini, qualcosa sarà andato storto...».
Dal suo osservatorio, come si sta adottando l’IA?
«In maniera meno strategica di quanto necessario. Si tende a fare una blanket adoption, un’adozione a tappeto. È un approccio che non paga. L’AI deve essere usata sulla base di una strategia: capire quali processi automatizzare, in che modo, in che fase. E soprattutto temo che a questa automatizzazione non corrisponda una riprogettazione degli spazi dell'autonomia umana. E infine temo che venga usata per prendere decisioni…»
E in questo caso che rischi ci sono?
«Se non lasciamo all’essere umano l’autonomia di essere in disaccordo con la macchina e di far prevalere la sua intuizione, esperienza, empatia, rischiamo di invertire la gerarchia: un’autonomia artificiale che delimita quella umana. È molto facile che accada, soprattutto in contesti in cui la responsabilità (“liability”) non è chiara. Se dissentire dalla macchina comporta rischi più alti per la liability, è probabile che si finisca per seguire le indicazioni delle macchine, anche solo per pigrizia. È una delle forme di alienazione di cui parlavamo prima».
Che cosa dobbiamo preservare per non perdere noi stessi?
«Skills umane: pensiero critico, certo, ma anche abilità operative. Ai miei studenti ricordo sempre ‘Sally’, un film in cui il protagonista, un pilota anziano, riesce a fare atterrare un aereo in avaria sfruttando le correnti. È cruciale che i piloti sappiano far atterrare un aereo, anche quando questo compito sarà svolto dalle macchine».
Lei ha nel suo titolo accademico la parola “difesa”. Che cosa accade quando l’intelligenza artificiale entra nei sistemi dove un errore pesa infinitamente di più, come la difesa, la guerra, la sicurezza degli Stati?
«Le guerre e la difesa sono, insieme al digitale, un altro fattore di grande trasformazione delle nostre società. L'Europa che conosciamo è un'Europa nata da una serie di guerre, da quella dei Trent’anni (1618-1648), degli Ottant’anni [la ribellione delle Province Unite dei Paesi Bassi contro il dominio spagnolo, durata dal 1568 al 1648 ndr] fino alle due Guerre Mondiali. In particolare, le società democratiche e liberali nelle quali viviamo oggi sono il frutto della Seconda Guerra Mondiale. Il secondo dopoguerra ha segnato il consolidamento del diritto umanitario internazionale e delle democrazie liberali. I due sono fratelli gemelli, nati insieme dallo sforzo di stabilire la pace.
Oggi droni, intelligenza artificiale, sensori quantistici stanno trasformando la difesa. Immagini delle matrioske: la società liberale ha dentro la difesa, che ha dentro la tecnologia. La bambola più piccola trasforma quella più grande. E la domanda che dovremmo porci è se stiamo usando il digitale per trasformare la difesa in modi che non violino i principi delle nostre società democratiche e liberali?».
E la risposta? Qual è il rischio concreto?
«L'intelligenza artificiale è ormai adottata in maniera trasversale dalle difese occidentali e non solo. La guerra in Ucraina è stata uno spartiacque. Oggi utilizziamo l'intelligenza artificiale per l'intelligence, per il cyber e anche nell’impiego delle armi e le decisioni in battaglia. E in un contesto di guerra in cui, almeno in teoria, ogni operazione è regolamentata al dettaglio dal diritto umanitario internazionale e dalle leggi dei conflitti armati, non abbiamo uno straccio di regolamentazione che si applichi direttamente all'intelligenza artificiale».
Quali le conseguenze?
«Si commettono atrocità, crimini di guerra, che poi rischiano di rimanere impuniti. Ma c’è anche un’altra cosa: quando l’adozione di una tecnologia è sistematica e quella tecnologia è sistematicamente non regolamentata, il rischio è che il diritto si svuoti dall’interno. È come se piano piano ci abituassimo a dire: “Sì, certo, il principio di distinzione (quello secondo cui i non combattenti non devono essere messi intenzionalmente in pericolo) esiste, c’est un principe, ma con l’intelligenza artificiale lo abbiamo un po’ superato. Piano piano i princìpi si atrofizzano: si seccano come piantine al sole senza acqua. E quando i principi si indeboliscono, il diritto internazionale perde forza. E se muore il diritto internazionale, prima o poi anche le democrazie liberali smetteranno di godere di buona salute. Con loro anche noi».
Cosa succede quando una tecnologia è adottata in guerra senza una regolamentazione?
«Forse uno degli esempi più eclatanti di ciò è ciò che è accaduto a Gaza. I report ci dicono che l’esercito israeliano ha utilizzato due sistemi di intelligenza artificiale per identificare target. Uno di questi sistemi, Il Lavender aveva una soglia di falso positivo del 10%. Significa che, su 37.000 persone identificate come target di operazioni militari, circa 3.700 potevano essere errori. Questo ci fa capire quanto sia importante una regolamentazione internazionale, per esempio è cruciale avere delle leggi che stabiliscano qual è la soglia di falso positivi per IA usati in guerra per evitare che 3.700 persone vengano poste in pericolo ingiustificatamente. Ad oggi non esiste alcuna norma specifica che si applichi direttamente all’intelligenza artificiale nella difesa. C’è di più. Le indagini giornalistiche ci dicono che gli ufficiali incaricati di validare le decisioni suggerite da questi sistemi avevano 10 secondi per verificare le decisioni indicate dai sistemi IA. 10 secondi sembrano insufficienti, soprattutto data la soglia di errore al 10%. Anche questo aspetto del processo deve esse regolamentato, quanto tempo ha, che tipo di metodologia si usa per validare un’indicazione dell’AI, che formazione ha l’ufficiale, sono tutti aspetti devono essere regolamentati. Tecnologia, etica e difesa sono tre sfere che devono stare sempre in equilibrio».
Da dove partire?
«È importante far cadere il tabù sulla difesa. Smettere di pensare che la difesa sia una cosa intrinsicamente negativa o di cui per questo non ci occupiamo. Nella democrazia liberale non esiste il Ministero della guerra, esiste il Ministero della difesa. Ed è la forza che lo Stato esercita per proteggere la democrazia stessa e come questa forza venga applicata deve essere sotto lo scrutino di tutti. La difesa è il banco di prova della democrazia. Se uno Stato si comporta come un terrorista fuori dai suoi confini, vale a dire violando i diritti degli esseri umani non suoi cittadini prima o poi farà lo stesso all’interno dei suoi confini. Soprattutto le democrazie liberali nascono dall’universalismo Kantiano, la dignità e i diritti degli esseri umani non nascono o decadono con i confini territoriali. Uno Stato che applica due pesi e due misure, non incarna i principi della democrazia. Per questo la difesa deve essere un argomento di dibattito pubblico, è un argomento del quale ci dobbiamo interessare, così come ci interessiamo della finanza, dell’economia, della politica.
E c’è poi bisogno di un lavoro concettuale sull’etica che sia in grado di tradursi in linee guida per guidare le forze di difesa nell’uso dell’AI. L’etica non è una visione assolutista: è fatta di trade-off, di equilibri che cambiano a seconda del contesto. La capacità di capire qual è l’equilibrio giusto, quando e come certi principi vadano bilanciati è cruciale. È il lavoro che faccio da anni con il Ministrero della Difesa inglese. Allo stesso tempo l’etica deve definire i limiti: non tutto è compromettibile. È come creare uno spazio cartesiano: tracciamo gli assi, e dentro quelli ci muoviamo».
Lei è tra le esperte mondiali di etica e digitale. Ha ricevuto numerosi premi per il suo lavoro. Nel 2024 il Presidente della Repubblica Italiana l’ha insignita del titolo di Grande Ufficiale al Merito. Come ha vissuto il riconoscimento?
«È stata una grandissima emozione. Il premio è stato un onore ancora più bello perché ho grande stima per il Presidente Mattarella. È stata un’occasione per ripercorrere gli anni passati. Sono partita per UK con grande entusiasmo, ma non stato facile trasferirsi in un paese con una cultura così diversa dalla nostra. Sento molta nostalgia di tante cose e delle persone che amo. Io non arrivavo da un’università internazionale, non sapevo l’inglese, sono donna. Insomma ci ho messo tanto impegno. Che ne sia valsa la pena lo credo tutti i giorni quando lavoro con il mio gruppo di ricerca, ma questo riconoscimento mi ha fatto pensare che in fondo il mio Paese mi vuole bene… Ed è una bella sensazione per un’emigrata».
Tornerà in Italia? Cosa c’è nel suo futuro?
«Nelle condizioni giuste, sarebbe una grandissima gioia. Una conquista. Ma non credo ci siano ancora le premesse.
Tempo fa ho parlato di etica delle AI in Difesa, in Italia, in una riunione a porte chiuse e un signore, dall’altra parte del tavolo, mi ha risposto: “la guerra è una cosa brutta e cattiva!”. Sotto intendendo che come donna delle cose brutte e cattive, non me ne devo occupare. Qui in Inghilterra esiste un contesto in cui la conversazione, anche con l'esponente della difesa ad alto livello, è costante e costruttiva».
Lezioni imparate che possono servire a tutti noi?
«Le rispondo su due fronti. Professionalmente, la cosa più importante che ho imparato è che il linguaggio è uno strumento ad alta precisione: bisogna usarlo bene. E questo è importante fuori e dentro l’accademia. Un linguaggio slabbrato ci rende manipolabile, quando siamo noi ad usarlo rende difficile spiegare le nostre idee; quando lo usano gli altri crea una forma di opacità che impedisce un contraddittorio vero. Che sia per la ricerca, per il dialogo, per il discorso politico la ricerca di un linguaggio preciso è la ricerca per una compressione profonda e per un dialogo costruttivo. Dal punto di vista personale, invece, per anni ho sempre e solo buttato il cuore oltre l'ostacolo, credendo fosse l’unico modo per raggiungere gli obbiettivi che mi prefiggevo. Lo faccio ancora, però, in questo processo, bisogna stare attenti a non perdere se stessi. Il “conosci te stesso” di Socrate significa pratica te stesso nel tentativo di migliorarsi senza lasciarsi svilire dall’impegno per raggiungere una meta e senza snaturarsi per compiacere una cultura diversa dalla propria… Sto imparando una lezione vecchia più di 2.400 anni, la condivido per quelli lenti come me».

Rigenera Contenuti

Rielabora i contenuti con Gemini

Nota: La rigenerazione richiederà alcuni secondi e sovrascriverà i contenuti esistenti.