← Torna ai documenti

Parlo con un'esperta di Etica dell'IA (Mariarosaria Taddeo)

youtube Elaborato Creato il 2025-10-26
Modifica

Metadati

Hash
889cfeebdd69a25b...
Data Pubblicazione
20251009
Lingua
it
Ultimo Aggiornamento
2025-10-26 09:58

Sintesi Breve

Riassunto generato da Gemini (max 200 parole)

L'intervista con Maria Rosaria Taddeo evidenzia l'urgenza di regolamentare l'IA, paragonando la situazione attuale a una guida senza regole. L'Europa, pur impegnata nella limitazione dei rischi, deve concentrarsi sulle opportunità, costruendo un'alternativa europea per ridurre la dipendenza da servizi e infrastrutture americane, soprattutto in settori strategici come la difesa. L'IA Act europeo è un passo avanti, ma necessita di miglioramenti. Il rischio è che l'Europa diventi un "feudo digitale", perdendo sovranità. Il Regno Unito, pur investendo, rischia di trascurare etica e governance. Preoccupano i deep fake e la disinformazione, che richiedono un approccio sistemico. Fondamentale è recuperare la fiducia nelle istituzioni e gestire i bias intrinseci nell'IA, monitorando e riparando gli errori. Serve un approccio interdisciplinare, coinvolgendo esperti di etica e diritto, per affrontare l'impatto sociale dell'IA.

Trascrizione Estesa

Testo rielaborato e formattato da Gemini

Stiamo guidando una macchina senza aver preso la patente e senza aver impostato limiti di velocità. Le trasformazioni si possono subire o guidare. Io penso che dovremmo guidare questa trasformazione, ma al momento mi pare che non stia accadendo. In Europa abbiamo lavorato molto per limitare i rischi ed è importante concentrarci anche sulle opportunità, cosa che finora non abbiamo fatto. Come Europa, siamo dipendenti da servizi, infrastrutture ed expertise americane, e questo è problematico. **Intervistatore:** Maria Rosaria Taddeo, professoressa di etica digitale e tecnologia della difesa all'Oxford Internet Institute, inclusa tra le top 100 donne in AICS e vincitrice del Digital Ethics Award, con pubblicazioni su riviste scientifiche come Nature, Nature Machine Intelligence, Science, Science Robotics, e insignita del titolo di Grande Ufficiale al Merito della Repubblica Italiana, benvenuta e grazie per questa chiacchierata. **Maria Rosaria Taddeo:** Grazie mille. **Intervistatore:** Ho letto tutto nella tua introduzione. Parto subito con un argomento forte, perché ci sono molte cose di cui vorrei parlare con te. Preparando le domande, ho trovato una tua intervista su AI News in cui dicevi: "Le questioni come la singularity e la consapevolezza delle macchine sono specchietti per le allodole, distrazioni pericolosissime perché non abbiamo anni per definire le regole e capire come vogliamo utilizzare l'intelligenza artificiale per controllare i contenuti online. In alcuni casi abbiamo mesi". Sono d'accordo sul fatto che, prima dei problemi a lungo termine, ci sono problemi a breve e medio termine da affrontare. Quali sono quelli immediati su cui dovremmo concentrarci oggi, o meglio, ieri, visto che siamo già in ritardo? **Maria Rosaria Taddeo:** L'intelligenza artificiale e il digitale sono ormai compenetrati in tutti i settori, dalla logistica alla difesa, alla gestione della salute, alla finanza, soprattutto nei domini ad alto rischio come difesa, salute e giustizia. L'intelligenza artificiale è già una realtà che sta trasformando processi operativi e decisionali, ma non abbiamo una regolamentazione adeguata. Non ci sono act specifici per la difesa, ad esempio. Stiamo guidando una macchina senza patente e senza limiti di velocità. Questa è un'urgenza molto importante a livello sociale e individuale. Stiamo giocando con un giocattolo potentissimo, con un grande potenziale, ma anche con un grosso impatto sulla nostra consapevolezza e comprensione di noi stessi. Serve una riflessione, anche filosofica, prima di trovarci trasformati in qualcosa che non ci piace. **Intervistatore:** La metafora dell'automobile è perfetta. Ormai è utilizzata da molti perché rende bene l'idea della mancanza di patente. Tu hai aggiunto anche la mancanza di limiti di velocità, che sono fondamentali. Dobbiamo capire i limiti, le cose che assolutamente non vogliamo che succedano o che questa tecnologia faccia. E poi dobbiamo capire con che criterio scegliamo i compromessi tra questi limiti. A volte, come durante la pandemia, abbiamo ceduto un po' di privacy in funzione della sicurezza sulla salute pubblica. Oggi, che la pandemia fortunatamente non c'è più, non lo accetteremmo più. Questo ci fa capire che gli equilibri etici sono dinamici e dovremmo avere dei criteri per orientarci con l'intelligenza artificiale. Ad oggi, guardiamo nello specchietto retrovisore, mentre dovremmo tenere gli occhi puntati sull'orizzonte. Hai accennato alle Iact, su cui ti farò una domanda dopo. Prima, però, vorrei parlare del connubio tra intelligenza artificiale ed etica. Percepisco una corsa senza sosta tra Stati Uniti e Cina sull'intelligenza artificiale, che mi ricorda la corsa agli armamenti tra Stati Uniti e Unione Sovietica. Approcciare una tecnologia così potente in modo così veloce è rischioso. Ho la paura che entrambi i player abbiano messo da parte le questioni etiche, anche gli americani che all'inizio sembravano più attenti. È troppo tardi o si può ancora fare qualcosa, vista la velocità a cui stanno andando queste due nazioni? **Maria Rosaria Taddeo:** Dobbiamo provarci, anche se forse è troppo tardi. Non ci siamo mossi in tempo. In accademia esiste il "cooling rich dilemma": se la regolamentazione arriva troppo presto, non regolamenta bene perché non si capiscono i rischi reali; se arriva troppo tardi, i rischi si sono cronicizzati e la regolamentazione è inefficace. Bisogna trovare il momento giusto. Un po' di ritardo ci sta, ed è il ritardo delle democrazie. La Cina non ha bisogno di farsi domande sull'etica dell'IA perché c'è qualcuno che decide dall'alto. Nelle democrazie liberali ci deve essere un dibattito per aggiustare i compromessi. A livello internazionale, la regolamentazione dell'intelligenza artificiale ha subito una battuta d'arresto. Gli Stati Uniti innovavano con un approccio liberista, la Cina imitava e faceva le sue cose, e l'Europa regolamentava. Alla fine dell'amministrazione Biden, anche l'America aveva iniziato a regolamentare, perché si era capito che le grandi tech hanno un grosso potere che può essere problematico. Prima del 2024, anno delle elezioni, la regolamentazione dell'IA in America era legata al tentativo del governo Biden di mettere dei paletti a usi impropri. Questa dinamica ha subito una battuta d'arresto con l'amministrazione Trump e le sue idee scellerate. In Europa, però, teniamo il timone fermo, anche se qualcuno dice che le Ict fermano l'innovazione e sono troppo burocratiche. Non sono d'accordo. La governance è uno strumento di guida di questa trasformazione, non è l'unico. Se non la guidiamo noi, la guida il settore privato, che ha interessi commerciali e non protegge la democrazia, le minoranze o il bene pubblico. Lo stiamo vedendo con le big tech negli ultimi mesi. **Intervistatore:** Hai detto che la governance non è l'unico strumento. Cosa intendi? **Maria Rosaria Taddeo:** La guida dell'innovazione ha a che fare con la definizione dei limiti, ma anche con l'orientamento delle risorse e lo sviluppo delle risorse. Servono strategie per supportare certi tipi di innovazione. Vogliamo un'innovazione più o meno sostenibile? Vogliamo facilitare la costruzione di certi data center o di altri tipi? Vogliamo mantenere il talento in Europa e quindi avere finanziamenti che trattengano la ricerca? Ci sono tante decisioni che la politica può prendere per orientare un tipo di innovazione, di crescita, di industria e di ricerca. È una scelta. In Europa abbiamo lavorato tanto per limitare i rischi ed è importante concentrarci anche sulle opportunità, cosa che finora non abbiamo fatto, e ci troviamo un po' in affanno. **Intervistatore:** Mi hai servito la prossima domanda su un piatto d'argento. Mi rendo conto che tutto questo sia necessario, ma anche che la tecnologia e il legislatore vanno a due velocità diverse. Come si fa a non rimanere indietro, ma allo stesso tempo rispettare i valori democratici, sapendo che alcune limitazioni servono e che l'Europa deve avere questo ruolo? Come si trova questo bilanciamento? **Maria Rosaria Taddeo:** Non penso che dobbiamo essere necessariamente i primi. Forse è più importante avere il passo giusto. Non è uno sprint, ma una maratona. Se arrivare sei mesi dopo ci permette di evitare grandissime disruption sociali e di navigare un po' più calmi, va bene anche quello. La priorità è tenere salda la democrazia. Se la corsa dell'innovazione deve significare scalfire la democrazia, allora va bene anche arrivare secondi. Non c'è questa illusione che sia una corsa agli armamenti, è una corsa commerciale. Questa gara la vince chi assorbe bene questa innovazione e la usa strategicamente, e questo richiede osservazione, visione e distanza. Non mi farei prendere da questa dinamica di arrivare primi. **Intervistatore:** Dici che è una maratona, mentre la narrativa che arriva da oltreoceano è che dobbiamo essere primi perché se lo fanno gli altri, gli altri sono i cattivi. **Maria Rosaria Taddeo:** Devono essere i primi perché la devono vendere. Noi non la compriamo, non la produciamo questa tecnologia, quindi chi la usa ha il vantaggio di poter fare una revisione e di stare un po' più tranquillo. Se poi l'Europa vuole partecipare a questa corsa, ci sta, ma con un passo sano. Abbiamo il vantaggio di stare dietro e pedalare un po' di meno, mettendoci nella scia senza farci venire l'ansia e senza buttare i nostri valori a mare. In un contesto in cui un paese si dichiara dalla parte della democrazia e scopre derive totalitariste, e dall'altra ci sono regimi che non considerano la democrazia liberale, noi siamo i bravi della classe e non possiamo farci distrarre. **Intervistatore:** Qual è il ruolo dell'Europa in questo momento? In questo scenario che hai descritto, con maratona e valori come parole chiave? Da dove si parte? **Maria Rosaria Taddeo:** L'Europa dovrebbe partire da se stessa e anche dimenticare un pochino se stessa. Abbiamo una lunghissima storia che ci porta a parlare di democrazie liberali. Arriviamo dall'Illuminismo, dall'idea della dignità delle persone, da Kant, che ci insegna che nessuno può essere uno strumento per qualcun altro e che c'è un valore intrinseco nella nostra esistenza. Per questo i diritti umani sono fondamentali. I diritti umani esistono perché al centro c'è la dignità di tutti, uguale per tutti. Non ce lo possiamo dimenticare e dobbiamo essere leader mondiali nel far sì che questi concetti siano percepiti e resi obbligatori. Allo stesso tempo, bisogna capire che il mondo non è eurocentrico e che ci sono spinte che arrivano da altre parti del mondo e che vanno accolte. Noi abbiamo una lunghissima storia che ci porta a parlare di democrazie liberali. Arriviamo dall'Illuminismo, dall'idea della dignità delle persone, da Kant, che ci insegna che nessuno può essere uno strumento per qualcun altro e che c'è un valore intrinseco nella nostra esistenza. Per questo i diritti umani sono fondamentali: esistono perché al centro c'è l'idea della dignità di tutti, uguale per tutti. Non possiamo dimenticarlo e dobbiamo essere leader mondiali nel far sì che questi concetti siano percepiti e resi obbligatori. I diritti umani e il diritto umanitario internazionale non possono essere violati. Allo stesso tempo, bisogna capire che il mondo non è eurocentrico e che ci sono spinte che arrivano da altre parti del mondo. Queste spinte vanno accolte, non respinte o considerate con occhio colonialista o post-colonialista. Ci sono altri attori che sono cresciuti e sono importanti, e bisogna capire come gestirli insieme a loro, altrimenti si va verso una dinamica di scontro. Bisogna iniziare a fare spazio a una visione più sofisticata che superi l'idea semplicistica di "buoni e cattivi", senza dimenticare noi stessi e l'Europa. Hai citato lo IA Act, entrato in vigore ad agosto 2024. Ricordo che, quando è stato pubblicato, alcune cose mi sembravano già superate, tanto rapidamente si evolvono gli eventi. Da agosto 2024 a oggi, ottobre 2025, è successo di tutto. Come vedi il ruolo dello IA Act? È stato fatto abbastanza o ci sono punti su cui lavorare di più? La cosa che mi piace molto dello IA Act è che ha in sé il germe di sandbox e meccanismi di dinamica per aggiornare la regolamentazione e ridurre il ritardo rispetto alla tecnologia. Mi piace anche il fatto che si siano concentrati sull'idea di rischio, cercando di categorizzarlo e mapparlo in modo flessibile, ma non troppo granulare. Credo però che lo IA Act abbia due criticità. La prima è un'eccessiva attenzione all'idea di super intelligenza artificiale generale, forse influenzata da istanze che non dovrebbero essere così centrali. L'altra è l'estrema burocratizzazione, tipica delle regolamentazioni europee, specialmente con la proliferazione di varianti nazionali. Va detto che lo IA Act impone doveri a chi produce software o IA ad alto rischio per la maggior parte delle aziende europee. Se scopriamo che l'80% delle aziende europee fa IA ad alto rischio, dobbiamo preoccuparci, perché significherebbe che c'è qualcosa che non va. Forse non eravamo consapevoli della reale produzione europea di intelligenza artificiale. Penso che sia uno strumento valido, ma forse andrebbe snellito nell'aspetto burocratico. Lo dico da filosofo, per cui anche una sola forma è troppa burocrazia. Vero, anche a me è piaciuto molto il tentativo di stabilire livelli di pericolosità e di deferire comportamenti diversi. Trovo super interessante anche il dire "no" in alcuni casi, vietando l'uso di certe tecnologie. Come dicevamo prima, si tratta di definire i casi limite, evitando di identificare le persone o di fare social credit scoring come in Cina. Qui entra in gioco la democrazia, che dice "questo si può fare, ma non si fa". Questo è importantissimo. I modelli di rischio sono tanti e potranno evolvere, ma è fondamentale dire "questo non lo facciamo". Prima dello IA Act, in America c'era Clearview AI, poi riutilizzata in Ucraina, che faceva riconoscimento facciale e diceva di poter identificare anche omosessuali ed eterosessuali, una cosa aberrante. È la Mark 2 che non vogliamo vedere né pensare. Quel "no" è cruciale. Dovremmo essere orgogliosi di vivere in un posto in cui possiamo dire "no, grazie, ve lo tenete voi". Anche alla luce del fatto che spesso, per quanto criticate, alcune iniziative europee sono state apripista nel resto del mondo. Penso al GDPR, ad esempio, che è stato scopiazzato più o meno altrove e ha fatto da linea guida in altre nazioni. C'è il cosiddetto "Brussels effect": i regolamenti europei, siccome l'Europa è un mercato ricco, impongono alle grandi aziende americane di seguire certe regole per vendere qui, e poi le seguono anche in altri paesi. La California, ad esempio, aveva fatto una regolamentazione simile al GDPR. Con Trump questa tendenza si è un po' persa, ma l'Europa può dire "chi mi ama mi segua". Come diceva Pericle ad Atene, noi a Bruxelles. Ecco, quando dico che nella stessa stanza con gli ingegneri ci devono essere i filosofi, intendo proprio situazioni di questo tipo. Parliamo di Europa e idealai. Voglio riprendere un concetto che ti ho sentito usare spesso: "feudalismo digitale". Acquistiamo servizi AI da grandi aziende tecnologiche e rischiamo di perdere sovranità e controllo sui sistemi. Oggi siamo dipendenti da queste realtà che controllano i dati, l'accesso e l'esperienza. Ma c'è un'alternativa? No, dobbiamo costruire l'alternativa. Al momento, come Europa, siamo dipendenti in tutto e per tutto da servizi, infrastrutture ed expertise americane. Questo è problematico, soprattutto nei settori ad alto rischio, perché significa che il controllo della tecnologia non è pienamente nelle nostre mani. Ricorderai che in Ucraina, a un certo punto, Musk offrì il servizio di satelliti, ma quando il governo ucraino decise di fare un'operazione contro la Russia non approvata dall'amministrazione Biden, tolsero i satelliti. Quella è sovranità. E se parliamo di difesa, Palantir gestisce tutti i software di situational awareness e target identification. Anche quella è nelle mani statunitensi. Chi controlla i dati dell'Ucraina in guerra? I dati di battaglia sono preziosissimi. Oggi gli Stati Uniti sono un alleato, ma se cambia qualcosa tra sei mesi o sei anni, che dati abbiamo? La guerra si combatte anche attraverso i social, quindi tutti i dati dei cittadini ucraini possono essere raccolti e gestiti da un'azienda statunitense e quindi nelle mani di un governo statunitense. Ancora di più, se siamo un ospedale o un'amministrazione pubblica che si appoggia a un servizio cloud e dovesse esserci un mandato di una corte americana per accedere a quei dati, come facciamo a evitarlo? È un controllo infrastrutturale. Poi c'è la mancanza di expertise e di competizione europea, per cui c'è il "lock-in": una volta che sei dentro, devi restare con quel fornitore. È una dipendenza strutturale e sistemica che non si può smantellare da un giorno all'altro perché i servizi di qualità sono quelli e hanno scalabilità e capacità. Però bisogna costruire l'alternativa e su quello siamo molto in ritardo. Non è necessario essere i primi, sappiamo come si fa un cloud, non abbiamo bisogno di inventarci niente di nuovo. Ci serve una cosa simile in termini di robustezza, latenza, sicurezza e resilienza. Dobbiamo farlo sapendo che partiamo con anni di ritardo. Sì, però la scelta è come quella di chi deve fare l'esame e inizia a studiare tardi: o ti fai prendere dal panico e non lo fai, oppure vai di caffè e prima o poi la spunti. Bisogna farlo, il fatto che siamo in ritardo è male, molto male. Il digitale noi l'abbiamo concepito come un servizio, invece è un'infrastruttura. È diverso. Quando c'è l'infrastruttura bisogna averci il controllo, come la differenza tra avere l'autogrill sull'autostrada o controllare i pilastri dell'autostrada. Noi dobbiamo controllare l'infrastruttura e su questo bisogna spicciarsi. Non c'è un'alternativa. Abbiamo il GDPR che ci dice che i nostri dati devono essere trattati come europei anche quando sono conservati su territorio extraeuropeo, benissimo, ma alla fine dei conti se c'è un mandato di perquisizione o un ordine di un tribunale, questa cosa lascia un po' il tempo che trova. È interessante perché sembra che uno faccia un appello all'autocrazia digitale, che è una parola che non vorremmo mai più sentire. Non è così, va benissimo avere dei competitors e poter scegliere, ma al momento noi non scegliamo. Forse questa è la grande questione, la grande problematica: non avere un'alternativa, fornitori che siano fornitori dello stesso paese. Esatto. Prima ci muoviamo, meglio è. Iniziamo con questi caffè. Stiamo registrando a Londra, viviamo entrambi in Inghilterra, parliamo di Europa e Stati Uniti. In questo scenario, il Regno Unito come si piazza? Poverini. Sono in Inghilterra da tantissimi anni e loro sul digitale hanno sempre tenuto un passo molto svelto, soprattutto per quanto riguardava la policy e la governance. Ho iniziato a parlare col governo inglese di "go digitale" nel 2015, quando in altri paesi in Europa, anche in Italia, se dicevi digitale pensavano ai videogiochi. C'è una grande expertise e consapevolezza. Anche negli anni del governo Tory, i civil servant, la struttura vera del governo inglese, hanno sempre avuto un grande focus su questa cosa. Collaboro col Ministero della Difesa dal 2018 e, nonostante un governo che ti potessi immaginare spingesse per la deregolamentazione, loro erano molto presi su questa cosa. Adesso Stalmer ha fatto questa strategia per cui investiranno tantissimo. Il paese è in una situazione di flessione, quindi tutte le leve che ci permettono di riprenderci dalle stupidaggini della Brexit, dalla pandemia e dalla guerra, vanno bene. Credo che faranno bene, ma bisogna stare un po' attenti perché in questa foga di recuperare, fa un po' specie che sia un governo Labour a fare questo, ma spesso c'è una spinta a rendere al lato la regolamentazione. Sento parlare molto meno delle strategie che sono venute fuori negli ultimi mesi. Si parla di investimenti, c'è molta apertura all'America e poco discorso serio sulle questioni etiche e di governance, considerando che questo è un governo guidato da un avvocato specializzato in diritti umani e diritto internazionale. Non vorrei che la pressione economica, più che geopolitica, ci facesse dimenticare di problemi seri che abbiamo iniziato ad affrontare. Quindi, tutte le iniziative che ci permettono di riprenderci dalle difficoltà causate dalla Brexit, dalla pandemia e dalla guerra sono benvenute e credo che porteranno benefici. Bisogna però fare attenzione, perché in questa fretta di recuperare, trovo un po' strano che sia un governo laburista a promuovere una spinta alla deregolamentazione. Sento parlare molto meno, per esempio, delle strategie emerse negli ultimi mesi. Si parla di investimenti, c'è molta apertura verso l'America, ma poco spazio per un discorso serio sulle questioni etiche e di governance, considerando che questo è un governo guidato da un avvocato specializzato in diritti umani e diritto internazionale. Questo mi lascia sempre un po' perplesso. Non vorrei che la pressione economica, più che geopolitica, ci facesse dimenticare problemi seri che avevamo iniziato ad affrontare in questo paese e che sarebbe interessante continuare a gestire bene. Il fatto è che le questioni etiche richiedono tempo, riflessione e domande. Invece, viviamo in un'epoca di grande entusiasmo. Torniamo a quello che dicevamo prima, dove ogni intervista ai CEO ripete sempre "dobbiamo spingere, dobbiamo correre, dobbiamo essere i primi, dobbiamo fare veloce" e così via. Ci sono tre aspetti importanti. Il primo è che, come dico sempre, loro devono correre, ma noi no. Dobbiamo capire quali sono i ruoli. Se loro vendono, noi dobbiamo valutare. Bisogna stare attenti a non farsi prendere dalla fretta e a capire il gioco delle parti. Ci sono anche altri due bias. Il primo, che esprimo male e mi scuserete, è che quando entro in una stanza e dico "Mi occupo di etica", vedo subito un certo scetticismo. Io dico sempre: "Posso essere sia la mamma che ti dice di non uscire, non truccarti, non mettere vestiti corti, ma anche quella che ti incoraggia a viaggiare, leggere libri, andare in palestra, parlare con gli amici". L'etica non è solo ciò che non si deve fare, ma anche ciò che si può fare bene, si può fare meglio. È anche cercare di coordinare le risorse per strutturare un risultato positivo. In azienda la chiamano visione, mission, ma alla fine si tratta di definire valori e principi e, sulla base di questi, capire come agire. E qui torniamo al discorso di prima: chi vogliamo essere? Lo stupido che si fa mettere fretta da chi deve vendere un prodotto, come Pinocchio con il gatto e la volpe, oppure capiamo la metafora e ci sganciamo? Penso che questo sia molto importante. L'altro bias, tipico degli ambienti accademici, è che siccome l'etica è associata al buon senso, al senso comune, si pensa che sia qualcosa di semplice, che si possa rimandare, perché tanto tutti sanno distinguere il bene dal male. Quindi, l'idea che l'etica abbia bisogno di risorse, tempo, persone, formazione, che si debba strutturare un gruppo di lavoro, è difficile da far passare. Questo è molto frustrante, perché porta, in alcuni casi, anche in modo non necessariamente cinico, al "blue washing", cioè a principi etici che, una volta letti, si rivelano banali. Abbiamo creato principi etici per l'intelligenza artificiale nella difesa, anche la NATO ha fatto i suoi. Il primo principio è che l'uso dell'IA nella difesa deve essere legale. Ma non è un principio! Allora dovremmo aggiungere anche "non rubare, lavati le mani". Il problema è che la riflessione etica è demandata senza il necessario supporto per essere sofisticata come dovrebbe essere. L'etica non è solo buon senso. Hai detto una frase potentissima, che mi ha colpito molto: "Non è solo quello che non dobbiamo fare, ma è quello che dobbiamo fare meglio". Trovo questo passaggio bellissimo, anche per chi, ascoltando questa chiacchierata, è un imprenditore e si chiede perché queste cose dovrebbero interessargli. Ecco perché interessano anche a te che hai un'azienda. Parlando di cose fatte bene, un episodio che mi ha spiazzato è stato il rilascio di Grok 4 da parte di xAI. Elon Musk ha deciso di rilasciarlo senza pubblicare il report di sicurezza, senza pubblicare le system card, nonostante in passato fosse sempre stato uno di quelli che metteva in guardia sui pericoli dell'IA. Ha ricevuto molte reazioni negative, anche da altri big tech, non solo da ricercatori, ma anche da altri founder e persone di altre aziende. Trovo questo episodio estremamente pericoloso e solleva la questione della coerenza degli standard di sicurezza in questo settore. Come valuti l'importanza della trasparenza, soprattutto, che forse è qualcosa che dobbiamo iniziare a pretendere da certi player per quanto riguarda questi strumenti? Questa è una bellissima domanda e torniamo al discorso di prima: la necessità di avere linee guida e standard. Trasparenza e tracciabilità sono fondamentali. L'intelligenza artificiale è un paradosso, perché è una tecnologia che stiamo adottando tutti, più o meno. C'è un grande entusiasmo, ma vedremo anche un'inflazione e poi un'adozione più consapevole. La stiamo mettendo tutti nelle nostre case, nelle nostre borse, nei nostri portafogli, ma è una tecnologia con due aspetti importanti di cui dovremmo preoccuparci. Il primo è che non è predicibile al 100%. Dato un input, se hai un modello che impara online, come una rete neurale o un large language model, l'output è prevedibile con un certo margine di certezza, ma il controllo non è totale. Va benissimo se lo utilizzi per capire il prossimo libro da leggere, ma se stai decidendo il prossimo target in guerra, forse abbiamo un problema. Il secondo è che è una tecnologia fragilissima dal punto di vista della sicurezza. Tutte le tecnologie digitali sono fragili, non esiste un sistema informatico online che non sia prima o poi penetrabile. È solo questione di tempo e di determinazione di chi lo vuole violare, ma prima o poi ci riesce. Per questo nel cyber si fa molta più offesa che difesa. Ma l'intelligenza artificiale è molto più fragile. Quando è uscito ChatGPT, c'era il problema delle prompt injection: gli scrivevi "dammi la ricetta del dolce al mango" e ti diceva cose che non avrebbe mai dovuto dirti. Oppure gli scrivevi "da adesso in poi fai qualsiasi cosa" e si dimenticava dei guard rail, delle limitazioni imposte dai progettisti. Ma non è solo questo. Ci sono studi che dimostrano che basta cambiare un pixel in una foto perché un sistema di image recognition scambi una tartaruga per un fucile. Questi attacchi sono problematici perché non solo sono più facili da eseguire, ma cambiano anche la funzione dell'attacco. Prima un attacco informatico serviva a rubare dati o a interrompere il sistema. Adesso, invece, fai cambiare comportamento al sistema e, se sei furbo, non lo fai cambiare da 0 a 100, ma da 0 a 2. Quel piccolo margine è sufficiente per fargli fare quello che vuoi tu. Davanti a questa fragilità, non avere trasparenza e consapevolezza dei limiti di sicurezza è un gesto irresponsabile. Poi si può discutere se sia fatto per propaganda, per mettersi in mostra, tutte le teorie cospirative su Musk sono possibili, ma di fatto è un gesto irresponsabile. È come mettersi alla guida di una scatola nera che non si conosce e portarsela in casa. Poi sarà una bomba o un orologio, vedremo. Non va bene. Il punto è che non ci sono regole per cui si possa dire: "Va bene Musk, hai fatto questa cosa, adesso multa". Non succede niente. Il problema è che vediamo, dal diritto internazionale all'azienda che produce IA, comportamenti irresponsabili e inaccettabili di fronte ai quali prendiamo atto, ma non c'è un seguito. Questo è problematico perché è una lenta erosione. Esatto. Non solo sta capitando, ma sta capitando abbassando l'asticella un po' alla volta. Vediamo cosa ci lasciano fare. Se va bene, la prossima volta ci proviamo ancora di più. Come la rana che muore bollita lentamente. Le frizioni e le erosioni sono piccole e costanti, ma sistematiche. E poi ci si abitua, si abbassa talmente tanto l'asticella che non ci si fa più caso. Se guardiamo a 20 anni fa, ci siamo già abituati a tanto. Londra è uno dei posti al mondo con più telecamere a circuito chiuso, una cosa impensabile per i nostri genitori. Noi ci abituiamo, e questo è sia la magia che il dramma dell'evoluzione. Dove non possiamo adattarci, ci abituiamo. A proposito di cose a cui ci stiamo abituando, ultimamente sto prestando particolare attenzione al tema dei deep fake. L'arrivo di Sora 2, che li ha praticamente legalizzati e resi accessibili con un click, è un'altra cosa che ha abbassato ulteriormente l'asticella. Questo vale in generale per gli strumenti di IA generativa. Si solleva sempre più il timore di campagne di disinformazione pervasive, fake news e deep fake iperrealistici. Qualcuno prova a mettere watermark come potenziale soluzione, ma non basta, perché poco dopo l'uscita di Sora avevano già trovato un modo per toglierli. Tu hai detto che l'efficacia della propaganda non dipende tanto dalla fonte, ma dalla predisposizione del pubblico a credere a certe narrazioni. Trovo questa affermazione bellissima. Quali strategie dovremmo adottare per proteggere la società da questo nuovo tipo di campagne di disinformazione, mantenendo però la libertà di espressione? Si potrebbe pensare che dobbiamo essere tutti più informati e critici, ed è vero. Però non mi piace tanto scaricare la responsabilità sulla formazione individuale, perché alla fine l'utente, tra le tante cose che deve fare nella vita, dovrebbe anche informarsi e studiare. Faccio sempre il paragone con le casse automatiche ai supermercati: adesso devo fare un lavoro in più nella mia giornata, perché a fine giornata devo anche farmi il conto della spesa. Bisogna stare attenti a questo. Quello che volevo dire è che la propaganda attecchisce perché prima abbiamo svilito il rapporto di fiducia nelle istituzioni. Non è la propaganda a farci perdere la fiducia, quella fiducia l'abbiamo già persa. Quindi, il compito delle istituzioni è recuperare la fiducia dei cittadini. Lo Stato è diventato sempre meno istituzione negli ultimi 20 anni, e lo si vede dalla propaganda, dalla politica, dal dialogo, dal tono. C'è stato un abbassamento del tono e questo ha portato alla perdita del senso dell'istituzione e della fiducia nelle istituzioni. È su questo terreno che attecchiscono le teorie del complotto e le fake news. Il danno è precedente. Questo è un seme che germoglia su un terreno che è stato maldissodato prima, ed è lì che bisogna intervenire. Per questo c'è la predisposizione, perché siamo già pronti a pensare male. Poi arriva un indizio, un nudging, e ci caschiamo. Una cosa è il senso critico, una cosa è il dubbio, ci mancherebbe, non sto dicendo che dovremmo avere un approccio fideistico verso le istituzioni. Però si è persa la linea tra un senso critico, quel senso di accountability per cui si vuole che le istituzioni siano trasparenti e si possano fare domande, e il credere alla prima fandonia, per cui se prendi la tachipirina ti spuntano tre gambe. È qui che dobbiamo intervenire. Il digitale è il sintomo, non il problema. Quindi, ancora una volta, non è una questione di tecnologia. In questo caso penso di no. La tecnologia ci ha aiutato a scendere in questo dirupo, ma il problema è precedente. Quando si inizia a pensare che "sono tutti uguali" e che "il potere logora", si parte da una premessa falsa. In logica, quando si fa un'implicazione, se la premessa è falsa, l'implicazione è sempre vera, perché se parti da una premessa falsa, tutto ciò che segue è coerente con quella premessa. E noi partiamo da premesse false. Prima hai citato una parolina che mi piace tantissimo: i bias. Chi segue questo canale YouTube sa che sono un grande appassionato del mondo dei bias e ovviamente non si può parlare di intelligenza artificiale senza parlare di bias. Secondo me è una del Rina e poi diventano tre gambe. Secondo me è lì che dobbiamo intervenire: il digitale è il sintomo, non il problema. Quindi, ancora una volta, non è una questione di tecnologia. In questo caso, penso di no. La tecnologia ci ha aiutato a scendere in questo dirupo, ma il problema è già presente prima. Quando inizi a pensare che "sono tutti uguali e il potere logora", va bene, ma in logica c'è questa cosa per cui, quando fai un'implicazione, se la premessa è falsa, l'implicazione è sempre vera, perché se parti da una premessa falsa, segue tutto. E noi partiamo da premesse false. Prima hai citato una parolina che mi piace tantissimo: i bias. Chi segue questo canale YouTube sa che sono un grande appassionato di questo mondo e, ovviamente, non si può parlare di intelligenza artificiale senza parlare di bias. Secondo me è una delle cose più importanti. Sappiamo che, come tecnologia, li porta dentro quasi di default: sono nei dati, sono negli algoritmi, perché è una tecnologia creata da esseri umani e gli esseri umani hanno bias. Ho letto una tua bella intervista sul SEO dell'Università di Oxford, dove hai fatto notare che gli errori e i bias non ci hanno impedito di adottare le AI in settori delicati come la sanità, la giustizia, la difesa. Dicevi: "Perché noi come società tolleriamo un certo livello di imperfezione nei sistemi pur di sfruttarne i benefici?". La domanda che ti faccio è: come si trova questo equilibrio? Quando ci si ferma? Qual è quel tasso di errore che siamo disposti ad accettare per dire: "Ok, alcune cose funzionano un po' problematicamente, però i vantaggi sono tali da accettare questo compromesso"? Penso che il compromesso sia dinamico, dipende dal contesto e dalla situazione. Ad esempio, in un contesto di difesa senza crisi, se non è perfetto, non lo uso. Ma se domani arrivano i marziani e ti devi difendere, magari accetterò quel minimo di errore. Il punto è avere una discussione pubblica sull'errore accettabile. Israele, su Gaza, ha utilizzato due sistemi di target identification sulla popolazione che avevano il 10% di falsi positivi. Su 37.000 persone targettizzate, 3.700 non c'entravano niente, che è tantissimo. Però non abbiamo uno standard, non abbiamo avuto una discussione per dire: "Quanto ne accettiamo? Qual è? È 10, è 5, è 1 o è 0? E quali sono i criteri che ci fanno muovere il cursore da 0 a 1 a 5 a 10?". Il punto è avere questo dibattito. Un dibattito che non si può fare in maniera polarizzata, che non giova delle ideologizzazioni. È un dibattito in cui i diritti e i principi devono essere messi sul tavolo con un approccio costruttivo, perché altrimenti la tentazione è polarizzarsi. Quindi, se io dico sì e tu dici no, rimane un vuoto di cui tutti gli altri approfittano. Noi quel vuoto dobbiamo colmarlo. C'è un'altra cosa da considerare: rispetto ai bias e agli errori, partiamo con l'idea che non ci dovrebbero essere mai. Ma chi di noi non sbaglia? Non è possibile. Quello che serve è un monitoraggio in itinere e la capacità di intervenire quando l'errore succede, con un rimedio. Non è che non ci debbano essere, ma quando ci sono dobbiamo essere pronti. L'idea che una macchina così complessa non faccia mai errori è banale, non esiste. Quindi, correggiamo i bias, ma cerchiamo anche di creare un processo di audit. Ad esempio, l'IA Act richiede una certificazione che rimandi alla conformità, un audit dei processi, un audit dell'implementazione. Quando c'è un errore, l'abbiamo trovato? Come interveniamo? Come ripaghiamo chi ha subito le conseguenze di quell'errore? L'approccio è molto più sistemico. Tornando al discorso di prima, quando arriva quello che ti dice: "Ah, ma poi diventa super intelligente e consapevole", mi arrabbio moltissimo, perché affrontare questi problemi richiede tantissimo impegno e sforzo, e c'è uno che fa come le chiavi col bambino che ti distrae, ti toglie energia, tempo e orienta il dibattito in una direzione che non ha senso. La parola che sta tornando più spesso nelle tue risposte è "discussione", "dibattito", "ne dobbiamo parlare". È bellissimo. Stai sottolineando il fatto che in alcuni casi non c'è proprio questo dibattito. Non l'abbiamo ancora fatto. Chi lo dovrebbe fare? Dove? Quando? Che cos'è questo dibattito concretamente? Penso che questa cosa sia avvenuta negli ultimi anni. Abbiamo capito che il digitale è anche un affare di politica, quindi la politica si dovrebbe occupare del digitale nel migliore dei mondi possibili, senza creare ulteriori problemi. È una discussione politica perché ha a che fare con l'economia, con i diritti, con le strategie di sviluppo di un paese. È imprescindibile. Però penso anche che sia un argomento di discussione della società civile. Nella mia visione naiv, la società civile discute e orienta un po' la politica. È un dibattito della società civile perché riguarda i nostri diritti e le nostre opportunità. È una cosa che abbiamo demandato molto a chi questi servizi li ha prodotti e offerti, e adesso siamo un po' scettici, ma continuiamo a essere dipendenti. Invece, è una cosa che riguarda tutti seriamente. Se guardi l'Italia, il divario digitale tra Nord e Sud era una linea netta, tra uomini e donne, tra giovani e anziani. Se sei una donna middle age che vive a Bari e vuoi fare un'azienda con aspetti digitali, è un problema. Il primo problema è che non c'è l'infrastruttura, poi ti devi formare, è tutto più problematico. Allora il digitale diventa una questione sociale, senza tirare in ballo i bias nella gestione dei mutui. La società civile dovrebbe occuparsene seriamente, perché riguarda noi. Io sono ottimista di natura, quindi mi rivedo in questa cosa e so che qualcuno potrebbe scambiare questo ottimismo per ingenuità, però voglio crederci. Senti, te la faccio in chiusura. Tu incarni un profilo interdisciplinare molto particolare. Sono mega fan del concetto di profili interdisciplinari. Filosofa di formazione, operi in contesti tecnologici avanzati e ti trovi a volte anche in tavoli politici. Quanto è importante nei progetti di intelligenza artificiale, a tutti i livelli, che siano coinvolti esperti di etica, filosofia, diritto e non solo ingegneri e programmatori? Adesso devo dire per forza tanto, perché c'ho un conflitto di interessi. A parte il conflitto di interessi, è importante per due ragioni. Uno, perché se non c'è qualcuno che guarda le ricadute sociali, allora gli ingegneri non stanno credendo nel loro progetto. Se sei un ingegnere che progetta digitale e non pensi che il digitale abbia un impatto sociale, forse non stai credendo nel tuo progetto, perché non ti stai immaginando che questa cosa cambierà la realtà. Quindi è già un bel red flag se non c'è nessuno che se ne occupa. Il secondo è perché ho frequentato abbastanza ingegneri per dire che vorrebbero controllare un po' tutto quello che succede al loro prodotto. Non voler controllare l'impatto sulla società mi sembra miope. Penso che sia importante perché viviamo in un periodo che ha la fortuna di trasformare se stesso. Il mondo che era 20 anni fa non è più e tra 20 anni sarà un'altra cosa. Questa trasformazione non è solo tecnologica, ma anche dei valori che vogliamo perpetrare e della direzione in cui vogliamo andare. Bisogna essere consapevoli di questo. Bisogna essere consapevoli che i valori vanno modulati. È un po' come la console di un DJ, non puoi mettere tutti i cursori al massimo o al minimo. Questa modulazione richiede un'expertise, e l'etica non si fa dalla sera alla mattina, richiede una riflessione che si accumula negli anni. Quindi è importante che ci siano degli esperti. Ho insegnato a Oxford il primo corso di "Computers in Society", poi ripreso anche da altre università. La prima settimana, i ragazzi del dipartimento di Computer Science pensavano che fosse il corso più facile. Poi, alla fine del corso, capiscono che è una cosa importante e si impegnano tantissimo. Quindi, quei pochi ingegneri che ancora non pensano a questa cosa è perché non ci si sono avvicinati abbastanza. Ma nessun ingegnere ti dice "No, questa cosa non serve". Non più. Nella tua esperienza, quanto sono aperte le istituzioni e le organizzazioni a questo? Cambia ed è cambiato nel tempo. Siamo passati da un'assoluta indifferenza prima di Cambridge Analytica, che ha dato una sveglia a tutti. Purtroppo è così, c'è sempre un disastro prima della consapevolezza. Poi c'è stato un momento di sfruttamento cinico: quando ancora non c'era la regolamentazione, molte aziende pensavano "Facciamo l'etica così il regolatore vede che abbiamo un set di principi e non ci vengono a regolamentare". Quello era fastidioso da vedere. Man mano che sali in termini di impatto di aziende o istituzioni che usano questa tecnologia, trovi un interesse più serio. Le domande sono tante, e vedi che la domanda è seria quando l'obiezione non è di principio, ma pragmatica. Tu gli parli, dici questi sono i principi, questo è l'approccio, e loro dicono: "Però noi non abbiamo 200.000 euro per pagare gli esperti per l'approccio, come facciamo?". Allora, quella domanda mi fa capire che si sta ingaggiando, che non mi stai più dicendo "Ah, ma l'etica no", ma stai pensando a come fare, hai capito che ci vuole un budget e quel budget non ce l'hai. Va bene, allora lì è un altro discorso, possiamo ragionare sul budget. Gli eticisti non si pagano 200.000 euro, purtroppo, però per dire... L'ultima volta sono stata a un convegno in Italia sulle AI e la difesa. Un uomo sessantenne mi ha guardato dopo che avevo parlato dei principi che la NATO, l'Inghilterra, gli Stati Uniti, la Francia stavano seguendo, e mi ha detto: "Eh, ma la guerra è una cosa brutta e cattiva, come dire lei, signorina, vada a fare la calzetta a casa perché la guerra la facciamo noi uomini e ci sporchiamo di sangue e fango". Delle volte ti scontri con un imbecille così e pazienza. Però sono sempre meno. O quantomeno stanno zitti di più. Mi piace concludere con questa nota di ottimismo sul fatto che istituzioni e organizzazioni si stanno aprendo sempre di più a questo tema. Maria Rosario, ti ringrazio, è stata una chiacchierata meravigliosa. Proverò a strappartene una seconda puntata in futuro. Grazie mille delle disponibilità e soprattutto degli spunti di riflessione. Grazie a te. Grazie. Se vi è piaciuta questa chiacchierata, vi ricordo che potete ascoltare sia me che Maria Rosaria dal vivo a Milano il 19 novembre all'evento Orbits. Una giornata particolare, non è una conferenza sull'intelligenza artificiale, nemmeno una fiera. Immaginate un momento dove sul palco si alterneranno professionisti, manager, filosofi, figure di vario tipo per affrontare queste tematiche a 360°. Una giornata un po' diversa dal solito, momento di formazione, ma anche di trasformazione. Un'occasione per unire pensiero critico e visione strategica. Tutti i dettagli nel link in descrizione. Vi aspetto a Milano il 19 novembre. Yeah. Sempre insieme! Tutti i dettagli sono nel link in descrizione. Vi aspetto a Milano il 19 novembre.

Testo Estratto (Cache)

Testo grezzo estratto dalla sorgente

Stiamo guidando una macchina senza aver preso la patente, ma senza neanche aver messo i limiti di velocità alla macchina. trasformazioni si possono subire o guidare. Io penso che noi dovremmo guidare questa trasformazione e al momento mi pare che invece questa cosa non stia accadendo. In Europa abbiamo fatto tanto lavoro per limitare i rischi e è importante adesso che ci concentriamo anche sulle opportunità perché fino a ora non abbiamo fatto questo tipo di non abbiamo seguito questo tipo di approccio. Noi al momento come Europa siamo dipendenti in tutto e per tutto da servizi, infrastrutture, expertise americane e questo è molto problematico. >> Maria Rosaria Taddeo, professoressa di etica digitale e tecnologia della difesa all'Oxford Internet Institute, è stata inclusa tra le top 100 donne in AICS, vincitrice del Digital Ethics Award. I suoi paper sono stati pubblicati nel topiste scientifiche come Nature, Nature Machine Intelligence, Science, Science Robotics, ricevuto il titolo grande ufficiale al merito della Repubblica Italiana. Maria Rosaria, ti do il benvenuto e ti ringrazio di essere qui per questa chiacchierata. >> Grazie mille. Grazie. >> Le ho beccate tutte nella intro. >> Tutte, tutte. Ehm, senti, allora parto subito a bomba perché ci sono un milione di cose di cui vorrei chiacchierare con te oggi. Ehm, quando preparavo questa un po' di domande per questa chiacchierata, ho beccato una tua intervista su AI News, eh, dove tu recentemente dicevi questa cosa, questo bel passaggio. Dicevi "Le questioni come eh la singularity, la consapevolezza delle macchine, sono specchietti per le allodole, sono distrazioni pericolosissime perché non abbiamo anni davanti a noi per definire le regole e per capire, per esempio, come vogliamo utilizzare l'intelligenza artificiale per controllare i contenuti online. in alcuni casi abbiamo mesi e lo leggevo e mi trovi molto d'accordo sul fatto che eh prima dei problemi nel lungo periodo, che sicuro arriveranno e ce li abbiamo, ci sono dei problemi nel breve e addirittura nel medio periodo che dobbiamo >> affrontare e vorrei partire da questo per te. Quelli nel breve periodo, quelli immediati oggi, quali sono? Su cosa ci dovremmo concentrare oggi? Ma forse ieri, addirittura del realtà più ieri siamo arrivati un po' in ritardo. L'intelligenza artificiale e tutto il digitale è oramai compenetrato in tutti i settori della nostra della nostra realtà, no? Da trovare questo posto questa mattina alla difesa, alla gestione della salute, alla finanza nei domini ad alto rischio, quindi difesa, salute, gestione della giustizia. L'intelligenza artificiale esiste già come una realtà, come qualcosa che sta trasformando processi, ma anche operativi, ma anche decisionali. non abbiamo regolamentazione, cioè le acti civili, per la difesa non c'è niente e e quindi stiamo, come dire, stiamo guidando una macchina senza aver preso la patente, ma senza neanche aver messo i limiti di velocità alla macchina. Ma io penso che questa sia un'urgenza molto molto importante a livello, diciamo, di società, a livello di individuo. E noi stiamo giocando con questo con questo giocattolo potentissimo che ha grandissimo potenziale, ma che ha anche un grosso impatto proprio sulla nostra consapevolezza e comprensione di noi stessi in quanto individui e e secondo me un po' di riflessione in questo senso, cioè al di là della regolamentazione proprio di riflessione un po' passami il termine filosofica e sarebbe necessario prima di trovarci trasformati, evoluti in qualcosa di nuovo che magari non ci piace tanto, cioè le trasformazioni si possono subire o guidare. Io penso che noi dovremmo guidare questa trasformazione e al momento mi pare che invece questa cosa non stia accadendo. Ecco. >> Eh, mi piace questa cosa. Innanzitutto la metafora del del dell'automobile è perfetta. Ormai penso che sia una cosa che, come dire, che st che stiamo utilizzando in tanti perché rende bene l'idea del fatto di non abbiamo la patente, no? Quindi su e però tu hai aggiunto non abbiamo nemmeno messo i limiti di velocità che sono fondamentali in alcuni casi. cioè capire i limiti, capire c a noi servono capire i limiti in termini di cose che assolutamente vogliamo che non succedano o che questa tecnologia non faccia. Eh, e poi ci serve capire con che criterio scegliamo i grigi tra questi limiti, no? I tradeoff, i compromessi e perché qualche volta siamo, pensa la pandemia, in pandemia tutti quanti noi abbiamo ceduto un po' di privacy in funzione della sicurezza sulla salute pubblica, no? quella quell'equilibrio, un equilibrio che oggi che la pandemia fortunatamente non c'è più, tocchiamo legno, eh non lo accetteremo più, no? E e quindi questo che ci fa capire che gli equilibri etici sono dinamici e noi dovremmo avere dei criteri per orientarci con l'intelligenza artificiale. Ad oggi lo facciamo sempre guardando nello specchietto retrovisore e in realtà dovremmo cercare invece un po' di tenere gli occhi puntati sull'orizzonte. Hai accennato pure le Iact e dopo ci torniamo perché una domandina su quella te lo voglio fare. Prima però c'ho c'ho questa qua, visto che appunto uno dei tuoi focus è proprio sul, diciamo, connubio tra intelligenza artificiale ed etica, in questo momento quello che che percepisco, ma probabilmente viviamo un po' tutti, è una sorta una sorta di corsa senza sosta tra Stati Uniti e e Cina su questo tema dell'intelligenza artificiale che a me purtroppo ricorda un po' la corsa agli armamenti tra Stati Uniti e Unione Sovietica. Eh, quando si approccia una tecnologia così potente, secondo me, in modo così veloce, eh è sempre un pochino rischioso, eh perché ho la paura che entrambi i player in questo caso, hanno un po' messo da parte le questioni etiche, almeno questa è la percezione io che c'ho da appassionato, da consumatore, non da esperto della cosa, eh anche dagli americani che all'inizio sembravano quelli invece un pochino più attenti alla alla questione, soprattutto all'inizio. Secondo te è troppo tardi o si può ancora fare qualcosa proprio per la velocità a cui stanno andando questi due queste due grosse nazioni. Ma >> e innanzitutto dobbiamo provarci, forse anche troppo tardi dovremmo dovremmo provarci. Non ci siamo mossi in tempo. Ora c'è una premessa. Non in accademia e letteratura esiste una cosa si chiama il calling rich dilemma, cioè l'idea è che la regolamentazione se arriva troppo presto sulla tecnologia non regolamenta bene perché non capisci quali sono i rischi per davvero. Se arrivi troppo tardi è probabile che certi rischi si siano, come dire, eh cronicizzati e quindi la regolamentazione sia ineffettiva. devi trovare un pochino il il momento giusto. Quindi un po' di buffer, un po' di ritardo ci sta pure. Ed io ho sempre detto che questo buffer è il buffer delle democrazie, cioè la Cina non ha bisogno di farsi domande sull'etica delle hai perché c'è qualcuno che decide dall'alto. Questi sono i finanziamenti, questi sono i prodotti e questo è l'uso. Fine della discussione. Nelle democrazie liberali ci deve essere anche un momento di dibattito per aggiustare, no, un po' quei tradeoff di cui parlavamo prima. Detto questo, a livello internazionale la regolamentazione dell'intelligenza artificiale ha subito una battuta d'arresto, perché la situazione era un po' questa, c'erano gli Stati Uniti che innovavano e seguivano un approccio molto liberista, se vuoi, per cui la regolamentazione non era proprio centrale. La Cina che un po' segue, un po' imita, un po' fa le sue cose, l'Europa che regolamentava. Alla fine dell'amministrazione Biden, nell'ultimo anno, anche l'America aveva iniziato a regolamentare Biden aveva fatto un executive order sull'intelligenza artificiale perché si era capito che queste grandi tech in realtà hanno anche un grosso potere, c'erano arrivati anche loro che poteva essere molto problematico. In realtà io penso che a un certo punto prima del 2024 era l'anno delle elezioni, no, al 2024 in Italia, in Europa, in America e quindi la regolamentazione delle A dell'intelligenza artificiale in America era anche legata al fatto che il governo Biden stava cercando in qualche modo di di mettere dei paletti a usi che poi sono quelli che inglese chiamiamo misuse, no? c'è cattivo uso. Questo questa dinamica ha subito in America una battuta d'arresto con l'amministrazione Trump e con tutte queste idee, uso un termine un po' desueto scellerate che vanno vanno propagando. In Europa, però teniamo teniamo il timone fermo, anche se ogni tanto qualcuno dice "Ah, ma le Ict ferma l'innovazione è troppo burocratico". Io non sono d'accordo, insomma, cioè ci vuole, ecco, la la governance è uno strumento di guida di questa trasformazione, non è l'unico, ce ne servono altri, poi magari ne parliamo, però perché se non la guidiamo noi la guida il settore privato e il settore privato, per carità, è niente di però il settore privato c'ha interessi commerciali, non protegge la democrazia, non protegge le minoranze, non non è pensato necessariamente per il bene pubblico e non è il suo dovere farlo, insomma. e lo stiamo vedendo, penso, con quello che stanno facendo le big tech negli ultimi mesi. Hai fatto un passaggio, detto non è l'unico, approfondiamolo. Cosa intendi dire con non è l'unico strumento che abbiamo a disposizione? Ma perché l'innovazione è eh o meglio la guida dell'innovazione ha a che fare con la definizione dei suoi limiti, ma anche ha a che fare con l'orientamento delle risorse, per esempio, e con lo sviluppo delle risorse. Quindi servono anche strategie per supportare certi tipi di innovazione. Vogliamo un'innovazione più o meno sostenibile, quindi vogliamo facilitare la costruzione di certi data center o di altri tipi di data center. Vogliamo mantenere il talento in Europa e quindi vogliamo avere dei finanziamenti che trattengano la ricerca in Europa. Ci sono tante decisioni che noi la chiamiamo governance, ma in realtà è proprio politica, no, che la politica può prendere per orientare un tipo di di innovazione, di crescita, di industria, di ricerca e non un'altra. è una scelta anche quella e secondo me, ma cioè non dico niente di originale, in Europa abbiamo fatto tanto lavoro per limitare i rischi e è importante adesso che ci concentriamo anche sulle opportunità perché fino a ora non abbiamo fatto questo tipo di non abbiamo seguito questo tipo di approccio e ci troviamo un po' in in affanno. >> Eh, me l'hai servita sul piatto d'argento perché era la prossima domanda >> e non ci siamo preparati. Era la prossima domanda perché io qua mi sostenato questa cosa, cioè c'ho proprio sul foglio, no? C'ho scritto, "Mi rendo conto che tutto questo sia necessario, ma mi rendo anche conto che la tecnologia e il legislatore vanno a due velocità diverse." Come si fa a non rimanere indietro, ma allo stesso tempo rispettare i valori democratici, quindi a fare tutto questo sapendo che alcune limitazioni servono, eh sapendo che l'Europa deve avere questo ruolo, probabilmente in questo momento, nel quale non c'è nessun altro che lo vuole avere. Come si trova questo bilanciamento, questo equilibrio? un pochino io non penso dobbiamo essere necessariamente i primi. Forse è più importante essere quelli che c'hanno il passo, non è una non è uno sprint, una maratona, no? Quindi non c'è bisogno di essere è il passo che conta e e se arrivare 6 mesi dopo però ci permette di fare in modo che non abbiamo grandissime disruption sociali, che non dobbiamo passare attraverso eh no, shill e Cariddi costantemente, ma possiamo navigare un po' più calmi. Va bene anche quello. Cioè per me la priorità è tenere salda la democrazia. Se la corsa dell'innovazione deve significare scalfire la democrazia anche in aspetti più piccoli e allora va bene anche arrivare secondi. Cioè, non è c'è questa illusione che no, è una è una è una corsa degli armamenti, bisogna arrivare primi, ma è una corsa commerciale, ragazzi, cioè non calmi tutti perché questa questa questa gara la vince chi poi questa innovazione la assorbe bene e la usa strategicamente e questo richiede osservazione, richiede visione e anche un po' di di distanza. Non mi farei tanto prendere in questa dinamica di no Willi il coyote che arriva prima. >> Sì. E tu dici è è una maratona e la narrativa che arriva un po' da oltre oceano, invece dobbiamo essere primi >> perché se lo fanno gli altri gli altri sono i cattivi. Ovviamente tutto quant devono essere devono essere i primi perché la devono vendere, non perché tu che la compri non devi essere il primo, cioè eh la prospettiva cambia, no? Cioè noi non la compriamo questa, non la compriamo, non la produciamo questa tecnologia, quindi chi la chi la vende, certo, ma ma chi la usa c'ha il vantaggio anche di poter reggere il review, insomma, no? di stare un po' più tranquillo. Se poi l'Europa vuole partecipare a questa corsa, eh, ci sta, io penso che dovremmo farlo, ma cioè con un passo sano c'è questa cosa, no? Il vantaggio di del back pedaling, di quello che sta dietro e pedala un po' di meno e e si mette nella scia. Stiamo in questa posizione, mettiamoci in questa scia, ma senza farci venire l'ansia e senza buttare i nostri valori a mare. Cioè è quello che in questo contesto, no, in cui hai un paese si è dichiarato alla parte della democrazia che scopre all'improvviso invece delle derive totalitariste. Dall'altra parte regimi che la democrazia liberale non non han la considero una forma di corruzione morale e siamo noi qua e io lo dico in maniera forse un po' troppo western oriented, ma i bravi della classe siamo noi e quindi non è che possiamo adesso farci distrarre così. Ehm >> come come vedi qual è il ruolo dell'Europa secondo te in questo momento? Cioè in questo scenario dove hai raccontato tu hai detto maratona, valori, no? Sono un po' le parole che mi sto segnando, che mi stanno piacendo un sacco. Eh, che ruolo ha l'Europa? Da dove si parte, secondo te? Ma l'Europa dovrebbe partire da se stessa e anche dimenticare un pochino se stessa adesso, eh, cioè partire da se stessa perché noi abbiamo una lunghissima storia che ci porta poi oggi a parlare di democrazie liberali, ma noi arriviamo dall'Illuminismo, arriviamo dall'idea della dignità delle persone, da canto, no, che ci insegna che ognuno nessuno può essere uno strumento per qualcun altro e c'è un valore intrinseco nella nostra esistenza spinosa. È per questo che no, per noi i diritti umani sono fondamentali. I diritti umani esistono perché al centro c'è questa età della dignità di tutti, uguale per tutti. Noi questo non ce lo possiamo dimenticare e dobbiamo essere dei leader mondiali nel far sì che questi concetti siano percepiti e anche enforced, cioè eh in italiano si dice no, resi obbligatorie, cioè deve essere il diritti umani non possono essere o il diritto umanitario internazionale non può essere violato. Allo stesso tempo bisogna capire che il mondo non è europacentrico e che ci sono delle spinte che arrivano da altri da altre parti del mondo e che quelle spinte vanno accolte, non si possono sempre eh respingere, non si possono sempre considerare con occhio colonialista o postcolonialista, no? Cioè, ci sono altri attori che sono cresciuti e sono importanti. Bisogna capire come gestirli, cioè gestirsi insieme a loro, perché altrimenti si va verso una dinamica che necessariamente dello scontro ora che sia la guerra o che sia >> però bisogna anche iniziare a fare un po' di spazio, secondo me, a a a delle cose un pochino più sofisticate che questa idea dei, no, buoni e cattivi e basta, >> senza dimenticare noi stessi, senza dimenticare Europa. Eh, già in un paio di occasioni hai citato ehm le ICT ehm che è entrato in vigore agosto 2024. Io mi ricordo che quando non quando è andato in vigore, ma quando è stato pubblicato sul sito lo leggevo e alcune cose mi sembravano già superate. Dicevo "Porca miseria sono successe già delle cose da quando l'hanno pubblicato che già mi sembrano vecchie alcune cose che leggo". E dall'agosto 2024 ad oggi che stiamo registrando, siamo a ottobre 2025, in questo momento è successo di tutto perché sono 10 annunci al giorno ormai. Ehm, come lo vedi? Il ruolo degli Iact in questo momento è stato fatto abbastanza? ci sono dei punti sui quali bisogna lavorare di più. >> La cosa che mi piace molto delle IACT è che ha questo in sé questo germe di sandbox e meccanismi di dinamica, no? per cui poi un po' aggiornare la regolamentazione per ridurre questo questo ritardo rispetto alla tecnologia e mi piace molto anche il fatto che loro si siano concentrati sull sull'idea di rischio eh cercando di categorizzare di cogli di mappare questo rischio in una maniera che sia abbastanza flessibile da da ma non troppo granulare, non troppo capillare. Questi due aspetti mi piacciono molto. Io credo che le act però abbia due cose, insomma, poi non sono una giurista. La prima che concettualmente c'è c'è un un inchino a questa idea di super intelligenzaiai generale così che arriva da qualche forma di influenza, ma potevano proprio farne a meno e lì è proprio da dire vabbè adesso cerchiamo di raccogliere tutto quindi nella repotissima e però è un modo di dare voce poi a a a istanze che non sono effettivamente secondo me non dovrebbero essere così centrali e e dall'altro c'è l'aspetto come tutte le le regolamentazioni europee di estrema burocratizzazione, specialmente quando poi le act, poi c'è l'Italian Act, il French Act, no? E quindi incomincia a averci tante tante regole che non sono necessariamente necessarie nella messa a terra. Va detto che, se guardi bene le Ict produce dei doveri per chi produce del software o delle I che sia ad alto rischio per la maggior parte delle aziende europee. Cioè, se scopriamo che l'80% delle aziende europee fa e hai ad alto rischio, ci dobbiamo preoccupare perché qualcosa cioè allora se se tutti sono coinvolti allora c'è qualcosa che è andato storto, non sapevamo della produzione europea di intelligenza artificiale e e quindi no, io penso che sia uno strumento valido, forse un po' di snellimento nell'aspetto burocratico, eh però questo lo dico da filosofo, per quello per me anche una sola forma è tantissima burocrazia, quindi Eh eh sono di parte, però quello forse è il punto dolente, secondo me, che andrebbe un po' visto >> la cosa dei livelli. Vero, pure a me piacque molto eh provare a a trovare, diciamo, stabilire dei livelli di, diciamo, di pericolosità e quindi deferire dei comportamenti diversi. Eh, quello è un aspetto che trovai super interessante e anche il dire in alcuni casi no secco, cioè ci sono dei casi nei quali starò sta tecnologia non la dovete usare. Ehm, >> eh quella cosa dicevamo prima, no? Dei casi limite, quindi non non identifichiamo le persone, non non faremo il social credit scoring che fa che fa la Cina, ma lì è la democrazia che entra che entra in gioco, no? Dice questo si può fare ma non si fa. Eh, e quello è importantissimo. Poi i modelli di rischio ce ne sono tanti, poteva essere più o meno granulare, si potrà evolvere, però secondo me questa cosa è molto importante, no? eh dire questo non lo facciamo. Teniamo conto che prima delle IACT in America c'era stata questa azienda che si chiama Clear Viw AI che poi hanno riutilizzato in Ucraina che non so se te la ricordi ma faceva riconoscimento facciale e loro dicevano beh, possiamo anche identificare omosessuali, eterosessuali dalle che è una cosa aberrante, cioè è la Mark 2. Non lo vogliamo vedere, non lo vogliamo pensare e non lo vogliamo vedere, no? Quindi quel no è importantissimo, è è cruciale, non non cioè penso che lì è una cosa di cui tutti dovremmo essere orgogliosi di vivere in un posto in cui possiamo dire questo, no, grazie, ve lo tenete voi e fatevelo voi oltreo oceano se vi piace. >> Anche alla luce del fatto che spesso per quanto criticate alcune iniziative del generi europee sono state poi un po' da apripista nel resto del mondo, no? Immagino, che ne so, il GDPR, forse è il primo esempio che mi viene in mente che è stato, diciamo, scopiazzato più o meno anche altrove, ha fatto un po' da linea guida in altre nazioni. Sì, >> ma c'è questa cosa, prima si chiamava il si chiama il Brussell effect, no? regolamenti in Europa poi siccome devi è il mercato è un mercato ricco, quindi se sei una grande azienda americana e devi vendere sul mercato europeo devi seguire certe regole, poi a quel punto le segui anche in altri paesi oppure altri legislatori, cioè la California credo che avesse fatto una un GDPR, sì, una regolamentazione simile. Con Trump questa cosa è un po', diciamo, hanno cambiato un po' abitudine, si stavano avviando per una buona strada, adesso secondo me, insomma, si sono un po' persi, però va bene, cioè insomma penso si possa dire questa cosa un po'. L'Europa può fare chi mi ama mi segua. Cioè, noi noi siamo così poi, no? Com'è che diceva Pericle? Noi ad Atene, noi a Bruxelles poi >> che vi sareste mai aspettato in una citazione del genere durante una chiacchierata sull'intelligenza artificiale? E vabbè, >> ecco, quando vi dico no, nella stessa stanza con gli ingegneri ci devono essere i filosofi, intendo dire proprio situazione di questo tipo. Tra l'altro, se vi sta piacendo questa chiacchierata, potrete ascoltare sia Maria Rosaria che me dal vivo il 19 novembre all'evento Orbits. Non è una conferenza, non è una fiera. Immaginate una giornata dedicata a questi temi, ma sul palco si alternano professionisti, si alternano filosofi, si alternano giornalisti e figure di vario tipo per trattare questa rivoluzione che è in corso a 360° nella sua complessità. Una giornata di formazione ma anche di trasformazione. Orbits, 19 novembre, vi lascio il link qui sotto in descrizione. Rimaniamo su Europa idealai. Eh, voglio riprendere un concetto che ti ho sentito utilizzare spesso, feudalismo digitale, lo dico per chi non ha mai sentito questa cosa, eh, acquistiamo servizi AI da grandi aziende tecnologiche, quindi nel tempo rischiamo di perdere sovranità e controllo sui sui sistemi e oggi più che mai siamo dipendenti da queste da da queste realtà, no, che ci offrono queste soluzioni tech. Sappiamo i soliti nomi, diciamo, li li conosciamo bene e così via, controllano i dati, controllano l'accesso, controllano l'esperienza. Ma c'è un'alternativa? >> No, eh il punto è questo, eh, che dobbiamo costruire l'alternativa. Noi al momento e come Europa siamo dipendenti in tutto e per tutto da servizi, infrastrutture, expertise americane. E questo è molto problematico perché quando parliamo di quei settori di cui parlavamo prima, no? quelli ad alto rischio, per esempio, eh significa che il controllo della tecnologia non è pienamente nelle nostre mani. Ti ricorderai in Ucraina a un certo punto e Musk che offre il servizio di satelliti, poi a un certo punto il governo uccano decide di fare un'operazione contro la Russia che l'amministrazione Biden non approva, la prima cosa che fanno è beh, togliamo i satelliti così non avete il supporto. Quella è sovranità. Mh. >> E se parliamo di difesa, allora poi incomincia a essere Paranteer che gestisce tutti i software di Situational Awareness e Target identification. Anche quella è nelle mani statunitensi. Chi controlla i dati dell'Ucraina in guerra? I dati di battaglia sono preziosissimi. Adesso gli Stati Uniti sono un alleato, ma se cambia qualcosa tra 6 mesi o tra 6 anni che dati abbiamo? Oggi la guerra si combatte anche attraverso i social, quindi tutti i dati dei cittadini ucraini possono essere raccolti e gestiti da un'azienda statunitense e quindi nelle mani di una di un governo statunitense. Ma ancora di più se siamo un ospedale, se siamo un'amministrazione pubblica che si occupa che si appoggia su un servizio cloud e e dovesse esserci un mandato di una corte americana per accedere a quelle a quei dati, come facciamo a evitare che questo succeda? E e quindi è è un controllo proprio infrastrutturale. Poi su quello c'è la mancanza di expertise, la mancanza di una competizione europea, per cui c'hai quella cosa che si chiama loin, no? Una volta che sei dentro lì e questo è il fornitore, lì devi stare. È una dipendenza strutturale e sistemica e che non si può smantellare da un giorno all'altro perché i servizi di qualità sono quelli e hanno sia, come si dice, la scalabilità che che la capacità, no? Eh, però bisogna costruire l'alternativa e su quello siamo molto in ritardo, cioè costruire l'altern appunto, no? Non è necessario essere i primi, lo sappiamo come si fa un cloud, non abbiamo bisogno di inventarci niente di nuovo. Ci serve una cosa che sia eh simile in termini di robustezza, di latenza, di sicurezza e e di resilience. Questo dobbiamo farlo. >> E qua mi viene automatica proprio il follow-up come domanda, no? nel dire dobbiamo farlo sapendo che però partiamo con un po' di anni di ritardo. >> Eh sì, però la scelta è è un po' se mi perdoni la si vede che sto in accademia, no? È come quello che deve fare l'esame e e si è messo inizia a studiare tardi. Allora o ti fai prendere dal panico l'esame e non lo fai oppure vai di caffè e prima o poi la spuntiamo, insomma. No, io ho sempre preso tanto caffè e quindi insomma il suggerimento è quello, bisogna farlo, cioè il fatto che siamo ritardi male, molto male, m >> però il digitale noi l'abbiamo concepito come un servizio e invece è un'infrastruttura. È diverso. Quando c'è l'infrastruttura bisogna averci il controllo perché la differenza di avere l'autogrill sull'autostrada o controllare i pilastri dell'autostrada >> e noi dobbiamo controllare l'infrastruttura e su questo bisogna spicciarsi. non non c'è un'alternativa perché sì, abbiamo la GDPR che ci dice che i nostri dati sono dati che devono essere trattati come europei, eh anche quando sono conservati su territorio extraeuropeo. Benissimo, però alla fine dei conti se c'è un mandato di perquisizione perquisizione, se c'è un come si dice un supin italiano, un supine in italiano e un ordine in un tribunale questa cosa cioè lascia un po' il tempo che trova, no? Quindi è è interessante perché storicamente sembra che uno faccia un appello all'autocrazia digitale, no? che che è una parola che uno non vorrebbe mai più sentire almeno. E non è così, però perché va benissimo averci dei competitors, va benissimo poter scegliere, al momento noi non scegliamo. Eh, non >> è questo il punto. >> Sì, forse questa è la è è la grande questione, la grande problematica, nel senso di non averla proprio un'alternativa >> fornitori che sono fornitori dello stesso paese. >> Esatto. Esatto. Esatto. Quindi prima ci muoviamo meglio e cioè prima iniziamo con questi caffè >> un attimo. Iniziamo macchinette su fuoco e via di Moca e cerchiamo di farlo. Eh, questa te la te la chiedo proprio come passaggio perché stiamo registrando a Londra, in questo momento viviamo entrambi in Inghilterra, stiamo parlando di Europa, stiamo parlando di Stati Uniti. In questo scenario il Regno Unito come si piazza dalla tua esperienza? >> Pover, poverini. Eh, no, il Regno Unito è eh io sono in Inghilterra da tantissimi anni e loro sul digitale hanno sempre ehm tenuto un passo molto molto molto svelto, soprattutto per quanto riguardava la policy e la governance. Io ho iniziato a parlare col governo inglese di digitale, go digitale nel 2015, quando in altri paesi in Europa, anche in Italia, no, eh se dicevi digitale pensavano ai videogiochi e quindi c'è una grande espertisia e c'è una grande consapevolezza e e devo dire che c'è stato anche negli anni del governo Toris i civil servant che sono questa la struttura vera del governo inglese, no? sono gli i funzionari e dirigenti ministeriali hanno sempre avuto una grande focus su questa cosa. Io collaboro col Ministero della Difesa e abbiamo iniziato a collaborare nel 2018 e nonostante appunto un governo che ti potessi immaginare spingesse per la deregolamentazione, loro erano invece molto presi su questa cosa. Adesso credo che, insomma, Stalmer ha fatto questa strategia per cui investiranno tantissimo, compreranno tantissimo e e il paese è in una situazione un po' di flessione, quindi tutte le leve che ci permettono di riprenderci da dalle stupidaggini della Brexit, dalla pandemia e dalla guerra, vanno vanno bene e io credo, insomma, che faranno bene. bisogna stare un po' attenti perché in questa foga che c'hanno adesso di di recuperare eh fa un po' specie che sia un governo labour a fare questo, però spesso c'è no un po' una spinta a rendere al lato la regolamentazione. Ne sento parlare molto meno, per esempio, no? tutte le strategie che sono venute fuori negli ultimi mesi. Si parla di investimenti, c'è molta, come dire, molta apertura all'America e e poco invece discorso serio sulle questioni etiche, sulle questioni di governance, >> considerando che questo è un governo guidato da un avvocato specializzato in diritti umani e diritto internazionale. Quindi, insomma, quello mi fa sempre un po' specie. Non vorrei che la pressione economica più che geopolitica ci facesse dimenticare di problemi seri invece che abbiamo iniziato in questo paese ad paesi ad affrontare prima e potrebbe essere invece interessante continuare a a gestire bene. Insomma, >> il fatto che le questioni etiche riedono tempo, no? ci devi ehm come dire ci devi pensare su devi porti le domande e invece viviamo un hype da oltreo. Torniamo un po' a quello che ci dicevamo prima, dove ogni intervista che fanno questi CEO dicono sempre dobbiamo spingere, dobbiamo correre, dobbiamo essere primi, dobbiamo >> fa veloce e così via. >> Ci sono tre cose, guarda. La prima è questa, io dico sempre loro devono correre, ma noi no. Cioè, capiamo anche quali sono i ruoli. Cioè, se tu la vendi Sì. Io invece, non no. E bisogna anche stare attenti a non farsi prendere, a capire il gioco delle parti qual è. Ci sono anche due altri bias, diciamo. Il primo, io lo dico male e mi perdonerai, ma quando entro in una stanza e e dico "Ah, io faccio l'eticista, lavoro sull'etica, il l'e rolling, no? Che è il giramento proprio è a biliardo di meno." E io dico sempre, "Guardate là, io posso essere sia la mamma che ti dice non uscire, non ti truccare, non ti mettere i vestiti corti". Cioè, però sono anche a mamma che ti dice fatti i viaggi, leggiti i libri, vai in palestra, parla con gli amici. Cioè l'etica non è solo quello che non si fa, è anche quello che si può fare bene, si può fare meglio. È anche cercare di coordinare le risorse per strutturare un risultato positivo, cioè in azienda la chiamano la visione, la mission, ma alla fine è dati dei dei valori dei principi e dati questi valori e principi cerchiamo di capire come spingere in questo senso. E allora lì e torniamo al discorso di prima, noi chi vogliamo essere? Lo stupido che si fa mettere la fretta da chi ti deve vendere un prodotto, no? E sei Pinocchio col gatto la volpe oppure capiamo un attimo la metafora e e ci sganciamo e quindi questo è e io penso che sia che sia molto importante, no? E c'è questa cosa qui. L'altro biaspo qui si vede che sono un po' un accademiche oxoniens è che siccome l'etica fa paro con buon senso nel senso comune, no? Quindi è un po' vabbò è bene e male, ma io bene o male mi organizzo, allora non mi serve, non una cosa che posso fare dopo all'ultimo, perché tanto, cioè c'ho una media di 40-50 anni, ma vuoi che io non sappia distinguere bene e male e e quindi questa idea che poi l'etica abbia bisogno di risorse, che sia tempo, che sia persone, che sia formazione, che sia che devi strutturare un gruppo che lavori è difficile da far da far passare e questo è molto frustrante perché poi porta in certi casi anche non necessariamente in maniera cinica a fare questo blue washing, no? Cioè c'abbiamo i principi etici che poi li vai a legge e dice "Vabbè, ma questo proprio cioè c io dico sempre abbiamo fatto i principi etici per le AI nella difesa, anche la NATO ha fatti i suoi. Il primo principio è che le AI, l'uso delle A nella difesa deve essere legale e tu dici "Vabbè, ma mica è un principio? Cioè, allora se dobbiamo dirci anche questo, anche non rubare, lavati le mani. Cioè, no, è lì è perché la riflessione etica è è demandata senza avere il necessario supporto per essere sofisticata come dovrebbe essere, cioè l'etica non è il buon senso. >> E ha detto una frase potentissima, me la sostegnata veramente bella, bella bella quando ha detto non è solo quello che non dobbiamo fare, ma è quello che dobbiamo fare meglio. trovo veramente un passaggio bellissimo, bellissimo. E e lo dico anche per chi magari ascoltando questa chiacchierata, che ne so, è imprenditore, no? E dice "Vabbè, ma io alla fine ste cose perché mi interessano che c'è un'azienda?" Ecco perché ti interessano pure a te che c'è l'azienda. E parlando di cose fatte bene, ehm un episodio che a me ha spiazzato un bel po' è nel rilascio di Grock 4 di Xi. Ehm Elon Musk ha fatto sta cosa, hanno deciso di rilasciare senza pubblicare il report di sicurezza, senza pubblicare le system card, nonostante lui storicamente sia stato uno di quelli che in passato dava sempre questi avvertimenti sui pericoli del degli A. Eh, si è beccato anche un bel po' di reazioni negative anche da altri big tech, quindi diciamo non solo da da diciamo da da eh ricercatori eccetera eccetera, ma anche altri founder, altre persone delle altre aziende hanno l'hanno, diciamo, punzecchiato, cazzitato un bel po' su sta cosa. Secondo me questo episodio, questo precedente, l'ho trovato è estremamente pericoloso, un po' mi fa come dire sollevare la questione della coerenza proprio degli standard di sicurezza in questo settore. Eh, come la valuti tu la l'importanza della trasparenza soprattutto, che forse è qualcosa che dobbiamo iniziare proprio a pretendere da certi player per quanto riguarda questi strumenti? Eh, questa è una bellissima domanda e torniamo al discorso di prima. La necessità di averci delle linee guida, degli standard, cioè trasparenza e tracciabilità sono fondamentali. L'intelligenza artificiale è veramente un po' un paradosso, se vuoi, perché è una tecnologia che stiamo adottando tutti, più o meno. Adesso poi c'è un hype, secondo me, vedremo anche un'inflazione, poi una un'adozione un pochino più consapevole, però la stiamo mettendo tutti nelle nostre case, tutti nelle nostre borse, tutti nei nostri portafogli, però è una tecnologia che ha due aspetti importanti di cui dovremmo preoccuparci. uno non è predicibile al 100%. Quindi, dato un input, se hai un modello che impara online, no, che sia una rete neurale o un large language models, l'output è prevedibile con un intorno di certezza, quindi no, eh il controllo non è proprio al 100%, va benissimo se lo utilizzi per capire il prossimo libro che vuoi leggere. Se stai decidendo il prossimo target in guerra, forse abbiamo un problema. Il secondo è che è una tecnologia da un punto di vista di saber sicurezza, fragilissima. Tutte le tecnologie digitali sono fragili, cioè non esiste un sistema informatico che messo, diciamo, onine, connesso alla rete, non sia prima o poi penetrabile. È solo questione di tempo e di determinazione di chi lo vuole bucare, ma prima o poi ci riesce. Cioè il motivo per cui nel cyber si fa molta più offesa di quanto non si faccia difesa. Ma l'intelligenza artificiale è molto più fragile. È molto più fragile. I c'è GPT abbiamo quando è uscita, no, c'era questa cosa delle prompt injection che adesso però tu gli scrivevi dammi la ricetta del dolce al mango e quella ti diceva cose che non avrebbe mai dovuto dirti. Oppure gli scrivevi da adesso in poi fai qualsiasi cosa e si dimenticava dei dei guard rails, no? delle limitazioni messe dai dai disegnatori, ma non è solo quello. E i sistemi di image recognition, ci sono studi pubblicati che mostrano che basta cambiare un pixel in una foto perché il sistema scambi una tartaruga per un fucile e e via dicendo. Questi attacchi sono problematici perché non solo hanno modalità più facili di esecuzione, ma quello che cambia è che prima tu avevi un attacco informatico che aveva due funzioni, o rubavi i dati o facevi una disruption del sistema per cui il sistema non funzionava più, no? un ransomware, un didos. Adesso tu fai cambiare comportamento al sistema >> e se sei furbo non gli fai cambiare il comportamento da da 0 a 100, ma da 0 a du. E quel margine lì è quello che ti serve per fargli fare la cosa che vorresti tu. Allora, questo è un problema. davanti a questo tipo di fragilità e non avere trasparenza, non avere consapevolezza di quelli che sono i limiti di sicurezza è un gesto irresponsabile. Eh, poi si può discutere che sia fatto per propaganda, per mettersi alla luce, tutte le cospira tiori rispetto a Marca a MASK si possono applicare tutte, però di fatto è un gesto irresponsabile. Cioè, e di nuovo torniamo, no, un po' eh mi metto alla guida di una, cioè, neanche mi metto, uso una scatola nera che non conosco e me la metto in casa. Poi sarà una bomba, un orologio, vedremo. Eh, non va bene, insomma, no? Però il punto è che non ci sono regole per cui uno può dire, "Va bene Max, allora hai fatto questa cosa Mask, adesso multa, eh, non succede niente." E il punto di questo periodo è proprio questo, secondo me, che noi vediamo dal diritto internazionale all'azienda che produce AI molto spesso delle cose irresponsabili e inaccettabili che rispetto alle quali prendiamo atto, >> ma non c'è il passaggio successivo, no? E questo è problematico perché è una lenta erosione. >> Esatto. Ti stavo per dire proprio questo. Non solo sta capitando, ma sta capitando anche con un abbassiamo l'asticella di un pochino ogni volta. Vediamo. Questo me lo lasciano fare. Sì. Allora, la prossima volta ci provo ancora di più. >> Come la rana che vuole muore a un grado alla volta, no? E è un po' così. Cioè io sono preoccupata perché c'è sempre le frizioni, le erosioni sono piccole e costanti, ma sistematiche. E >> e poi dopo un po' ti abitui, cio hai abbassato talmente tanto quella sicella. Siamo già abituati, se tu guardi a 20 anni fa, >> eh, ci siamo già abituati tanto, insomma, Londra è uno dei posti al mondo con più CCTV cameras, sì, >> che è impensabile. Cioè, i nostri genitori ha l'idea di essere osservati così tanto, ma cioè non esiste questa cosa, no? E noi ci abituciamo, il problema è la magia dell'evoluzione è il dramma dell'evoluzione. Noi là dove non ci possiamo adattare ci abituiamo. Sì, >> sì. E a proposito di eh cose a cui ci stiamo abituando, ehm ultimamente sto ponendo particolarmente attenzione al tema dei deep fake, poi l'arrivo di Sora 2, che li ha praticamente eh legalizzati e resi accessibili con un click, è uno di queste cose dove abbiamo ancora di più abbassato l'asticella e ovviamente questo vale in generale un po' per gli strumenti di a in generativa tutte. Adesso non è che parlo solo di di Sora come strumento, però diciamo sempre di più si solleva un po' il il timore di eh campagne di disinformazione sempre più pervasive, eh fake news, eh deep fake iperrealistici. Ehm vediamo qualcuno che prova a mettere i watermark come potenziale soluzione eccetera eccetera, però non è che basta questa, diciamo, mettere un'iconcina du ore dopo che eri uscito Sor già avevano trovato un modo per toglierla. Ehm, e tu hai fatto questo passaggio, ehm, l'efficacia della propaganda non dipende, l'ho beccato in un'intervista, non mi sono segnato qualefficacia della propaganda non dipende tanto dalla fonte, ma dalla predisposizione del pubblico a credere a certe narrazioni. Ho trovato bellissimo. Quali strategie dovremmo adottare, secondo te, per proteggere la società da questo nuovo tipo di campagna di disinformazioni che stanno arrivando, mantenendo però la libertà d'espressione. Eh, >> ma uno potrebbe pensare che vabbè, dobbiamo essere tutti più informati, tutti più critici ed è vero, insomma, però a me non piace tanto buttarla sulla formazione perché fa un po' scaricabile, no? Cioè, alla fine sei tu utente che nella vita tra tante altre cose devi fare, adesso ti devi anche informare, studia, no? Io faccio sempre il paragone, è come quando qui hanno messo le casse automatiche ai supermercati. Adesso io faccio un lavoro in più nella mia giornata perché a fine giornata devo anche farmi il conto al supermercato. Magari no, non è un po' è quello, bisogna stare attenti. Quello che volevo dire nel passaggio che hai che hai citato è che la propaganda attecchisce perché prima abbiamo svilito il rapporto di fiducia nelle istituzioni, cioè non è la propaganda che ce lo che ci fa che ci fa perdere la fiducia. quella fiducia l'abbiamo già persa e quindi il compito delle istituzioni, sì, il watermark, sì le regolamentazioni, sì la formazione degli utenti, facciamo educazione digitale a scuola, come si faceva educazione civica, insieme con educazione civica, ma le istituzioni devono recuperare un senso di devono recuperare la fiducia dei loro cittadini. Cioè lo Stato è stato negli ultimi 20 anni, forse un po' di più, sempre meno istituzione e lo vedi anche dalla propaganda, dalla politica, dal dialogo, dal tono, no? prescindere dai personaggi, c'è stato questo abbassamento della del tono e chissà quale quale ragione che ha fatto sì che poi si perdesse sia il senso dell'istituzione, secondo me anche un po' il senso della fiducia nelle istituzioni. È su questa questo terreno che attecchiscono poi le conspiracy theories e il fake news, cioè il danno è ben prima. Questo è un seme che germoglie su un terreno che è stato maldissodato prima ed è lì che io penso bisogna intervenire. Per questo c'è la predisposizione, perché già tutti siamo pronti a pensare, no, a pensare male. Poi quello ti dà un indizio, ti dà un nudging e tu e tu ci caschi. Una cosa è il senso critico, una cosa è il dubbio, ci mancherebbe, non sto dicendo che dovremmo avere un approccio fideistico verso le istituzioni, però si è persa un po' la linea tra un senso critico, quel senso di accountability, per cui tu le istituzioni vuoi che siano trasparenti, vuoi poter fare delle domande e e vuoi, no, incalzarle in quanto cittadino e un conto è credere alla prima fandonia, per cui no eh >> m >> cioè ti prendi la tachipirina e e poi diventi vengono tre gambe, cioè eh è questa cosa qui. E secondo me è lì che dobbiamo intervenire, cioè il digitale è il sintomo, non è il problema. >> Quindi ancora una volta non è una questione di tecnologia. >> In questo caso io penso di no. Io penso che cioè poi la tecnologia ci ha ci ha aiutato a fare a scendere per questo dirupo, però è è già prima, no? E quando tu inizi a pensare che non so, le solite, no, sono tutti uguali e il potere logoro, eh, va bene se parti da lì poi in logica c'è questa bellissima cosa per cui quando fai un'implicazione, se la premessa è falsa, l'implicazione è sempre vera, perché se parti da una premessa falsa segue tutto >> e noi partiamo dalle premesse false. Ehm, prima in un passaggio hai citato una parolina che a me piace tantissimo e diciamo chi chi sta su questo canale YouTube sa che sono un grande appassionato del mondo dei bias e ovviamente non si può non parlare di intelligenza artificiale senza parlare di bias. Secondo me è una delle cose più importanti. Sappiamo che, diciamo, come tecnologia li porta eh dentro quasi di default, no? sono nei dati, sono negli algoritmi, perché è una tecnologia creata da esseri umani e gli esseri umani >> hanno eh bias. Ehm io ho letto una tua bella intervista proprio sul SEO dell'Università di Oxford ehm dove hai fatto notare il fatto che gli errori e bias però non ci hanno impedito di adottare le AI in settori delicati come la sanità, la giustizia, la difesa. Tu dicevi perché noi come società tolleriamo un certo livello di imperfezione nei sistemi pur di sfruttarne i benefici. E la domanda che che ti faccio quindi è come si trova questo equilibrio? Cioè, quando ci si ferma, qual è quel tasso di errore che siamo disposti ad accettare per dire "Ok, ovviamente come società liberale, no, con tutte le premesse che abbiamo fatto prima, ok, sì, è vero, alcune cose funzionicchiano, sono un po' problematiche, però i vantaggi, no, sono sono tanti da da accettare questo compromesso." Ah, io penso che il compromesso, come dicevo prima, è dinamico, quindi dipende sempre un po' dalle dal contesto e e dalla situazione in cui stai, perché non so, adesso sei in difesa nel contesto della difesa e e non c'è una situazione di crisi, non c'è una situazione di rischio, quindi se non è perfetto non lo uso. dopodomani, purtroppo, arrivano i marziani e ti devi difendere e magari dici "Vabbè, accetterò quel minimo di error". Il punto è proprio quello, è avere una discussione pubblica sull'errore accettabile. Israele su Gaza ha utilizzato due sistemi di target identification sulla popolazione di Gaza che avevano il 10% di falso positivo. Su 37.000 persone targetizzate, 3007 non c'entravano niente, che è tantissimo, >> però non abbiamo uno standard, non abbiamo avuto una discussione fino ad oggi per dire "Va bene, ma noi quanto ne accettiamo? Qual è? È 10, è 5, è 1 e 0 e quali sono i criteri che ci fanno muovere il cursore da 0 a 1 a 5 a 10?" E lì è il punto è avere questa questo dibattito. È un dibattito che però non si può fare in maniera polarizzata, non ha non giova delle ideologizzazione. È un dibattito in cui i diritti e i principi devono essere messi sul tavolo con un approccio, non voglio dire pragmatico, che sembra sfilente, ma costruttivo, >> perché altrimenti la tentazione è la tendenza è polarizzarsi. Quindi io dico sì, tu dici no e rimane un bellissimo vuoto di cui tutti gli altri poi approfittano, invece noi quel vuoto dobbiamo dobbiamo colmarlo. Quindi c'è questo elemento qui e c'è un'altra cosa anche da considerare che noi rispetto ai bias e agli errori partiamo con l'idea che non ci dovrebbero essere o non ci devono essere mai. Ma chi di noi m >> no? Non è possibile. >> Quello che serve è una modo per un monitoraggio in itinere e la capacità di intervenire quando quell'errore succede con un rimedio. Cioè, non dico che la gestione, cioè non è che non ci debbano essere, non ci devono essere, ma quando ci sono dobbiamo essere pronti. L'idea che una macchina non faccia mai errori, una macchina così complessa che lavora con così tanti dati, ma è trivial, non esiste. Quindi il punto è sì, correggiamo i bias, ma cerchiamo anche di creare un processo di audit. Per esempio, le IA act, no, richiede questa cosa qui, una certificazione che rimandia la conformità. un audit dei processi, un audit dell'implementazione, quando c'è un errore l'abbiamo trovato, come interveniamo, come ripaghiamo chi ha subito le conseguenze di quell'errore e l'approccio è molto più sistemico e questo per tornare al discorso di prima, davanti a questo tipo di problemi, quando arriva quello che ti dice "Ah, ma poi diventa super intelligente e consapevole". Io mi arrabbio moltissimo perché affrontare questi problemi richiede tantissimo impegno e tantissimo sforzo e c'hai uno che fa come le chiavi col bambino che ti distrae, ti toglie energia, tempo e e orienta il dibattito in una direzione che non ha senso. >> La la parola che sta tornando più spesso nelle tue risposte è discussione, dibattito, ne dobbiamo parlare. Sta cosa è bellissima proprio. Stai sottolineando il fatto che in alcuni casi non c'è proprio questo dibatto. Non l'abbiamo ancora fatto. Chi lo dovrebbe fare? dove, quando, che cos'è questo dibattito concretamente? >> Allora, io penso che questa cosa un po' sia avvenuta negli ultimi anni. Abbiamo capito che il digitale è anche un affare di politica, quindi la politica si dovrebbe occupare del digitale nel migliore dei mondi possibili e quindi senza, diciamo, crearci creare ulteriori problemi. Però è una discussione politica perché ha a che fare con l'economia, ha a che fare coi diritti, ha a che fare con le strategie di sviluppo di un paese. È imprescindibile in questo senso. Però io penso anche che è un argomento di discussione della società civile. Nel nella mia visione naiv la società civile discute così, orienta un po' la politica. Poi vabbè, insomma, questo perché vivo in una bolla, però e è un dibattito della società civile perché è un dibattito che riguarda i nostri diritti e le nostre opportunità e e non è una è una cosa che noi abbiamo demandato molto a chi questi servizi li ha prodotti e ce li ha offerti e adesso così siamo un po' scettici, ma comunque continuiamo a essere dipendenti, no? Eh, però invece è una cosa che riguarda tutti, ma ma seriamente, cioè se tu guardi l'Italia, adesso non ho i dati dell'ultimo rapporto DESI, ma qualche anno fa il divario digitale tra Nord e Sud era eh una linea una linea netta che significava è tra uomini e donne, tra giovani e anziani. Se tu sei una donna middle age che vive a Bari e vuoi fare un'azienda che abbia degli aspetti digitali è un problema. Il primo problema è che non è la latenza, tecnicamente parlando, non c'è l'infrastruttura, poi ti devi formare, poi è tutto molto più problematico. Allora il digitale vedi che diventa una questione sociale senza voler tirare in in ballo i bias e no dalla gestione dei mutui. E lì allora la società civile dovrebbe essere un argomento di cui ci occupiamo seriamente, cioè perché riguarda noi. >> Moi vabbè, insomma. Sì, io sono, come dire, ehm, ottimista di natura, quindi mi rivedo in questa cosa e so che magari qualcuno che ascolta potrebbe scambiare questo ottimismo quasi per, appunto, essere naive in in alcuni momenti, però voglio, come dire, voglio voglio voglio crederci anch'io. Ehm, senti, te la faccio questa, te la faccio in chiusura. Ehm, tu incarni un profilo interdisciplinare molto particolare e eh io sono mega fan proprio del concetto di diciamo dei profili interdisciplinari. filosofa di formazione, operi in contesti tecnologici avanzati e ti trovi a volte anche in tavoli politici. Quanto è importante nei progetti di intelligenza artificiale eh a tutti i livelli, quindi dalle aziende ai governi e così via, che siano coinvolti esperti di etica, filosofia, diritto e non ci segono solo gli ingegneri e i programmatori in quelle stanze. Adesso devo dire per forza tanto perché c'ho un conflitto di interessi come questo palazzo, però a parte il conflitto di interessi e è importante perché per due ragioni. Uno perché se non ci se non c'è qualcuno che guarda le ricadute sociali allora non sta gli ingegneri non stanno credendo nel loro progetto. Perché se tu sei un ingegnere che progetta del digitale adesso che non è dire che il digitale è un impatto sociale è un'ovvietà, non è neanche più una cosa di rompente da dire lo era 20 anni fa, allora forse non stai credendo nel tuo progetto perché non ti stai immaginando che questa cosa cambierà la realtà. Quindi è già un bel red flag se non c'è nessuno che che il secondo è perché adesso io ho frequentato abbastanza ingegneri per dire che gli ingegneri vorrebbero controllare un po' tutto quello che succede il loro prodotto, no? E quindi non voler controllare l'impatto sulla società mi sembrerebbe mio per e però io penso che sia anche importante proprio perché noi viviamo in un periodo che ha la fortuna di trasformare se stesso, no? Cioè quello il mondo che era 20 anni fa non è più e tra 20 anni sarà un'altra cosa. Questa trasformazione non è solo tecnologica, è anche dei valori che che noi vogliamo perpetrare e anche della direzione in cui vogliamo andare e bisogna essere consapevoli di questo. Bisogna essere consapevoli che i valori però non sono tutti vanno modulati, no? è un po' come la console di un DJ, non è che puoi mettere tutti i cursori al massimo, al minimo. E questa modulazione, come dicevamo prima, richiede un'espertise e l'etica non si fa eh dalla sera alla mattina, non è per fortuna e purtroppo richiede una riflessione, un'espertise che si accuna negli anni che non che non si inventa e quindi è importante che ci siano degli esperti. Devo dire io ho insegnato a Oxford il primo corso di Computers in Society, poi da lì l'hanno ripreso anche altre università. E la prima settimana i ragazzi, l'ho insegnato in un dipartimento di scienze informatiche di Computer Science, la prima settimana i ragazzi vengono pensando vabbè questo è il corso più facile, adesso ho c'ho Python, c'ho insomma benissimo. >> E dopo in ne vengono otto, poi alla fine del corso ce li hai tutti 56 perché capiscono invece che è una cosa importante e si impegnano tantissimo. Quindi in realtà secondo me appunto quei pochi ingegneri che ancora non pensano a questa cosa è perché non non ci si sono avvicinati abbastanza. Ma poi nessun ingegnere ti dice "No, questa cosa non serve". Insomma, non più. >> E nella tua esperienza, quanto so aperte le istituzioni, ma anche le organizzazioni a questo che mi hai appena raccontato? >> Cambia ed è cambiato nel tempo. Siamo passati da un'assoluta indifferenza prima di Cambridge Analitica. Cambridge Analitica che ha dato una sveglia a tutti e purtroppo è così, cioè purtroppo è è c'è sempre un disastro prima della della consapevolezza. E e poi c'è stato un momento di, come dire, di sfruttamento cinico, cioè quando ancora non c'era la regolamentazione, molte aziende aziende pensavano vabbè facciamo l'etica così il regolatore vede che c'abbiamo un set di principi, più o meno facciamo delle cose e quindi non ci vengono a regolamentare e quello è molto noioso da scusa noioso no fastidioso da da vedere, no? Quindi c'è un po' di quello, eh, però man mano che sali nel, diciamo, nel in termini di impatto di cioè di di aziende o di istituzioni che usano questa tecnologia ad alto impatto e man mano che passa il tempo trovi invece un interesse, non dico sempre, non dico dovunque, però un po' più serio, un po' più geno, cioè le domande sono tanto, vedi che la domanda è seria quando poi l'obiezione non è un'obiezione di principio, ma è un'obiezione pragmatica. Cioè tu ci gli parli, dici questi sono i principi, questa è l'abordo e poi dicono e vabbè, però noi non abbiamo €200.000 per pagare gli esperti per la bordo, come facciamo? Allora, quella domanda però mi fa capire che >> che si sta facendo qualc sta >> ingaggiando, cioè che non non mi stai più dicendo "Ah, ma l'etica no, cioè stai pensando a come fare, hai capito che ci vuole un budget e quel budget non ce l'hai." Va bene, allora lì è un altro discorso, possiamo ragionare sul budget. Ecco, gli eticisti non si pagano €200.000, purtroppo, però per dire e e quindi è quello e è un mix. L'ultima volta sono stata a un convegno in Italia su le hai e la difesa. Un uomo sessantenne mi ha guardato dopo che io avevo parlato dei principi che la NATO, l'Inghilterra, gli Stati Uniti, la Francia stava facendo e e lui mi ha guardato e mi ha detto "Eh, ma la guerra è una cosa brutta e cattiva, come dire lei, signorina, vada a fare la calzetta a casa perché la guerra la facciamo noi uomini e ci sporchiamo di sangue e fango, no?" E delle volte ti scontri con un imbecile così e pazienza, insomma. Però son sempre meno. Sì, sì, sì. >> O quantomeno stanno zitti di più, quindi mi mi piace concludere con questa eh nota di ottimismo anche sul fatto che istituzioni e organizzazioni si stanno aprendo sempre di più a questo tema. Eh, Maria Rosario, io ti ringrazio, è stata una chiacchierata meravigliosa l'aver fatto durare delle ore e proverò a strappartene una seconda puntata in in futuro. Grazie mille delle disponibilità e soprattutto degli spunti di riflessione che ci ha dato in questa chiacchierata. Grazie mille. >> Grazie a te. Grazie. Se vi è piaciuta questa chiacchierata, vi ricordo che potete ascoltare sia me che Maria Rosaria, l'ospite che è stata con me oggi dal vivo a Milano il 19 novembre all'evento Orbits, il link è qui sotto in descrizione. Una giornata particolare perché non è una conferenza sull'intelligenza artificiale, nemmeno una fiera. Immaginate un momento dove sul palco si alterneranno professionisti, manager, filosofi, figure di vario tipo. per affrontare queste tematiche che abbiamo affrontate oggi a 360°. Una giornata un po' diversa dal solito, momento di formazione, ma anche di trasformazione. Un'occasione per unire pensiero critico e visione strategica. Sapete che queste cose, secondo me, vanno sempre insieme. Tutti i dettagli vi lascio il link qui sotto in descrizione. Vi aspetto al Milano il 19 novembre. Yeah.

Rigenera Contenuti

Rielabora i contenuti con Gemini

Nota: La rigenerazione richiederà alcuni secondi e sovrascriverà i contenuti esistenti.