Giudici robot: sentenze errate e divieto del CSM
Metadati
- URL Sorgente
- https://youtu.be/QuOvEMA4PjE?si=2RrPNGJKriws1xzj
- Hash
- e08e4426dd1c18d8...
- Data Pubblicazione
- 20251024
- Lingua
- it
- Ultimo Aggiornamento
- 2025-10-26 08:02
Sintesi Breve
Riassunto generato da Gemini (max 200 parole)
L'uso di intelligenza artificiale (IA) come ChatGPT nei tribunali italiani ha portato a sentenze basate su leggi inesistenti e ricorsi con argomentazioni prive di senso. Il Consiglio Superiore della Magistratura (CSM) è intervenuto vietando ai magistrati l'uso di IA generativa per redigere sentenze, a seguito di casi concreti di "allucinazioni" dell'IA che hanno compromesso decisioni legali. Anche alcuni avvocati hanno avuto problemi simili, presentando ricorsi scritti con IA giudicati inconsistenti. Il CSM si basa su normative europee e italiane che vietano decisioni basate unicamente su trattamenti automatizzati, sottolineando che la responsabilità ultima rimane del giudice. Mentre l'IA può essere uno strumento utile, il rischio è la delega eccessiva e l'affidamento a "scatole nere" opache, compromettendo la trasparenza e l'equità. Si evidenzia la necessità di una supervisione umana costante e di una cultura digitale diffusa per un uso consapevole e responsabile dell'IA nella giustizia, garantendo che la tecnologia serva l'uomo e non viceversa.
Trascrizione Estesa
Testo rielaborato e formattato da Gemini
Un giudice scrive una sentenza, ma le leggi che cita non esistono. Un avvocato presenta un ricorso, ma le argomentazioni sono un insieme di concetti senza senso. Sembra la trama di un film distopico o comico, e invece è ciò che sta succedendo nei tribunali italiani a causa dei chatbot, come ChatGPT. La questione è così rilevante che il Consiglio Superiore della Magistratura (CSM) è intervenuto d'urgenza per fermare quella che definisce una "deriva", mettendo di fatto fuori legge l'utilizzo dell'intelligenza artificiale (IA) per decidere sulla vita reale delle persone. I magistrati non possono utilizzare l'IA. Questa decisione apre un ampio dibattito, anche perché gli avvocati possono farlo, un dibattito sul futuro della giustizia. Partiamo dai fatti. Il CSM, con le sue raccomandazioni sull'uso dell'IA nell'amministrazione della giustizia, ha messo nero su bianco una regola già sancita dalle normative europee e dalla legge italiana di ratifica (la 132 del 2025) dello IACT: stop all'uso di IA generative come ChatGPT per scrivere le sentenze. Questa decisione non nasce da una paura astratta, ma da fatti concreti e preoccupanti. La miccia è stata accesa da almeno due procedimenti in cui i giudici hanno utilizzato l'IA per redigere gli atti, finendo per citare precedenti legali inesistenti, le cosiddette "allucinazioni" dell'IA. Il problema non è tanto la citazione in sé, ma il fatto di basare decisioni su elementi che non esistono. Le allucinazioni smettono di essere un errore di forma e diventano la base di decisioni che impattano sulla vita delle persone. Anche gli avvocati sono incappati in problemi simili. In un caso eclatante, sono stati condannati per lite temeraria dopo aver presentato ricorsi scritti con ChatGPT, definiti dai tribunali come "citazioni astratte e inconferenti", un copia-incolla fatto male. La stretta del CSM si inserisce in un quadro normativo già definito. Sia le normative europee che la legge italiana considerano l'uso della tecnologia nella giustizia ad alto rischio e vietano decisioni basate unicamente su trattamenti automatizzati. Il CSM ha semplicemente applicato questo principio alla scrittura degli atti. Siamo di fronte a un bivio tecnologico: l'IA può essere uno strumento utile per l'efficienza, ma anche un pericolo per l'equità del giudizio. L'impatto dell'IA nei tribunali chiama in causa due mondi spesso opposti: la magistratura e l'avvocatura. Cesare Parodi, magistrato con una lunga esperienza nella Procura di Torino e ora a capo della Procura di Alessandria, afferma che la decisione del CSM è un freno di emergenza e un passo verso una regolamentazione consapevole. Secondo Parodi, l'IA impone un'analisi del rapporto tra le persone e la tecnologia. Magistrati e avvocati, sotto pressione e con carichi di lavoro elevati, potrebbero essere tentati di sfruttare la rapidità e l'apparente efficacia dell'IA. Il CSM, con il suo provvedimento, lancia un monito chiaro: l'utilizzo di programmi non validati per la funzione giudiziaria non è consentito. Il provvedimento è un avvertimento sui rischi e sulle responsabilità che derivano dall'uso dell'IA. Giuseppe Baciago, avvocato esperto in diritto delle nuove tecnologie e coordinatore del tavolo sull'IA dell'Ordine degli avvocati di Milano, sottolinea che la posizione dell'avvocatura è diversa. Non c'è un divieto categorico all'uso di IA generativa, ma una possibilità di utilizzo secondo determinate condizioni, come il rispetto della privacy, del copyright e della confidenzialità. Baciago ritiene che la distinzione tra magistrati e avvocati in termini di rischio sia discutibile, poiché anche un avvocato decide della vita di una persona. Baciago esprime preoccupazione per l'appiattimento che si sta avendo con l'utilizzo dell'IA, che potrebbe ridurre le capacità professionali. L'IA generativa ha un potenziale incredibile, ma un utilizzo non consapevole e non competente può essere dannoso. È necessario sperimentare, imparare e utilizzare l'IA in modo maturo, senza delegare eccessivamente compiti e responsabilità. Il problema non è la tecnologia in sé, ma il corto circuito tra la sua apparente autorevolezza e la sua reale inaffidabilità. Le raccomandazioni del CSM affermano un principio fondamentale: si può delegare tutto, ma non la responsabilità. Chi firma la sentenza è l'unico autore responsabile, come sancito dalla Costituzione. Viene a galla il problema della "scatola nera". Un giudice deve motivare ogni singola parola di una sentenza, ma come può farlo se si basa su un output generato da un algoritmo opaco? Si parla di "automation bias", la tendenza a delegare il pensiero critico a una macchina, adagiandosi sulle sue raccomandazioni. Le raccomandazioni del CSM affermano un principio fondamentale: si può delegare tutto, tranne la responsabilità. Non si può addossare la colpa a ChatGPT, come evidenziato nel libro "Armi di distruzione matematica". Chi firma la sentenza è l'unico responsabile, come sancito dalla Costituzione, demolendo ogni alibi tecnologico. Emerge il problema della "scatola nera" dell'intelligenza artificiale. Un giudice deve motivare ogni parola di una sentenza. Come può farlo basandosi su un output generato da un algoritmo opaco, con un processo decisionale incomprensibile anche per i suoi creatori? Ciò va contro il principio di una giustizia trasparente. Si scontra l'efficienza con l'umanità, almeno in Italia. In Cina, l'intelligenza artificiale è usata per limitare il potere discrezionale dei giudici, un'idea agghiacciante che riduce la giustizia a un sillogismo matematico, valido in alcuni ambiti, ma non in tutti. Nella nostra tradizione giuridica, il giudice non è spietato perché è umano, una dimensione che all'IA manca. La richiesta del CSM di un addestramento senza bias è utopica. Ogni modello eredita i pregiudizi presenti nei dati e nella prassi. La sfida non è creare un'IA neutrale, forse un mito, ma un sistema di supervisione umana in grado di identificare e correggere i suoi inevitabili errori, allucinazioni e bias. Le raccomandazioni del CSM non sono un rifiuto della tecnologia, ma un primo passo fondamentale di tech policy nella giustizia. Invece di subire le innovazioni, si dettano condizioni: l'IA si usa solo se è trasparente, verificabile e sotto costante supervisione umana. Se non è possibile, non si usa. Si sta delineando un modello in linea con quello europeo nei settori critici, in contrasto con quello cinese e americano, che punta all'aumento delle capacità umane in un perimetro di garanzie costituzionali. La tecnologia deve servire l'uomo, non il contrario. La sfida si sposta: non è più "se" usare l'IA, ma "come" e "quale" usare, come costruirla e regolarla per renderla un alleato affidabile. Le richieste del CSM, pur fantascientifiche per alcuni modelli, sono un capitolato tecnico ed etico per l'industria: trasparenza, tracciabilità e supervisione. Emerge un disperato bisogno di cultura digitale a tutti i livelli. Dobbiamo imparare a usare questi strumenti con consapevolezza critica, comprendendone i limiti prima delle potenzialità. Se il limite è inventare sentenze, non si può usare l'IA. Questo vale per giudici, avvocati, chirurghi, e chiunque altro. Vi fidereste di una sentenza scritta da un'intelligenza artificiale?
Tag
Tag associati al documento
Cartelle
Cartelle in cui è catalogato il documento
Testo Estratto (Cache)
Testo grezzo estratto dalla sorgente
Un giudice scrive una sentenza, ma le leggi che cita, o meglio le leggi su cui si basa per la sentenza non esistono. Un avvocato presenta un ricorso, ma le argomentazioni sono un fritto misto di concetti senza senso. Sembra la trama di un film distopico o comico e invece è quello che sta succedendo nei tribunali italiani grazie ai chatbot, a Chat GPT. Talmente importante questa cosa che il Consiglio Superiore della Magistratura è dovuto intervenire d'urgenza per fermare quella che a loro dire è una deriva, mettendo di fatto fuori legge l'utilizzo dell'intelligenza artificiale per decidere sulla vita reale delle persone. I magistrati non possono utilizzare l'intelligenza artificiale. una decisione che apre un dibattito enorme, anche perché ad esempio gli avvocati lo possono utilizzare, un dibattito enorme sul futuro della giustizia di cui oggi volevo parlarvi con due importanti ospiti. Io sono Matteo Flora e questo beh, questo è ciao ciao internet. Partiamo dai fatti. Eh, vi lascio anche un bell articolo dell amico eh Fulvio Sarzani di Sant'ipolito. Ciao Fulvio che ne parla. Allora, il Consiglio Superiore della Magistratura, con le sue raccomandazioni sull'uso dell'intelligenza artificiale nell'amministrazione della giustizia, ha messo nero su bianco una regola che in realtà era già sancita dalle YT e da quella che dovremmo imparare a chiamare la 132 del 2025 che in realtà è la ratifica italiana della IACT. Ok? E la regola è stop all'uso delle intelligenze artificiali generative come chat GPT per scrivere le sentenze. Una decisione che non è che nasce da una paura astratta, ma da una serie di fatti sfortunatamente concreti e molto preoccupanti. Partiamo dalla miccia. La mici è stata accesa da almeno due procedimenti di cui conosciamo il fatto che sono stati emanati a carico di due giudici che a quanto pare hanno usato l'intelligenza artificiale per redigere gli atti. Il problema è che son finiti per citare tutta una serie di precedenti legali completamente inesistenti, le cosiddette allucinazioni dell'intelligenza artificiale che sono passate dalla teoria alla pratica. E qui il problema non è tanto la citazione in sé. Vediamo se riesco a farmi capire perché un conto è quando io faccio un ragionamento, dopodiché ho pensato al ragionamento, a supporto di questa cosa, provo a cercare quella roba che mi ricordo e sbaglia e magari mi dà un titolo inconsistente, qualcosa che non è stato scritto. Un conto completamente diverso è quando baso le mie decisioni su delle cose che non esistono. Quindi le allucinazioni smettono di diventare un piccolo errore di forma e diventano la parte fondamentale con cui io concretizzo una decisione che impatta sugli umani e non sui giudici. Eh, prima di loro c'erano incappati proprio mani e piedi anche gli avvocati. è un un caso eclatante in cui addirittura sono stati condannati per lite temeraria dopo aver presentato dei ricorsi scritti in modalità cinofallica da Chat CPT, definiti dai tribunali con citazioni astratte e inconferenti, in altre parole, un copia incolla saltando di palo in frasca, ma male. Ora questa stretta del Consiglio Superiore della Magistratura si inserisce in un quadro normativo che è già definito. Sia lei acte sia la legge italiana considerano l'uso di tecnologia nella giustizia ad alto rischio e vietano già adesso delle decisioni basate unicamente su trattamenti automatizzati. Quindi il CSM di fatto non ha fatto nient'altro che applicare questo principio alla scrittura degli atti. Però siamo di fronte a un bivio tecnologico perché l'intelligenza artificiale può essere e sicuramente lo è, uno strumento estremamente utile per l'efficienza e un pericolo mortale per l'equità del giudizio. Quindi bisogna un po' decidere come usarla e dove. E l'impatto delle intelligenze artificiali nei tribunali è un problema che va oltre la società civile e chiama in causa dentro direttamente due mondi che spesso si trovano opposti nelle barricate, ma che oggi condividono in questo caso la stessa sfida tecnologica, la magistratura e l'avvocatura. E quindi per capire come stanno reagendo ne parliamo proprio con due protagonisti di questa rivoluzione. Il primo mio ospite a cui ho chiesto un parere e sono contentissimo di averlo con noi è Cesare Parodi. Eh, se non lo conoscete Cesare Parodi è un magistrato in carriera, è entrato in magistratura nel 90 e ha maturato una lunghissima esperienza nella Procura di Torino. Ora è a capo della Procura di Alessandria. al febbraio del 2025 presidente dell'Associazione Nazionale dei Magistrati, non proprio l'ultimo, quindi abbiamo chiamato, è autore di tantissimi contributi in tema di diritto penale, di procedura penale e molto più recentemente delle interazione tra il diritto penale nelle nuove tecnologie, ecco, proprio con un volume eh che si intitola Intelligenza artificiale e indagini penali eh coautore con Tagna Rizzo che è in uscita adesso ad ottobre ed è una delle figure chiave che prova a traghettare la giustizia italiana nel futuro digitale. Gli ho fatto una domanda specifica, nel senso gli ho chiesto "Ma la decisione è un freno di emergenza o il passo verso una regolamentazione consapeva?" Cioè, nel senso, ci sono delle cose utili, cosa sta succedendo? Cosa dobbiamo aspettarci dal punto di vista della magistratura e dell'intelligenza artificiale? Vi lascio la sua risposta. >> Sì, grazie. Preciso solo che Alessandria ci vado il 6 novembre, sono ancora a Torino dopo 35 anni di permanenza a Torino in cui mi sono occupato per 30 anni proprio di indagini informatiche e reati informatici e questo poi il motivo per cui è venuto naturale in qualche modo interessarsi dell'intelligenza artificiale. Ma io credo che sia, al di là di tutto un campo di straordinario interesse, ben al di là di quelle che sono le implicazioni tecniche, scientifiche, organizzative del settore, perché in qualche modo ci impone un'analisi anche del delle persone, del rapporto che le persone hanno con la tecnologia. Guardate, la spiegazione più semplice di tutte l'aveva data un po' di anni fa un signore che si chiamava Oscar Wild, se non ricordo male, ecco, che diceva "Posso resistere a qualsiasi cosa tranne che alle tentazioni". Questo è la chiave, diciamo, di lettura dell'attuale momento. Provate a pensare ai magistrati sotto pressione che magari hanno, come accade in moltissimi casi, meno tempo da dedicare al carico di lavoro. agli avvocati che anche loro hanno probabilmente dei dei problemi di organizzare il lavoro, trovano a disposizione uno strumento che apparentemente è in grado di velocizzare il lavoro, non facciamo un discorso di qualità e quindi in quest'epoca, diciamo, di transizione fra un mondo privo di intelligenza artificiale, è un mondo dove l'intelligenza artificiale avrà poi un ruolo predominante, alcuni colleghi, alcuni avvocati probabilmente hanno pensato, io credo anche in buona fede di eh voler sfruttare la rapidità e l'apparente efficacia dell'intelligenza artificiale, perché eh era quasi una scelta necessitata. Come rimango indietro in qualche modo? Il CSM io invece credo abbia predisposto un elaborato che non è lunghissimo, ma è ricco di contenuti e che a me piace soprattutto per un motivo, è impregnato di sano realismo, cioè prende atto di quella che è la situazione attuale, del fatto che il problema non è un problema futuribile, ma che esiste ed è ben concreto, del fatto che bisogna risolverlo proprio perché questi programmi, chiamiamoli generalisti, che sono comunque programmi ad alto rischio ed è la formula che utilizza utilizza le per definirli che il legislatore italiano ovviamente non può che recepire. Se usati direttamente nella per la funzione giudiziaria non possono essere assolutamente accettabili. Qual è il punto? che eh il provvedimento del CSM da un lato è un monito, nel senso che avverti in maniera molto chiara, guardate che l'utilizzo di questi programmi eh in questa fase storica che non sono stati minimamente validati in relazione a quella che è la funzionalità specifica, non è consentita. Eh, poi si parla già anche del futuro, della possibilità e guardate, molto molto complessa di sviluppare dei programmi con funzionalità analoghe, diciamo, nativi del mondo giudiziario e quindi in qualche modo che possa dare delle garanzie, ma questo attualmente non è possibile e allora bisogna fare in modo di regolamentare, di avvisare tutti coloro che si avvicinano a questo mondo dei rischi che corrono e delle responsabilità soprattutto nelle quali possono incorrere. Eh sì, la responsabilità è un è la parte fondamentale, cioè fai quello che vuoi, tira anche una monetina, ricordati che hai responsabilità, però c'è l'altra parte, quella degli avvocati che tra l'altro con una deformazione assolutamente strana dal mio punto di vista i magistrati non possono usare l'intelligenza artificiale, ma gli avvocati sì. L'ho chiesto al socio Giuseppe Baciago. E Baciago, lo conoscete, abbiamo qua una rubrica che si chiama Compliance. è un avvocato esperto in diritto delle nuove tecnologie ed è coordinatore proprio del tavolo sull'intelligenza artificiale dell'Ordine degli avvocati di Milano e vive più o meno ogni giorno l'impatto con gli strumenti sulla professione strumenti di ovviamente sulla professione legale e e anche a lui ho detto Giuseppe la vostra la vostra categoria è toccata da vicino e ci sono anche tutta una serie di ricorsi allucinati o allucinanti, cioè con le allucinazioni. Come sta reagendo l'avvocatura a questa ondata in realtà di di innovazione? Innovazione nuova, speciale e quali sono i rischi, le opportunità che ci sono all'orizzonte? Mi ha risposto così. La posizione dell'avvocatura invece è un po' diversa, Matteo, cioè ehm non c'è una raccomandazione che vieta in maniera abbastanza categorica l'utilizzo di GPT o comunque l'utilizzo di intelligenza artificiale generativa, ma eh anzi c'è una possibilità di utilizzo secondo determinate condizioni. Per esempio, l'ordine degli avvocati di Milano nella carta dei principi, ha previsto il rispetto della normativa sulla privacy, del copyright e e anche poi soprattutto della confidenzialità, quindi ci sono delle dei valori, dei principi che devono essere rispettati e anche delle leggi. Del resto l'ICT è in vigore anche per gli avvocati ovviamente, ma i magistrati anche in questa normativa vengono giudicati ad alto rischio, mentre invece gli avvocati no. Io non sono convinto che questo sia corretto perché facciamo parte dello stesso sistema. È vero che un magistrato, un giudice decide della vita di una persona, ma anche un avvocato decide della vita di una persona. Quindi, con unestà intellettuale che gli avvocati dovrebbero avere, soprattutto in un contesto in cui, appunto, dialogo con un magistrato, eh mi viene da dire forse dobbiamo fare una riflessione a livello più ampio per parificare la posizione. Però io voglio aggiungere un altro aspetto. Forse è troppo severa dall'altro lato una visione così transchan da parte della magistratura, perché io non sono contrario a un utilizzo a priori. è vero, come dice il dottor Parodi, possiamo contare ad un utilizzo, diciamo, non ancora sperimentato, in una situazione ancora embrionale, dove alle volte ci sono degli utilizzi improbabili come quelli che abbiamo visto nei casi che hai citato all'inizio. Forse però ancora di più a me preoccupa l'appiattimento che noi stiamo avendo con l'utilizzo dell'intelligenza artificiale, partendo dal presupposto che secondo me la generativa è una intelligenza artificiale che darà dei risultati incredibili nei nei prossimi anni, quindi io sono convinto che ci saranno tanti cambiamenti. Sono altrettanto convinto che oggi un utilizzo non consapevole, non competente dell'intelligenza artificiale riduca le nostre capacità professionali. Noi abbiamo e dobbiamo esercitare un diritto fondamentale, quello di difendere i cittadini e i cittadini vanno difesi al meglio delle capacità dell'essere umano e l'essere umano alle volte introduce concetti, idee, intuizioni che ad oggi l'intelligenza artificiale non è in grado di avere, anche se ha tante altre qualità. Per esempio, sotto il profilo dell'automazione può essere estremamente efficace. Ma qua stiamo parlando di una cosa diversa. Qua stiamo parlando del fatto che quando io vado a scrivere un atto e dedic delegoo l'intelligenza artificiale ad una parte preponderante di quell'atto, perché magari non sono così scriteriato da pensare che me lo possa scrivere interamente, ma anche quella parte se non viene riletta e anche quando viene riletta noi ci adagiamo, torniamo a Oscar Wild, è una tentazione troppo grossa quella di risolvere parte del nostro lavoro. Quindi sì, concentriamoci sui casi limite perché sono quelli di scuola che ci servono per preoccuparci, però interroghiamoci tutti, non soltanto noi avvocati o magistrati, se un utilizzo troppo, diciamo, piatto, senza la capacità di saper usare al meglio lo strumento sia oggi la scelta migliore che possiamo fare o invece non sia meglio attendere un pochino, sperimentare, imparare e poi dopo magari utilizzarlo in un secondo momento, ma con una visione un po' un pochino più matura. Ecco, questa è la parte che mi viene spontaneo dire per non creare panico da un certo punto di vista, per dire no, adesso l'intelligenza artificiale distruggerà la professione legale, sarà un problema per tutto il sistema giustizia, però dall'altro lato per non invece far fare un utilizzo forse troppo poco eh maturo, che è forse il problema che abbiamo adesso. già delegare. Mi è piaciuto Giuseppe quando dice adagiarsi. Il problema non è la tecnologia in sé, ma questo sorta di corto circuito tra la sua apparente autorevolezza e la sua reale inaffidabilità. Non so se effettivamente, come dice Milly Bander, la la I generativa è solo un pappagallo stocastico. Sì, ripete delle informazioni in modo statisticamente probabile, sì, non le comprenda. non le comprende appieno. Ma non è forse lì il problema. Il problema è in un giudice che si fida ciecamente, cade vittima di una cosa che si chiama automation bias, no? La tendenza a delegare il pensiero critico a qualcos'altro, in questo caso ad una macchina, a delegare, adagiarsi. Le raccomandazioni del CSM sono, in realtà, se ci pensiamo, l'affermazione di una sorta di principio fondamentale. Puoi delegare tutto, eh, ma non la responsabilità. E non puoi dire è colpa di Chat GPT, fare math eh come la si chiama in un bel libro che si chiama Weapon of Math Destruction, armi di distruzione matematica. Chi firma la sentenza è l'unico autore responsabile, come peraltro sancito da una cosina che si chiama costituzione e questo demolisce ogni alibi tecnologico. Ora viene a galla il problema reale forse dell'intelligenza artificiale, il problema della scatola nera. Un giudice deve poter deve è pagato, è motivato, è lì perché deve motivare ogni singola parola di una sentenza. Come può farlo se si basa su un output generato da un algoritmo che di per sé è opaco, in cui un processo decisionale incomprensibile è incomprensibile tante volte addirittura per i suoi creatori e va va non lo so, è una cosa che va contro proprio il principio stesso di una giustizia trasparente. si scontra l'idea che c'è perché c'è di efficienza con quella di umanità, almeno qui da noi. Eh, perché ad esempio in altre parti del mondo la cosa cambia in maniera sostanziale. In Cina si usa l'intelligenza artificiale esattamente al contrario per limitare il potere discrezionale dei giudici, che per me e per noi è un'idea agghiacciante perché riduce la giustizia a una sorta di sillogismo matematico che magari in alcuni ambiti lo è, ma non in tutti. Nella nostra tradizione giuridica, come ricordava Calamandrei, vabbè, lascia perdere, si fonda su un giudice che non è mai spietato perché è umano e la per ora manca di questa dimensione. Anche la richiesta del CSM che che chiede un un addestramento senza biasopia, ok? in questo momento storico è un'optopia. Ogni modello eredita i pregiudizi presenti nei dati, nell'allineamento, nella praxis che è stata fatta fino a quel momento. La vera sfida non è creare una i neutrale, che forse è addirittura un mito, ma costruire un sistema di supervisione umana in grado di identificare e addestrata per identificare, preparata per identificare e correggere i suoi inevitabili errori, allucinazioni e bias. Le raccomandazioni del CSM non sono un no alla tecnologia, ma un primo passaggio fondamentale proprio di tech policy nel mondo della giustizia. Invece di subire le innovazioni e dire inshallah si dettano delle condizioni. Non è la I non la usi. La i la usi solo se è trasparente, verificabile e sotto una costante supervisione umana. Adesso non è possibile, bene, adesso non la usi, però si sta disegnando un modello che è in linea con il modello europeo della I nei settori critici, ok? Che è in netto contrasto e grazie a Dio mi verrebbe da dire con quello cinese è americano, non si punta alla sostituzione dell'umano o alla deregolamentazione, ma all'aumento delle capacità umane dentro a un perimetro di garanzie costituzionali. La tecnologia deve servire all'uomo e l'uomo e non il contrario. Quindi, per chiudere, la sfida si sposta. Non è più se usare la i, ma come e quale usarla, come costruirla, regolarla per renderla un alleato affidabile, una persona a cui posso delegare le richieste del CSM che non sono, cioè sì che sono fantascientifiche per alcuni da implementare su alcuni modelli, ma non sono fantascientifiche nell'idea, sono trasparenza, tracciabilità e supervisione. Mi verrebbe da direazo, sono un capitolato tecnico e etico per l'industria che sviluppa sviluppa sviloppa, certo loppete queste tecnologie. Quello che emerge è un disperato bisogno di cultura digitale a tutti i livelli. Dobbiamo imparare a usare questi strumenti con consapevolezza critica. ne dobbiamo comprendere i limiti prima ancora delle potenzialità, perché la potenzialità c'è, ma se il limite in questo momento è inventare sentenze è ovvio che in questo momento non la posso utilizzare. E vale per i giudici, vale per gli avvocati, ma vale per i chirurghi, vale per i ciabattini, vale per il CFO, vale per il CEO, vale per chiunque, vale anche per ognuno di noi. Tutto qui. almeno ditemi se vi fidereste di una sentenza scritta da un'intelligenza artificiale. Come sempre, anche questa volta grazie mille per avermi ascoltato ed estote parati. Se non vi siete ancora iscritti ci vediamo e nel caso c'è anche un corso, guarda che caso e che potete prendere e state parati. Senti anche tu l'impressione di perderti la rivoluzione dell'intelligenza artificiale, vero? di volerla utilizzare per migliorare il tuo lavoro. Sei bombardato di notizie, ma non sai dove iniziare davvero? Se la risposta è sì, ho creato qualcosa per te. Ho distilato 2 anni di formazione che ho fatto a grandi aziende internazionali, dalla difesa alla finanza, dal food all'automotive, per creare un corso che ho chiamato Zero to AI, una introduzione gentile per capire l'intelligenza artificiale partendo da zero. E non è solo un'introduzione leggera, è un vero e proprio percorso strategico di 5 ore e mezza di contenuto e video per darti la consapevolezza e gli strumenti per non subire questa rivoluzione, ma per guidarla, per partire da zero, senza prerequisiti, ma per diventare quelli che io chiamo i pastori dell'intelligenza artificiale. video, slide, un sacco di pratica davvero da zero per affrontare tutti gli argomenti, dalla teoria ai design pattern, dalle tecniche avanzate di Promptin, fino a progetti seguiti step by step, passetto a passetto, per imparare la maestria nei modelli linguistici. Se stai vedendo questo video, probabilmente fai ancora in tempo a iscriverti con un prezzo scontato di €100 e con la trasparenza che ho sempre avuto. 30 giorni per provarlo e se non fa per te, rimborso completo senza farti domande. Trovi tutto a 0.matteoflora.com e qui sotto in descrizione perché non è tardi per sfruttare l'intelligenza artificiale e se il momento migliore era comunque ieri, beh, il secondo momento migliore è esattamente ora. Quindi 0.matteoflora.com matteoflora.com e e sto parato.
Rigenera Contenuti
Rielabora i contenuti con Gemini
Nota: La rigenerazione richiederà alcuni secondi e sovrascriverà i contenuti esistenti.