ChatGPT ci rende stupidi, se lo usiamo male [Live Talk]
Metadati
- URL Sorgente
- https://youtu.be/XY8BfGlVvqg?si=UbXK95h9NX674vjj
- Hash
- c65eb32869e632bc...
- Data Pubblicazione
- 20250713
- Lingua
- it
- Ultimo Aggiornamento
- 2025-11-10 07:43
Sintesi Breve
Riassunto generato da Gemini (max 200 parole)
L'intervento analizza il rischio che l'intelligenza artificiale generativa possa renderci meno capaci di ragionare autonomamente. Si sottolinea che la "colpa" non è dello strumento in sé (es. ChatGPT), ma dell'approccio e dell'uso che ne facciamo. Vengono identificati sette errori comuni nell'utilizzo di questi strumenti: non verificare le informazioni, smettere di studiare, fidarsi ciecamente, non metterci del nostro, ignorare i bias, confondere produttività e qualità, fare richieste superficiali. Per ogni errore viene fornito un suggerimento pratico per un utilizzo più consapevole e proficuo. La conoscenza umana è la base, l'IA è un moltiplicatore.
Trascrizione Estesa
Testo rielaborato e formattato da Gemini
Chi non appartiene un po' al nostro mondo, diciamo quelli degli appassionati utilizzatori di intelligenza artificiale, da diverso tempo, ormai da quando c'è stata l'esplosione di questi strumenti di EAI generativa, sento ripetere tantissimo questa frase e probabilmente è capitato anche a voi in qualche occasione, cioè ci stiamo rincoglionendo tutti quanti, l'intelligenza artificiale non ci fa ragionare più, ormai dobbiamo chiedere tutto a CG GPT, eccetera eccetera eccetera e in mille occasioni mi ritrovo a cercare di, come dire, spiegare perché non è così questa cosa. Allora il tolco di questa mattina è proprio questo obiettivo, no? L'intelligenza artificiale è vero che ci può rendere stupidi, ma dipende da noi, dipende da come la utilizziamo. E quindi volevo provare a scendere nel dettaglio di questa cosa e a capire, ma è veramente un problema, cioè questa cosa che stiamo di cui stiamo parlando questa mattina è seriamente un rischio quello dell'intelligenza artificiale che ci rincoglionisce, che ci fa diventare più stupidi, ci fa spegnere il cervello. Non so, ci sono mille varianti di questa di questa di questa di questa frase e voglio provare ad affrontare questo argomento dando un pochino di suggerimenti pratici, no? Che il sottotitolo è Se "e se la usiamo male significa ok, allora capiamo che significa invece usarla bene". Parlando un po' di quelli che sono alcuni errori comuni quando ci mettiamo di fronte a CG GPT o strumenti di questo tipo, ovviamente cito CG GPT come esempio e poi vale per tutti, vale per per Copile, per Gemite, qualsiasi cosa utilizzate. La cosa importante dalla quale voglio partire, se se funzionasse il il puntatore, allora questa frase leggiamola insieme 1790. Il libero accesso di molti giovani ai romanzi ha avvelenato la mente e corrotto la morale di molti giovani promettenti, maledetti romanzi, e ha impedito ad altri di migliorare le loro menti in conoscenze utili. Questo è il predicatore Enos Hchcock 1790. Giusto per dare questo piccolo spunto iniziale, c'è stata un'epoca storica nella quale addirittura diciamo che i romanzi ci avrebbero resi stupidi. I romanzi spegnevano il cervello dei giovani, i romanzi li facevano rincoglionire. Vedete quella frase pesantissima: avvelenato la mente, corrotto la morale di questi giorni. Oggi nessuno si permetterebbe di dire una cosa del genere, di un romanzo, no? Anzi, è un romanzo forse una, come dire, delle delle forme di scrittura, no, che più adoriamo, consigliamo. Le apre le menti invece di chiuderli. Ma non è l'unica l'unica frase. Altra proposito. Questa è 1790, ve ne faccio vedere un'altra. Qua non vi metto né la data né la persona. Ve la faccio scoprire tra un attimo. Una volta che è scritto tutto quanto il discorso rotola per ogni dove, finendo tra le mani di chi è competente, così come tra quelle di chi non ha niente da spartire con esso. Addirittura un'accusa alla parola scritta così grave. Vedete? Perché quando la scrivi una cosa finisce nelle mani ovviamente di chi è competente, ma anche di chi non ha niente da spartire con la parola scritta. Eh, l'ha detta, diciamo, non è Gigino il salumiere, l'ha detta Socrate questa questa cosa qua. 370 A.C. Due esempi molto lontani. Ma per far vedere una cosa fondamentalmente sono 2000 anni che noi ci lamentiamo e che diciamo periodicamente, no, che c'è qualcosa di nuovo, qualche novità, qualche nuovo strumento, qualche nuova tecnologia. Qualcosa che arriva nelle nostre vite e puntiamo il dito dicendo questa cosa è la rovina, questa cosa è la fine, no? Distruggerà tutto, ucciderà le nostre menti, sarà la rovina dei giovani e così via. Quello di cui parlo quest'oggi è che l'approccio quello che fa la differenza. Cioè l'unica cosa che conta veramente non è colpa dello strumento in sé, non è c'ha GPT che ci rincoglionisce, no, è quello che noi decidiamo di fare con quello strumento, il modo con il quale lo utilizziamo, l'approccio, se volete, a a CG GPT. E di nuovo dico CG GPT, ma vale per tutti gli strumenti di generativa che che utilizziamo quotidianamente e quindi voglio vedere con voi sette, mettiamolo così, sette errori, ok, comuni che vedo che vedo fare personalmente quando lavoro con le aziende, dagli studenti eccetera eccetera e per ogni di questi errori dare anche poi la controparte, cioè un suggerimento. Quindi se questa cosa è un po' rischiosa, è un po' pericolosa nell'approccio con CPT, qual è qualcosa di pratico, di concreto che possiamo fare? è il primo da quale voglio partire. Secondo me questo è un grande è un grande classico e sta diventando veramente un problema, è quello di non verificare le informazioni. Che significa non verificare le informazioni? Che cioè GPT ci produce un risultato, no? Ci dà ci dà qualcosa in output e lì dentro c'è, che ne so, una data, un nome, eccetera eccetera e noi abbiamo smesso di fare fat checking. Cioè, molte persone ormai se una cosa viene detta da CGPT è assolutamente vera, è corretta, no? lo diamo un pochino per scontato e il lavoro di fating, se ne parlava anche ieri in un altro contesto, il lavoro di fat checking e quindi di andare a controllare le fonti, andare a verificare se quell'informazione è corretta è fondamentale, soprattutto in un ambito come questo, no? Perché poi qui parliamo di persone o di fronte a me un pubblico che strumenti come questo lo utilizzano per lavoro e quindi utilizzare questi strumenti per lavoro e non andare a controllare le informazioni che ci vengono detto è è seria come cosa, è estremamente pericolosa, è estremamente grave se poi quell'informazione finisce, non lo so, in una presentazione, no? Finisce in un documento, in un in un paper, in qualcosa che state che state producendo. E quindi qua il consiglio qual è? e di entrare nell'ottica che l'intelligenza artificiale generativa in questo caso non è un oracolo. Questo forse è uno dei problemi più grandi che abbiamo in questo momento, il vedere C GPT come se fosse un oracolo, no? l'oracolo è questa questa entità che ha tutte le risposte per noi e ed è qualcosa di di di assolutamente nuovo, assolutamente di rompente che abbiamo a disposizione. Veramente possiamo aprirci al GPT e parlarci, non lo so, di di le ricette da cucinare questa sera, farci controllare le ultime analisi del sangue, come dicevamo ieri con con qualcuno, a darci consigli di business e iniziamo a viverlo come un oracolo. Ed è pericolosa questa cosa quando abbiamo questa sorta di devozione verso lo strumento. Ricordiamoci che è un assistente. Questa è una cosa fondamentale, può sembrare una banalità, ma ricordiamoci che è un assistente, non è un un oracolo. Il secondo errore che viene che viene fatto molto molto molto molto frequente ehm è quello di non studiare. Tanto ci pensa Leai. Mi capita sempre più spesso di vedere questa questa scena, non so se a voi qualche volta è capitato, siete, che ne so, ad una cena con amici, no? in un momento informale, al pub eccetera eccetera, esce fuori un argomento, si sta parlando di qualcosa, all'improvviso qualcuno dice un'informazione sulla quale non siete sicurissimi e c'è qualcuno che tira fuori il cellulare, dice "Boh, dai, controlliamo un attimo su C GPT." Era quello che prima dicevamo, "Vabbè dai, controlliamo un attimo su Google, che ne so, una data, no? Ma com'era la prima sigla dei Cavalieri dello Zodiac? Vabbè, controlliamo un attimo su CGPT." adesso è diventato è diventato così questo atteggiamento di tanto ci pensa Leaio. Ovviamente quello è un esempio, no? anche abbastanza simpatico. Pensiamolo come sempre nel nel nostro contesto del quello del lavoro. Qua il studiare non è lo studiare riferito a a allo studente, è uno studiare anche riferito a chi fa la professione, no? Il non approfondire, il non formarsi, il perdere quel contatto con quelle che sono le fonti dalle quali andavamo a pescare prima le informazioni, no? le newsletter, i blog, i libri, non lo so, i white paper, qualsiasi sia il materiale dal quale dal quale studiate. E questa genera un effetto pericoloso, la dipendenza passiva, la dipendenza passiva dal punto di vista cognitivo, cioè non sono più in grado di andare avanti su determinate attività, su determinati task, se io non passo da CG GPTV. E guardate che questa cosa è molto subdola, ma probabilmente a qualcuno di voi sta già capitando. Io me ne rendo conto che su alcune cose è già così e devo forzarmi a dire non faccio questa cosa con CHGPT oppure questa cosa dentro ha delle informazioni importanti e voglio passare per un controllo manuale, no? Per non avere quell'effetto della dipendenza passiva. La dipendenza passiva per capirci è quando non siamo più in grado di arrivare da nessuna parte se non apriamo Google Maps. Ok? È questo il tipo di dipendenza passiva che a cui a cui sto facendo riferimento. E qua il consiglio qual è? Sempre per usare un'altra un'altra metafora. C' GPT per me è un trampolino. Questa è una frase che sto ripendo ripetendo a a ripetizione ed è un'immagine, secondo me, che vi dovete portare a casa. Cosa voglio dire? Che è un trampolino non può saltare al posto nostro. È chiaro che se sono lì a a bordo piscina ed è arrivato il mio momento di saltare, so che il trampolino può aiutarmi in quella cosa. Mi può dare uno slancio maggiore. Uno slancio maggiore ovviamente significa che avrò più tempo in area, no? Potrò fare meglio il mio salto, le acrobazie, la mia performance. Ma il salto ce lo devo mettere io. Cioè GPT non salta al posto mio. È chiaro che se non ho il trampolino e metto a fianco quel salto non sarà potente, no? Bello, alto, performante allo stesso allo stesso modo, ma il salto lo devo lo devo fare io. E questo è un passaggio, secondo me, fondamentale. Il terzo errore qual è? Questo è è collegato al primo, eh, simile, ma non è la non è la stessa cosa, è il pensare che GPT sia infallibile. Ripeto, eh passatemi il fatto che continua a dire CGPT, lo dico per semplicità, in realtà questo discorso vale per tutti gli strumenti di I di generativa, qualsiasi sia quello che utilizzate, il fidarci ciecamente di tutto quello che succede, il copare e incollare l'output e buttarlo dentro qualcosa di ufficiale. Questa cosa la ripeto in continuazione proprio al allo sfinimento, in qualsiasi workshop, ma anche in qualsiasi video gratuito che metto così su YouTube. State utilizzando per, non lo so, una newsletter, per un paper che state scrivendo, per un documento per un cliente, qualsiasi l'utilizzo che fate. La cosa più pericolosa che potete fare è il copare e incollare senza fare nessun passaggio umano in mezzo, no? Questo per me è il fidarsi ciecamente ed è fondamentale capire che quello strumento è limitato, capire che quello strumento ha delle problematiche, capire che quello strumento ha delle limitazioni, i bias, i pregiudizi, ha delle problematiche intrinseche, no? Poi ognuno ne ha di tipo diverso. Poi sui bias tra un attimo ci torniamo perché è un aspetto fondamentale, ma studiare i limiti e i problemi noti per me significa non guardare solo la parte bella, [ __ ] colorata di quello che sta succedendo, di questa bellissima rivoluzione che è in corso, no? che la parte quella ovviamente cool, quella che fa che fa che fa hype dell'intelligenza artificiale, ma sapere anche quello che non va, informarci anche su quello che non va ogni volta che ci approcciamo a un nuovo strumento, sapere che ha delle problematiche in modo tale che quando lo utilizziamo lo utilizziamo in maniera conscia di questi limiti e di queste problematiche che ha che ha lo strumento. Il quarto è quello di non metterci del nostro. Cosa intendo dire di non metterci di non metterci del nostro? Eh, qua un'altra metafora che voglio prendere è quella del del piantare il il semino. Quando noi decidiamo di non metterci del nostro, è il momento nel quale spegniamo completamente il cervello e quindi dobbiamo fare, che non so, vi faccio uno degli esempi che ho fatto prima, stiamo scrivendo il numero della newsletter oppure stiamo preparando una presentazione per un cliente oppure dobbiamo fare, che ne so, un white paper in azienda, un non lo so, un doc, qualsiasi cosa state state preparando. metterci del nostro significa perdere completamente l'originalità e l'appiattimento che si vede in questo momento. Guù, seriamente, ma quanta di questa robaccia sta girando in questo momento su LinkedIn? Alzate la mano se avete beccato almeno una volta su LinkedIn un post, un commento, avete detto che sta sicuro l'ha scritto c'ha GPT. Se vi è capitato almeno una volta, LinkedIn in questo momento è imbarazzante su sta roba. È palesemente copiato e incollato pure con gli stessi hashtag sotto. Si vede proprio si vede anche l'emoji copiate da da Cerc. Si perde originalità, si annacqua il contenuto, no? Diventa tutto tiepido, diventa tutto mediocre, che è una cosa che è una cosa terribile di nuovo perché noi lo utilizziamo per lavoro questo strumento, quindi è 10 volte più più grave e qua il consiglio ovviamente è quello di utilizzarlo come amplificatore di idee, quindi la metafora del semino significa che c'è GPT ci può aiutare a a dargli acqua, no? a coltivarlo, a a farlo crescere, ma quel semino lo dobbiamo lo dobbiamo mettere noi e quel semino è metterci l'idea, quel semino è usare il giusto prompt, quel semino è arrivare lì per una sessione di braastorming, quel semino è dare noi l'input iniziale, la documentazione iniziale, eccetera eccetera. E poi abbiamo questo strumento che amplifica, no, questo questo megafono. Prima abbiamo usato la metafora del trampolino, ce sarebbero 1000 di metafore da da utilizzare, ma quel punto di partenza è fondamentale. Dobbiamo essere noi, altrimenti la guerra la stiamo perdendo là, no? è quello il momento nel quale ci stiamo rincoglionendo, è quello il momento nel quale veramente abbiamo spento il cervello, ma di nuovo è una nostra scelta se decidiamo di farlo. Il quinto errore invece primo ho accenato i bias, ho detto sui bias voglio tornare, questo è un tema fondamentale, importantissimo, forse il più serio sul tema delle AI generativa e non solo, no? strumenti che al loro interno hanno bias, pregiudizi nei dati, negli algoritmi e noi li utilizziamo pensando che siano neutrali e neutrali non sono. Neutrali non solo ovviamente finché facciamo l'esempio di CGPT sembra tutto molto poco grave, tutto molto poco serio, però eh stanno succedendo cose molto gravi, invece molto serie di quando le ha utilizzate per esempio in tribunale per definire una condanna, no? E sappiamo che la condanna non sarà uguale per due persone che hanno il colore della pelle diversa. Oppure in azienda, nei reparti e char dove le viene utilizzate per decidere chi assumere oppure chi licenziare e sappiamo che le hai non si comporterà allo stesso modo se quelle persone hanno due sessi diversi e così via. il tema dei bias, delle dei dei pregiudizi che sono all'interno di questi di questi strumenti è clamoroso, è enorme e dobbiamo sapere, dobbiamo conoscere questa cosa perché poi va a impattare il modo con il quale lo utilizziamo, senza dimenticare che sono strumenti fatti apposta per confermare i nostri debias, no? Quindi sono avete visto avete seguito lo scandalo dell'ultima versione di CGPT, no? che hanno dovuto fare addirittura un passo indietro perché la gente si lamentava del dire "No, cioè questo è proprio inutilizzabile, è diventato talmente ormai eh no, questa disponibilità estrema, assurda, inutile, veramente sembrava diventava ridicolo, era era inutilizzabile e e su quello dobbiamo fare tantissima attenzione approcciandoci allo strumento, sapendo che quello strumento è progettato per darci sempre ragione, è progettato per dire che sì, tutto quello che abbiamo detto è corretto, è progettato per dire che ogni nostra idea è una figata". Quindi se io arrivo lì convinto che le carote facciano male e faccio la domanda, dammi cinque motivi per cui le carote facci fanno male, cioè GPD lo farà, mi dirà cinque motivi per cui le farò le carote fanno male e io torno a casa dicendo "Hais vist avevo ragione, l'ha detto pure c'è GPT, ecco perché le carote fanno male e non vanno non vanno mangiato", no? Un classico esempio di bias della conferma, per esempio. Questa è una roba importantissima e pericolosissima quando ci approcciamo a questi strumenti e quindi qua il consiglio è quello di iniziare a individuare queste problematiche. innanzitutto studiarle, no, capirle. Quindi cosa significa che uno strumento all'interno ha dei bias, dei pregiudizi e così via e come questi possono impattare sul nostro lavoro, perché poi impatta non solo sul contenuto che produciamo, non è un problema di "Eh, vabbè Raff, ma alla fine è un articolo per il blog, vabbè Raff, ma alla fine può essere un numero della newsletter". No, questa roba finisce nei processi aziendali, questa roba finisce nelle decisioni, questa roba finisce nelle sessioni di breing, questa roba finisce un po' alla volta nella nostra mente. È questa la problematica di lungo periodo, quando uno strumento è realizzato per darci ragione su qualsiasi sia la nostra proposta, la nostra idea. Il sesto, questo ci casco pure io, è facile cascarci, è quello di confondere la produttività con la qualità. Forse uno dei primi effetti che m'ha fatto utilizzare le A generativa, cioè GPT io che peresso nella mia quotidianità, nel mio lavoro, è stato wah in un'ora riesco a fare quello che prima facevo in 5 ore, in 10 ore. Se in un'ora prima scrivevo un articolo, mo ne scrivo 10. No, c'è questa sensazione di sono sono invincibile, adesso ho un superpotere. Questa roba è è impressionante, cioè il salto di qualità che mi fa fare è impressionante, ma attenzione perché quello è un impatto ovviamente sulla produttività, è un tema di quantità. Ma ci dobbiamo fare la domanda, quei 10 articoli che però scrivo in un'ora sono validi o sono a merda? Perché se sono inutili quegli articoli, se sono scadenti, se sono di qualità pessima, no? E veniamo ai post su LinkedIn tutti uguali, tutti scopiazzati, tutti terribili, eccetera eccetera. Qual è il senso? Perché ne dovrei fare 10 in un'ora, no? se la qualità è terribile e quella roba non porta valore ai miei clienti, al mio pubblico, alle mie attività, ai miei obiettivi, alla mia visione e così via. Quindi attenzione perché qua è veramente molto sottile il confine ed è un poi diffondersi di roba di basso valore e il post linkedin lo possiamo pure far passare, ma quando questa roba poi diventa la landing page, i nostri siti web aziendali, le presentazioni che prepariamo per i clienti, non lo so, i paper, gli ebook, qualsiasi cosa, visto che ultimamente ci si scrivono pure i libri con l'intelligenza artificiale, allora l'impatto diventa veramente veramente serio. è una ragionato su questa cosa va fatta. Ecco perché qui per me la chiave è quella di non delegare mai quelle che sono le nostre attività chiave. Ci sono delle cose sulle quali dovete prendere la decisione e questa decisione la dovete prendere oggi, non la dovete prendere domani o dopodomani dove dite questa roba qua la devo faare io, la deve faare un essere umano, o io o i miei socipenti o i miei collaboratori, no? È una decisione che va presa oggi. E quali sono per me queste queste attività? sono quelle attività core, quelle attività chiave che è pericolosissimo dare ad un'automazione. È chiaro che tutto il resto glielo possiamo dare. Cioè io sono il primo che tutti quei task che sono ripetitivi, no, che sono a basso valore, che sono veramente noiosi, ecco, questa è la parola che cercavo, che manco io mi sentirei di dare a un essere umano, non lo vorrei dare, no, a qualcuno del mio team, perché dico no, sta cosa non è proprio non si può fare, meglio che la fa un un automatismo. Su quello siamo d'accordi e e ci sta. Ma esiste invece tutta una serie di attività e sono quelle strategiche, quelle ad alto valore, quello dove c'è bisogno della nostra creatività, della nostra empatia, della nostra lettura del contesto, della nostra capacità di unire i puntini che devono rimanere sotto il controllo degli esseri umani. E il settimo e ultimo è quello di fare richieste superficiali. Cioè questa questa è un po' la risposta che do quando mi trovo in azienda, che non so per un workshop, per un'attività di formazione mi dicono Raf, alla fine niente di che. Abbiamo provato a usarlo C GPT e scrive sempre le stesse cazzate, cioè le cose, l'output che ci dà è sempre quello, cioè alcune sono proprio banali, son ripetitive, dice le stesse cose, la qualità è terribile. E io in tutte le occasioni dico "Sì, ma come lo saate? Cioè, siamo sicuri che se le risposte fanno schifo non è perché le domande forse fanno schifo, no? C'è un in inglese si usa questa frase che è garbage in garbage out, no? Quindi eh se metti schifezza ti trovi schifezza e e quindi qua il tema la la problematica, no, che che deriva da questo è quello di avere appunto queste queste queste risposte che poi diciamo sì, vabbè, alla fine niente di che, cioè alla fine è rimasto tutto molto genere, tutto vago, alla fine non ha capito manco di cosa mi occupo, alla fine non riesce manco a usare il mio tono, il mio approccio e così via. E là la questione quindi è la passa palla a noi, eh, la palla passa a noi, cioè il consiglio qual è? è quello di imparare a porre le giuste domande. Attenzione, qua non ho scritto scrivere bene i prompt, ho detto imparare a fare le giuste domande. Non è questione di prompt engineering, non è questione di prompt design, non è questione di usiamo la formula che ho scaricato dall'ebook gratuito di quel creator americano, no, no, è imparare a pelle giuste domande. Le giuste domande per me significa "Ma tu che ci vuoi fare con strumento? Se ti danno in mano uno strumento che potenzialmente può fare tutto per te, tu che ci vuoi fa'? Cioè, cosa vuoi ottenere? Come lo colleghi? Come lo allini a quella che è la tua visione, i tuoi valori, i tuoi obiettivi e così via. Questo per me significa porre le giuste domande, che è quello che fa veramente la differenza quando utilizziamo uno strumento di questo tipo. Voglio concludere, provare a riassumere con una sola frase, diciamo sette, no, consigli di quest'oggi. Per me la chiave è questa roba qua. La conoscenza è la è la base. La conoscenza siamo noi, no? Le nostre competenze, le nostre esperienze, il nostro track record e così via. Ricordiamoci che le hai invece il moltiplicatore, no? La metafora del semino qua ritorna ritorna comodo. Quel semino lo dovete piantare voi e non lo dovete perdere di vista e poi l'intelligenza artificiale è quella che vi può aiutare a farlo crescere, a trasformarlo in un bellissimo albero. Grazie mille. I ho finito. [Applauso]
Tag
Tag associati al documento
Cartelle
Cartelle in cui è catalogato il documento
Testo Estratto (Cache)
Testo grezzo estratto dalla sorgente
chi non appartiene un po' al nostro mondo, diciamo quelli degli appassionati utilizzatori di intelligenza artificiale, da diverso tempo, ormai da quando c'è stata l'esplosione di questi strumenti di EAI generativa, sento ripetere tantissimo questa frase e probabilmente è capitato anche a voi in qualche occasione, cioè ci stiamo rincoglionendo tutti quanti, l'intelligenza artificiale non ci fa ragionare più, ormai dobbiamo chiedere tutto a CG GPT, eccetera eccetera eccetera e in mille occasioni mi ritrovo a cercare di, come dire, spiegare perché non è. così questa cosa. Allora il tolco di questa mattina è proprio questo obiettivo, no? L'intelligenza artificiale è vero che ci può rendere stupidi, ma dipende da noi, dipende da come la utilizziamo. E quindi volevo provare a scendere nel dettaglio di questa cosa e a capire, ma è veramente un problema, cioè questa cosa che stiamo di cui stiamo parlando questa mattina è seriamente un rischio quello dell'intelligenza artificiale che ci rincoglionisce, che ci fa diventare più stupidi, ci fa spegnere il cervello. Non so, ci sono mille varianti di questa di questa di questa di questa frase e voglio provare ad affrontare questo argomento dando un pochino di suggerimenti pratici, no? Che il sottotitolo è Se "e se la usiamo male significa ok, allora capiamo che significa invece usarla bene". parlando un po' di quelli che sono alcuni errori comuni quando ci mettiamo di fronte a CG GPT o strumenti di questo tipo, ovviamente cito CG GPT come sempio e poi vale per tutti, vale per per Copile, per Gemite, qualsiasi cosa utilizzate. La cosa importante dalla quale voglio partire, se se funzionasse il il puntatore, allora questa frase leggiamola insieme 1790. Il libero accesso di molti giovani ai romanzi ha avvelenato la mente e corrotto la morale di molti giovani promettenti, maledetti romanzi, e ha impedito ad altri di migliorare le loro menti in conoscenze utili. Questo è il predicatore Enos Hchcock 1790. Giusto per dare questo piccolo spunto iniziale, c'è stata un'epoca storica nella quale addirittura diciamo che i romanzi ci avrebbero resi stupidi. I romanzi spegnevano il cervello dei giovani, i romanzi li facevano rincoglionire. Vedete quella frase pesantissima: avvelenato la mente, corrotto la morale di questi giorni. Oggi nessuno si permetterebbe di dire una cosa del genere, di un romanzo, no? Anzi, è un romanzo forse una, come dire, delle delle forme di scrittura, no, che più adoriamo, consigliamo. Le apre le menti invece di chiuderli. Ma non è l'unica l'unica frase. Altra proposito. Questa è 1790, ve ne faccio vedere un'altra. Qua non vi metto né la data né la persona. Ve la faccio scoprire tra un attimo. Una volta che è scritto tutto quanto il discorso rotola per ogni dove, finendo tra le mani di chi è competente, così come tra quelle di chi non ha niente da spartire con esso. Addirittura un'accusa alla parola scritta così grave. Vedete? Perché quando la scrivi una cosa finisce nelle mani ovviamente di chi è competente, ma anche di chi non ha niente da spartire con la parola scritta. Eh, l'ha detta, diciamo, non è Gigino il salumiere, l'ha detta Socrate questa questa cosa qua. 370 A.C. Due esempi molto lontani. Ma per far vedere una cosa fondamentalmente sono 2000 anni che noi ci lamentiamo e che diciamo periodicamente, no, che c'è qualcosa di nuovo, qualche novità, qualche nuovo strumento, qualche nuova tecnologia. Qualcosa che arriva nelle nostre vite e puntiamo il dito dicendo questa cosa è la rovina, questa cosa è la fine, no? Distruggerà tutto, ucciderà le nostre menti, sarà la rovina dei giovani e così via. Quello di cui parlo quest'oggi è che l'approccio quello che fa la differenza. Cioè l'unica cosa che conta veramente non è colpa dello strumento in sé, non è c'ha GPT che ci rincoglionisce, no, è quello che noi decidiamo di fare con quello strumento, il modo con il quale lo utilizziamo, l'approccio, se volete, a a CG GPT. E di nuovo dico CG GPT, ma vale per tutti gli strumenti di generativa che che utilizziamo quotidianamente e quindi voglio vedere con voi sette, mettiamolo così, sette errori, ok, comuni che vedo che vedo fare personalmente quando lavoro con le aziende, dagli studenti eccetera eccetera e per ogni di questi errori dare anche poi la controparte, cioè un suggerimento. Quindi se questa cosa è un po' rischiosa, è un po' pericolosa nell'approccio con CPT, qual è qualcosa di pratico, di concreto che possiamo fare? è il primo da quale voglio partire. Secondo me questo è un grande è un grande classico e sta diventando veramente un problema, è quello di non verificare le informazioni. Che significa non verificare le informazioni? Che cioè GPT ci produce un risultato, no? Ci dà ci dà qualcosa in output e lì dentro c'è, che ne so, una data, un nome, eccetera eccetera e noi abbiamo smesso di fare fat checking. Cioè, molte persone ormai se una cosa viene detta da CGPT è assolutamente vera, è corretta, no? lo diamo un pochino per scontato e il lavoro di fating, se ne parlava anche ieri in un altro contesto, il lavoro di fat checking e quindi di andare a controllare le fonti, andare a verificare se quell'informazione è corretta è fondamentale, soprattutto in un ambito come questo, no? Perché poi qui parliamo di persone o di fronte a me un pubblico che strumenti come questo lo utilizzano per lavoro e quindi utilizzare questi strumenti per lavoro e non andare a controllare le informazioni che ci vengono detto è è seria come cosa, è estremamente pericolosa, è estremamente grave se poi quell'informazione finisce, non lo so, in una presentazione, no? Finisce in un documento, in un in un paper, in qualcosa che state che state produendo. E quindi qua il consiglio qual è? e di entrare nell'ottica che l'intelligenza artificiale generativa in questo caso non è un oracolo. Questo forse è uno dei problemi più grandi che abbiamo in questo momento, il vedere C GPT come se fosse un oracolo, no? l'oracolo è questa questa entità che ha tutte le risposte per noi e ed è qualcosa di di di assolutamente nuovo, assolutamente di rompente che abbiamo a disposizione. Veramente possiamo aprirci al GPT e parlarci, non lo so, di di le ricette da cucinare questa sera, farci controllare le ultime analisi del sangue, come dicevamo ieri con con qualcuno, a darci consigli di business e iniziamo a viverlo come un oracolo. Ed è pericolosa questa cosa quando abbiamo questa sorta di devozione verso lo strumento. Ricordiamoci che è un assistente. Questa è una cosa fondamentale, può sembrare una banalità, ma ricordiamoci che è un assistente, non è un un oracolo. Il secondo errore che viene che viene fatto molto molto molto molto frequente ehm è quello di non studiare. Tanto ci pensa Leai. Mi capita sempre più spesso di vedere questa questa scena, non so se a voi qualche volta è capitato, siete, che ne so, ad una cena con amici, no? in un momento informale, al pub eccetera eccetera, esce fuori un argomento, si sta parlando di qualcosa, all'improvviso qualcuno dice un'informazione sulla quale non siete sicurissimi e c'è qualcuno che tira fuori il cellulare, dice "Boh, dai, controlliamo un attimo su C GPT." Era quello che prima dicevamo, "Vabbè dai, controlliamo un attimo su Google, che ne so, una data, no? Ma com'era la prima sigla dei Cavalieri dello Zodiac? Vabbè, controlliamo un attimo su CGPT." adesso è diventato è diventato così questo atteggiamento di tanto ci pensa Leaio. Ovviamente quello è un esempio, no? anche abbastanza simpatico. Pensiamolo come sempre nel nel nostro contesto del quello del lavoro. Qua il studiare non è lo studiare riferito a a allo studente, è uno studiare anche riferito a chi fa la professione, no? Il non approfondire, il non formarsi, il perdere quel contatto con quelle che sono le fonti dalle quali andavamo a pescare prima le informazioni, no? le newsletter, i blog, i libri, non lo so, i white paper, qualsiasi sia il materiale dal quale dal quale studiate. E questa genera un effetto pericoloso, la dipendenza passiva, la dipendenza passiva dal punto di vista cognitivo, cioè non sono più in grado di andare avanti su determinate attività, su determinati task, se io non passo da CG GPTV. E guardate che questa cosa è molto subdola, ma probabilmente a qualcuno di voi sta già capitando. Io me ne rendo conto che su alcune cose è già così e devo forzarmi a dire non faccio questa cosa con CHGPT oppure questa cosa dentro ha delle informazioni importanti e voglio passare per un controllo manuale, no? Per non avere quell'effetto della dipendenza passiva. La dipendenza passiva per capirci è quando non siamo più in grado di arrivare da nessuna parte se non apriamo Google Maps. Ok? È questo il tipo di dipendenza passiva che a cui a cui sto facendo riferimento. E qua il consiglio qual è? Sempre per usare un'altra un'altra metafora. C' GPT per me è un trampolino. Questa è una frase che sto ripendo ripetendo a a ripetizione ed è un'immagine, secondo me, che vi dovete portare a casa. Cosa voglio dire? Che è un trampolino non può saltare al posto nostro. È chiaro che se sono lì a a bordo piscina ed è arrivato il mio momento di saltare, so che il trampolino può aiutarmi in quella cosa. Mi può dare uno slancio maggiore. Uno slancio maggiore ovviamente significa che avrò più tempo in area, no? Potrò fare meglio il mio salto, le acrobazie, la mia performance. Ma il salto ce lo devo mettere io. Cioè GPT non salta al posto mio. È chiaro che se non ho il trampolino e metto a fianco quel salto non sarà potente, no? Bello, alto, performante allo stesso allo stesso modo, ma il salto lo devo lo devo fare io. E questo è un passaggio, secondo me, fondamentale. Il terzo errore qual è? Questo è è collegato al primo, eh, simile, ma non è la non è la stessa cosa, è il pensare che GPT sia infallibile. Ripeto, eh passatemi il fatto che continua a dire CGPT, lo dico per semplicità, in realtà questo discorso vale per tutti gli strumenti di I di generativa, qualsiasi sia quello che utilizzate, il fidarci ciecamente di tutto quello che succede, il copare e incollare l'output e buttarlo dentro qualcosa di ufficiale. Questa cosa la ripeto in continuazione proprio al allo sfinimento, in qualsiasi workshop, ma anche in qualsiasi video gratuito che metto così su YouTube. State utilizzando per, non lo so, una newsletter, per un paper che state scrivendo, per un documento per un cliente, qualsiasi l'utilizzo che fate. La cosa più pericolosa che potete fare è il copare e incollare senza fare nessun passaggio umano in mezzo, no? Questo per me è il fidarsi ciecamente ed è fondamentale capire che quello strumento è limitato, capire che quello strumento ha delle problematiche, capire che quello strumento ha delle limitazioni, i bias, i pregiudizi, ha delle problematiche intrinseche, no? Poi ognuno ne ha di tipo diverso. Poi sui bias tra un attimo ci torniamo perché è un aspetto fondamentale, ma studiare i limiti e i problemi noti per me significa non guardare solo la parte bella, [ __ ] colorata di quello che sta succedendo, di questa bellissima rivoluzione che è in corso, no? che la parte quella ovviamente cool, quella che fa che fa che fa hype dell'intelligenza artificiale, ma sapere anche quello che non va, informarci anche su quello che non va ogni volta che ci approcciamo a un nuovo strumento, sapere che ha delle problematiche in modo tale che quando lo utilizziamo lo utilizziamo in maniera conscia di questi limiti e di queste problematiche che ha che ha lo strumento. Il quarto è quello di non metterci del nostro. Cosa intendo dire di non metterci di non metterci del nostro? Eh, qua un'altra metafora che voglio prendere è quella del del piantare il il semino. Quando noi decidiamo di non metterci del nostro, è il momento nel quale spegniamo completamente il cervello e quindi dobbiamo fare, che non so, vi faccio uno degli esempi che ho fatto prima, stiamo scrivendo il numero della newsletter oppure stiamo preparando una presentazione per un cliente oppure dobbiamo fare, che ne so, un white paper in azienda, un non lo so, un doc, qualsiasi cosa state state preparando. metterci del nostro significa perdere completamente l'originalità e l'appiattimento che si vede in questo momento. Guù, seriamente, ma quanta di questa robaccia sta girando in questo momento su LinkedIn? Alzate la mano se avete beccato almeno una volta su LinkedIn un post, un commento, avete detto che sta sicuro l'ha scritto c'ha GPT. Se vi è capitato almeno una volta, LinkedIn in questo momento è imbarazzante su sta roba. È palesemente copiato e incollato pure con gli stessi hashtag sotto. Si vede proprio si vede anche l'emoji copiate da da Cerc. Si perde originalità, si annacqua il contenuto, no? Diventa tutto tiepido, diventa tutto mediocre, che è una cosa che è una cosa terribile di nuovo perché noi lo utilizziamo per lavoro questo strumento, quindi è 10 volte più più grave e qua il consiglio ovviamente è quello di utilizzarlo come amplificatore di idee, quindi la metafora del semino significa che c'è GPT ci può aiutare a a dargli acqua, no? a coltivarlo, a a farlo crescere, ma quel semino lo dobbiamo lo dobbiamo mettere noi e quel semino è metterci l'idea, quel semino è usare il giusto prompt, quel semino è arrivare lì per una sessione di braastorming, quel semino è dare noi l'input iniziale, la documentazione iniziale, eccetera eccetera. E poi abbiamo questo strumento che amplifica, no, questo questo megafono. Prima abbiamo usato la metafora del trampolino, ce sarebbero 1000 di metafore da da utilizzare, ma quel punto di partenza è fondamentale. Dobbiamo essere noi, altrimenti la guerra la stiamo perdendo là, no? è quello il momento nel quale ci stiamo rincoglionendo, è quello il momento nel quale veramente abbiamo spento il cervello, ma di nuovo è una nostra scelta se decidiamo di farlo. Il quinto errore invece primo ho accenato i bias, ho detto sui bias voglio tornare, questo è un tema fondamentale, importantissimo, forse il più serio sul tema delle AI generativa e non solo, no? strumenti che al loro interno hanno bias, pregiudizi nei dati, negli algoritmi e noi li utilizziamo pensando che siano neutrali e neutrali non sono. Neutrali non solo ovviamente finché facciamo l'esempio di CGPT sembra tutto molto poco grave, tutto molto poco serio, però eh stanno succedendo cose molto gravi, invece molto serie di quando le ha utilizzate per esempio in tribunale per definire una condanna, no? E sappiamo che la condanna non sarà uguale per due persone che hanno il colore della pelle diversa. Oppure in azienda, nei reparti e char dove le viene utilizzate per decidere chi assumere oppure chi licenziare e sappiamo che le hai non si comporterà allo stesso modo se quelle persone hanno due sessi diversi e così via. il tema dei bias, delle dei dei pregiudizi che sono all'interno di questi di questi strumenti è clamoroso, è enorme e dobbiamo sapere, dobbiamo conoscere questa cosa perché poi va a impattare il modo con il quale lo utilizziamo, senza dimenticare che sono strumenti fatti apposta per confermare i nostri debias, no? Quindi sono avete visto avete seguito lo scandalo dell'ultima versione di CGPT, no? che hanno dovuto fare addirittura un passo indietro perché la gente si lamentava del dire "No, cioè questo è proprio inutilizzabile, è diventato talmente ormai eh no, questa disponibilità estrema, assurda, inutile, veramente sembrava diventava ridicolo, era era inutilizzabile e e su quello dobbiamo fare tantissima attenzione approcciandoci allo strumento, sapendo che quello strumento è progettato per darci sempre ragione, è progettato per dire che sì, tutto quello che abbiamo detto è corretto, è progettato per dire che ogni nostra idea è una figata". Quindi se io arrivo lì convinto che le carote facciano male e faccio la domanda, dammi cinque motivi per cui le carote facci fanno male, cioè GPD lo farà, mi dirà cinque motivi per cui le farò le carote fanno male e io torno a casa dicendo "Hais vist avevo ragione, l'ha detto pure c'è GPT, ecco perché le carote fanno male e non vanno non vanno mangiato", no? Un classico esempio di bias della conferma, per esempio. Questa è una roba importantissima e pericolosissima quando ci approcciamo a questi strumenti e quindi qua il consiglio è quello di iniziare a individuare queste problematiche. innanzitutto studiarle, no, capirle. Quindi cosa significa che uno strumento all'interno ha dei bias, dei pregiudizi e così via e come questi possono impattare sul nostro lavoro, perché poi impatta non solo sul contenuto che produciamo, non è un problema di "Eh, vabbè Raff, ma alla fine è un articolo per il blog, vabbè Raff, ma alla fine può essere un numero della newsletter". No, questa roba finisce nei processi aziendali, questa roba finisce nelle decisioni, questa roba finisce nelle sessioni di breing, questa roba finisce un po' alla volta nella nostra mente. È questa la problematica di lungo periodo, quando uno strumento è realizzato per darci ragione su qualsiasi sia la nostra proposta, la nostra idea. Il sesto, questo ci casco pure io, è facile cascarci, è quello di confondere la produttività con la qualità. Forse uno dei primi effetti che m'ha fatto utilizzare le A generativa, cioè GPT io che peresso nella mia quotidianità, nel mio lavoro, è stato wah in un'ora riesco a fare quello che prima facevo in 5 ore, in 10 ore. Se in un'ora prima scrivevo un articolo, mo ne scrivo 10. No, c'è questa sensazione di sono sono invincibile, adesso ho un superpotere. Questa roba è è impressionante, cioè il salto di qualità che mi fa fare è impressionante, ma attenzione perché quello è un impatto ovviamente sulla produttività, è un tema di quantità. Ma ci dobbiamo fare la domanda, quei 10 articoli che però scrivo in un'ora sono validi o sono a merda? Perché se sono inutili quegli articoli, se sono scadenti, se sono di qualità pessima, no? E veniamo ai post su LinkedIn tutti uguali, tutti scopiazzati, tutti terribili, eccetera eccetera. Qual è il senso? Perché ne dovrei fare 10 in un'ora, no? se la qualità è terribile e quella roba non porta valore ai miei clienti, al mio pubblico, alle mie attività, ai miei obiettivi, alla mia visione e così via. Quindi attenzione perché qua è veramente molto sottile il confine ed è un poi diffondersi di roba di basso valore e il post linkedin lo possiamo pure far passare, ma quando questa roba poi diventa la landing page, i nostri siti web aziendali, le presentazioni che prepariamo per i clienti, non lo so, i paper, gli ebook, qualsiasi cosa, visto che ultimamente ci si scrivono pure i libri con l'intelligenza artificiale, allora l'impatto diventa veramente veramente serio. è una ragionato su questa cosa va fatta. Ecco perché qui per me la chiave è quella di non delegare mai quelle che sono le nostre attività chiave. Ci sono delle cose sulle quali dovete prendere la decisione e questa decisione la dovete prendere oggi, non la dovete prendere domani o dopodomani dove dite questa roba qua la devo faare io, la deve faare un essere umano, o io o i miei socipenti o i miei collaboratori, no? È una decisione che va presa oggi. E quali sono per me queste queste attività? sono quelle attività core, quelle attività chiave che è pericolosissimo dare ad un'automazione. È chiaro che tutto il resto glielo possiamo dare. Cioè io sono il primo che tutti quei task che sono ripetitivi, no, che sono a basso valore, che sono veramente noiosi, ecco, questa è la parola che cercavo, che manco io mi sentirei di dare a un essere umano, non lo vorrei dare, no, a qualcuno del mio team, perché dico no, sta cosa non è proprio non si può fare, meglio che la fa un un automatismo. Su quello siamo d'accordi e e ci sta. Ma esiste invece tutta una serie di attività e sono quelle strategiche, quelle ad alto valore, quello dove c'è bisogno della nostra creatività, della nostra empatia, della nostra lettura del contesto, della nostra capacità di unire i puntini che devono rimanere sotto il controllo degli esseri umani. E il settimo e ultimo è quello di fare richieste superficiali. Cioè questa questa è un po' la risposta che do quando mi trovo in azienda, che non so per un workshop, per un'attività di formazione mi dicono Raf, alla fine niente di che. Abbiamo provato a usarlo C GPT e scrive sempre le stesse cazzate, cioè le cose, l'output che ci dà è sempre quello, cioè alcune sono proprio banali, son ripetitive, dice le stesse cose, la qualità è terribile. E io in tutte le occasioni dico "Sì, ma come lo saate? Cioè, siamo sicuri che se le risposte fanno schifo non è perché le domande forse fanno schifo, no? C'è un in inglese si usa questa frase che è garbage in garbage out, no? Quindi eh se metti schifezza ti trovi schifezza e e quindi qua il tema la la problematica, no, che che deriva da questo è quello di avere appunto queste queste queste risposte che poi diciamo sì, vabbè, alla fine niente di che, cioè alla fine è rimasto tutto molto genere, tutto vago, alla fine non ha capito manco di cosa mi occupo, alla fine non riesce manco a usare il mio tono, il mio approccio e così via. E là la questione quindi è la passa palla a noi, eh, la palla passa a noi, cioè il consiglio qual è? è quello di imparare a porre le giuste domande. Attenzione, qua non ho scritto scrivere bene i prompt, ho detto imparare a fare le giuste domande. Non è questione di prompt engineering, non è questione di prompt design, non è questione di usiamo la formula che ho scaricato dall'ebook gratuito di quel creator americano, no, no, è imparare a pelle giuste domande. Le giuste domande per me significa "Ma tu che ci vuoi fare con strumento? Se ti danno in mano uno strumento che potenzialmente può fare tutto per te, tu che ci vuoi fa'? Cioè, cosa vuoi ottenere? Come lo colleghi? Come lo allini a quella che è la tua visione, i tuoi valori, i tuoi obiettivi e così via. Questo per me significa porre le giuste domande, che è quello che fa veramente la differenza quando utilizziamo uno strumento di questo tipo. Voglio concludere, provare a riassumere con una sola frase, diciamo sette, no, consigli di quest'oggi. Per me la chiave è questa roba qua. La conoscenza è la è la base. La conoscenza siamo noi, no? Le nostre competenze, le nostre esperienze, il nostro track record e così via. Ricordiamoci che le hai invece il moltiplicatore, no? La metafora del semino qua ritorna ritorna comodo. Quel semino lo dovete piantare voi e non lo dovete perdere di vista e poi l'intelligenza artificiale è quella che vi può aiutare a farlo crescere, a trasformarlo in un bellissimo albero. Grazie mille. I ho finito. [Applauso]
Rigenera Contenuti
Rielabora i contenuti con Gemini
Nota: La rigenerazione richiederà alcuni secondi e sovrascriverà i contenuti esistenti.