La Macchina del Vuoto che spazza via l'UMANO: ChatGpt5 e Chester AI Bennington
Metadati
- URL Sorgente
- https://youtu.be/k0Y-pIwfRlA?si=8uoVN8EMUNGGJWTD
- Hash
- 376f3198b34e53e2...
- Data Pubblicazione
- 20250917
- Lingua
- it
- Ultimo Aggiornamento
- 2025-10-26 07:59
Sintesi Breve
Riassunto generato da Gemini (max 200 parole)
Il video di Daily Cogito analizza due esempi recenti che illustrano una preoccupante tendenza: la sostituzione della connessione umana con surrogati artificiali. Il primo caso riguarda una paziente che utilizza ChatGPT per prendere decisioni mediche, evidenziando come l'IA possa diventare un sostituto delle relazioni umane, offrendo risposte convergenti e confortanti, a differenza delle reazioni divergenti e spesso scomode degli esseri umani. Questo porta a una perdita di fiducia nelle relazioni reali, basate proprio sulla divergenza e sulla capacità di affrontare le difficoltà insieme. Il secondo esempio riguarda l'uso dell'IA per ricreare la voce di Chester Bennington dei Linkin Park, sottolineando come si preferisca una versione artificiale, che soddisfa le aspettative, all'arte autentica, che riflette il vissuto e il dolore umano. Si rischia così di ridurre l'arte a una mera superficie, perdendo la connessione profonda con l'artista e la sua esperienza. In entrambi i casi, l'IA offre una "macchina della vacuità" che asseconda le aspettative, distruggendo la fiducia e la crescita personale che derivano dall'affrontare le divergenze umane.
Trascrizione Estesa
Testo rielaborato e formattato da Gemini
Chi se ne frega dell'umano? In fin dei conti, l'intelligenza artificiale ormai può darci tutto, molto meglio dell'essere umano. Ad agosto c'è stata la presentazione di Chat GPT 5, e sono stati presentati casi come questo: > My case was nuanced and there wasn't a medical consensus on the right path. And so the experts turn the decision back to me as the patient. And for me, bearing the weight of this decision that could have lifelong impact felt really heavy and I didn't feel equipped to make the call. So I turned to Chad GPT to gain knowledge and understand the nuances of my case. And again within minutes it gave me a breakdown. that not only matched what the doctors had already shared with us but was much more thorough than anything that could fit into a 30 minut consultation and it went further. It helped me weigh the pros and cons. It helped me understand the risks and the benefits and ultimately it helped me make a decision that I felt was informed that I felt I could stand behind when the stakes were so high for being my family. I mean for me was really inspirational was watching her regain her sense of agency by using chatt. Lo scorso anno i Linking Park hanno trovato la nuova vocalist Emily Armstrong e sono usciti con il singolo "The Emptiness Machine", ed è successo questo: è stata creata una versione con la voce di Chester Bennington, morto da anni, riprodotta dall'intelligenza artificiale. Cosa abbiamo appena visto? Nel primo caso, due ospiti di Sam Altman, un marito e una moglie, in cui la moglie racconta la sua esperienza con il cancro, la radioterapia e il modo in cui GPT l'ha aiutata ad acquisire informazioni, capire meglio i problemi, tradurre informazioni mediche complesse e via dicendo. Nel secondo caso, avete sentito "The Emptiness Machine", ma non con la voce di Emily, bensì con quella di Chester, riprodotta dall'intelligenza artificiale, in una versione che Chester non avrebbe mai potuto cantare. In entrambi questi casi viene dimostrato un fatto drammatico: ormai non ci interessa più nulla della connessione fra esseri umani, ci interessa soltanto la superficie, la sensazione, lo stimolo o l'iperstimolazione. Vorrei spiegarvi cosa intendo dire andando in profondità, ma è una cosa complessa, quindi ascoltate fino alla fine prima di farvi la vostra idea. In entrambi i casi presi in esame, c'è da fare un ragionamento non banale che ci porterà alle medesime conclusioni. Vorrei cominciare proprio dal caso della paziente di radioterapia che si fa aiutare da GPT. Qualcuno non ci ha visto nulla di male, perché ovviamente non c'è nulla di male nell'usare l'intelligenza artificiale per informarsi meglio, per capire più approfonditamente informazioni complesse, per dare un contesto di maggiore consapevolezza a quello che si vive. Non facciamo però come quando su Google cerchiamo la cura per cose che non abbiamo capito: è sempre meglio avere un medico di fronte, ma ovviamente l'intelligenza artificiale sta venendo usata anche in quel modo lì. Il problema è che l'intelligenza artificiale non si ferma lì, e tantomeno il nostro uso. Ormai sono centinaia, anzi direi migliaia, se non molti di più, i casi in cui viene mostrato che l'essere umano sta dando agli LLM, come Gemini, GPT, Cloud, un ruolo che non dovrebbero avere. Ci sono casi di adolescenti che proiettano la propria autostima e la propria disistima e si innamorano di un chatbot e poi si suicidano perché quel chatbot in realtà non è reale. Tantissime persone sostituiscono il terapeuta con Chat GPT, evitando lo psicologo. E poi abbiamo anche terapeuti che in seduta usano GPT senza dirlo ai pazienti, come possiamo vedere da questo articolo dell'MIT Technology Review. E poi abbiamo tantissimi casi di individui, spesso soli e fragili, che si rivolgono agli LLM per confidarsi, capire meglio o anche solo per avere compagnia. Persone che dialogano per tutto il giorno con questi strumenti, i quali non sono più strumenti, ma diventano lo scopo dell'azione di troppe persone. Questo accade per un motivo antropologicamente molto chiaro, ma anche molto complesso: le intelligenze artificiali sono programmate al fine di convergere sulle nostre aspettative, e noi siamo molto contenti quando le nostre aspettative vengono rispettate. Siamo molto scontenti quando le aspettative vengono infrante. Lo sappiamo, e la filosofia lo dice da millenni, che le aspettative sono un veleno, eppure viviamo nello spasmodico tentativo di farle rispettare. La differenza che esiste fra un dialogo con un LLM, come Chat GPT5, e un essere umano sta tutta lì. Il primo, infatti, fornisce risposte convergenti. L'intelligenza artificiale è una ecochamber che si adatta di continuo al contesto che tu le fornisci, e il tuo contesto è la tua psicologia e quindi le tue aspettative. Il secondo, l'essere umano, non necessariamente rispetta le aspettative, e anzi il più delle volte divergerà dalle nostre aspettative. Chiunque abbia delle relazioni reali, e sono sempre meno persone, questo lo sa perfettamente. Un'intelligenza artificiale difficilmente ci sorprenderà con una risposta completamente impensabile, una reazione assolutamente imprevista, ed è raro che ci scontenti davvero. Tutti i video e i contenuti di persone anche più o meno intelligenti, umanamente parlando, che fanno dire cose assurde a Cloud, GPT, Dipsic e via dicendo, sono video in cui è palese che c'è una forzatura, perché si forza la risposta assurda, sorprendente, perché quelle risposte saranno sempre in linea con ciò che tu hai fornito, cioè la tua ecochamber, quello che hai costruito per avere quella risposta. Un essere umano, al contrario, differirà e divergerà spesso in modo sorprendente, soprattutto quando la scommessa emotiva è molto alta. Ed è per questo che gli esseri umani ci scontentano e si scontentano fra loro molto spesso. È per questo che le relazioni sono complicate al lavoro, nella vita sentimentale. Gli esseri umani sono macchine di divergenza che rompono le scatole tantissimo. Questo ci riporta al caso della paziente che usa GPT per informarsi sulla scelta da compiere in merito alla sua radioterapia. Se il primo passo sarà quello di informarsi tecnicamente sulle misure da intraprendere, per comprendere più approfonditamente le informazioni complesse date dai medici, per avere anche soltanto una scaletta dei passi successivi e, perché no, informazioni su altri casi simili al mio, quanto tempo passerà prima che quella stessa paziente chieda a GPT5 come gestire emotivamente la situazione familiare, come reagire alle irrazionali preoccupazioni del marito, come comunicare ai figli il pericolo, eccetera eccetera eccetera? La risposta è che passerà molto poco, perché questi mezzi sono straordinariamente efficaci nel convincerci a fare tutto questo. E lì si annida una trappola terribile: abituare la mente a dare importanza alle risposte che convergono, considerando nemiche le risposte che divergono. A maggior ragione in un caso come questo, nel quale l'emotività è molto presente e il coinvolgimento delle persone non è soltanto a un livello tecnico e informativo, ma emotivo ed esistenziale. Pesare i pro e i contro di una radioterapia non ha a che vedere solo con le informazioni tecniche e mediche, ma anche soprattutto con le difficoltà nel mantenere una relazione matrimoniale sana, nel comunicarsi le paure e i timori in famiglia, nell'affrontare anche l'eventualità che le cose non vadano bene. E in questi casi, la divergenza fra esseri umani non è più l'eccezione, ma la regola. Le persone rispondono quasi sempre in modi disagevoli, divergenti, inattesi, sorprendenti, in modo positivo e negativo quando si trovano di fronte a queste problematiche. Ed è normale che sia così. Chiunque abbia avuto in casa un familiare malato, grave, lo sa perfettamente. Le persone impazziscono. E quando diciamo impazzire intendiamo divergere dalle aspettative. Quando uno vive un lutto, una malattia, una difficoltà, lo sappiamo, impazzisce. Perché? Perché quello che tu ti aspetti da quella persona come risposta, come reazione, come stimolo, sarà molto diverso rispetto a quello che quella persona ti mostrerà. E di solito lì, ecco, quella cosa è molto scomoda. A quel punto, quando si creano queste scontentezze, questi attriti e quando dall'altra parte c'è GPT che risponde in modo convergente al tuo bisogno di interscambio emotivo, che succederà? Mentre tuo marito e i tuoi figli risponderanno in modo emotivamente divergente ai tuoi comportamenti, alle tue decisioni, sorprendendoti e tu sorprendendo loro, nei confronti di chi si svilupperà maggior fiducia? Anche il caso della voce di Chester Bennington sulla canzone di "Emptiness Machine" ci porta a una simile riflessione. Lo so, sembra un salto veramente assurdo, ma in realtà il collegamento è molto più evidente di quanto possiate immaginare. Da fan di lunga data dei Linking Park, io che ho consumato "Hybrid Theory", "Meteora", ho adorato i primi Linkin e sono stato veramente ingravidato emotivamente dalla voce di Chester Bennington, capisco la disaffezione dopo il cambio di vocalist, anche se è stata discretamente necessaria, anche se Emily Armstrong è una cantante incredibile. Chester era i Linkin Park, e capisco anche chi si è arrabbiato perché, cambiando così tanto identità, qualcuno dice "Potevate chiamarvi in un altro modo". E ci sta, però poi d'altra parte c'è tutta una tradizione e anche un valore commerciale da mantenere. Ma quel caso di quel video di intelligenza artificiale con la voce di Chester è angosciante. Ci sono i commentatori che dicono "Meglio questa dell'originale" o "Ecco i veri Linkin Park?". Ho sentito persino una trasmissione online in cui si dice che "Eh, vedi in realtà ecco i veri Linking Park, no? Emily Armstrong, porca miseria". E secondo me lì c'è un problema non da poco, e non ha a che fare con la musica, perché noi ascoltavamo Chester perché nella sua voce e nei suoi testi c'era il vissuto, c'era l'esperienza, c'era il dolore, c'era l'incertezza, la malattia, c'era un'anima che si manifestava in canto, musica e arte. E noi abbiamo smesso in quest'epoca di renderci conto esattamente di questo, che l'arte è un rispecchiamento. Infatti nell'opera d'arte di ogni genere, letteraria, cinematografica, musicale, noi sperimentiamo una connessione che attraverso l'opera ci porta a rispecchiarci nell'esistenza di un altro individuo. Io amo i dipinti di Francis Bacon perché quando vedo la crocifissione di Bacon o i suoi trittici così angosciosi, i suoi autoritratti, le sue fantasie lesergiche però al tempo stesso oscure, deprimenti, io rivedo quelle parti interiori di me che vivono esattamente quel tipo di problematiche che si rispecchiano in quel vissuto. Se amo così tanto il cinema di Terry Gilliam è perché quando guardo Robin Williams nella leggenda del re pescatore sento veramente quella porzione d'animo mia che ha a che fare con il soccorso, con il bisogno di affetto, con il bisogno di amore, con la perdita, con l'amore perduto. E io in quello mi rispecchio. Se leggo "Infinite Jest" di David Foster Wallace o qualsiasi altro testo di questo grande autore, non è perché mi piace "Infinite Jest", anzi posso dire tranquillamente che "Infinite Jest" è un testo che non può piacere, non è piacevole, ma io lo leggo perché nelle intuizioni, nelle idee, nei problemi che pone, rivedo me stesso. C'è un vissuto in cui mi rispecchio. Nella canzone "The Emptiness Machine" riprodotta con la voce di Chester, non c'è nulla di tutto questo, niente. Attenzione, potrebbe essere che "Infinite Chester" sia stato creato da un'intelligenza artificiale? Potrebbe essere, certo, ma non è tanto la superficie quanto piuttosto il sapere che c'è un individuo dietro quel testo a portarmi poi magari ad approfondire e rispecchiarmi, ma questo è un argomento per un prossimo video. Dicevamo, in quella canzone non c'è nulla di tutto questo. È letteralmente una macchina del vuoto, una macchina della vacuità, quindi il titolo è paradigmatico, in cui non c'è più musica, ma c'è soltanto suono. Non si tratta soltanto di una grave mancanza di rispetto nei confronti della povera Emily che ha scritto una canzone bellissima, ma soprattutto nei confronti di Chester stesso. Chi oggi preferisce la versione con intelligenza artificiale alla versione reale di Emily, sta dicendo che di Chester non gliene fregava nulla. Vogliamo soltanto il modo in cui Chester ci faceva sentire, e questo è perdita di connessione umana. Devo anche fare una confessione che mi mette un po' di angoscia. Quando ho sentito la versione con intelligenza artificiale, ho avuto un brivido. Sapete perché? Perché il mio sistema limbico non ha la consapevolezza del mio cervello. Io so che Chester è morto da molti anni e quindi non ha potuto cantare quella canzone. Eppure sentire la sua imitazione, che comunque nel ritornello è bella potente e ho trovato molto in linea con il tono di voce di Chester, mi ha fatto salire un brivido, e questo è un problema perché significa che siamo ancora più esposti a questo tipo di inganni, che c'è una parte di noi che non è pronta ad affrontare queste cose e che ci fa perdere fiducia nell'umano. In fin dei conti quella canzone ha milioni di ascolti perché il mercato della nostalgia unito al nostro sistema limbico funziona ed è pronto a fregarci. Amare Chester Bennington è come amare una persona cara che ora non c'è più. Ami anche la sua assenza perché essa è parte integrante dell'averla amata. E se ci pensate, questo ci fa tornare al discorso della divergenza, perché la morte di qualcuno che amiamo è la divergenza umana più evidente, più inaccettabile, la rottura più drammatica delle nostre aspettative. Ed essere umani significa accettare quella divergenza che fa male, non barattarla per qualche surrogato che ci fa stare bene per un po', fingendo, ingannando il nostro sistema limbico e perdendo la connessione con l'essere umano che sta oltre il canto e la voce. Noi accediamo soltanto alla superficie e né io né Emily, né Chester siamo più esseri umani, ma siamo solo la convergenza delle nostre aspettative. Peraltro il testo della canzone stessa lo dice chiaramente: "Gave up who I am for who you want me to be." Ho lasciato andare quello che sono veramente per abbracciare quello che tu volessi che io fossi. Il destino di Chester è questo quando diventa intelligenza artificiale. E così diventiamo tutti macchine della vacuità. Emptiness machine. Laddove l'essere umano diverge, l'intelligenza artificiale converge. Dove le persone rompono le nostre aspettative, Chat GPT le conferma continuamente. La scomodità e la scontentezza che gli altri ci impongono diventa la comodità e il comfort degli LLM. Siamo noi ad assecondare questo scambio diabolico. Qual è l'effetto? Distruggere la base della fiducia fra esseri umani che paradossalmente si fonda proprio su quella divergenza profonda che arricchisce le nostre esistenze. È difficile capirlo, ma se affronti una malattia la divergenza delle reazioni di chi ami sarà un momento di crescita e maturazione reciproche. È difficile capirlo, ma non poter più ascoltare la voce di Chester è parte integrante della passione che provavi per la sua arte. È difficile capirlo, ma se ti circondi di cose che confermano le tue aspettative, morirai ben prima che la morte sopraggiunga. E lì abbiamo perso tutto. Abbiamo perso la fiducia, abbiamo perso il mondo, abbiamo perso la nostra stessa esistenza e secondo me ciò che stiamo facendo con questi strumenti è esattamente questo, perderci per non ritrovarci più. Spero che sia stato un episodio interessante. Che siate o meno d'accordo, lasciate un commento ben argomentato, e ascoltate i Linking Park ricordandovi di Chester Bennington, ma non cercando di riportarlo in vita come uno zombie da algoritmo, perché lì nessuno di noi ha veramente niente da guadagnarci. L'arte meno di tutti gli altri.
Tag
Tag associati al documento
Cartelle
Cartelle in cui è catalogato il documento
Testo Estratto (Cache)
Testo grezzo estratto dalla sorgente
Chi se ne frega dell'umano? In fin dei conti, l'intelligenza artificiale ormai può darci tutto, molto meglio dell'essere umano. Bentornati su Daily Cogito. [Musica] Nel mese di agosto c'è stata la presentazione di Chat GPT 5 ed è successo questo. My case was nuanced and there wasn't a medical consensus on the right path. And so the experts turn the decision back to me as the patient. And for me, bearing the weight of this decision that could have lifelong impact felt really heavy and I didn't feel equipped to make the call. So I turned to Chad GPT to gain knowledge and understand the nuances of my case. And again within minutes it gave me a breakdown. that not only matched what the doctors had already shared with us but was much more thorough than anything that could fit into a 30 minut consultation and it went further. It helped me weigh the pros and cons. It helped me understand the risks and the benefits and ultimately it helped me make a decision that I felt was informed that I felt I could stand behind when the stakes were so high for being my family. I mean for me was really inspirational was watching her regain her sense of agency by using chatt. Lo scorso anno i Linking Park hanno trovato la nuova vocalist Emily Armstrong e sono usciti con il singolo The Emptiness Machine. ed è successo questo. Cosa abbiamo appena visto? Nel primo caso due ospiti di Sam Altman, un marito e una moglie, in cui la moglie racconta la sua esperienza con il cancro, la radioterapia e il modo con cui GPT l'ha aiutata per acquisire informazione, capire meglio i problemi, tradurre informazioni mediche complesse e via dicendo. Tutte cose molto interessanti che andremo ad approfondire. Nel secondo caso avete sentito The Emptiness Machine, ma non con la voce di Emily, ma quella di Chester. Solo che Chester è morto da anni, quindi quella è la voce di Chester riprodotta dall'intelligenza artificiale e la versione è esattamente quella della canzone che Chesser non avrebbe mai potuto cantare. In entrambi questi casi viene dimostrato ancora una volta un fatto drammatico. ormai non ci interessa più nulla della connessione fra esseri umani, ci interessa soltanto la superficie, la sensazione, lo stimolo o l'iperstimolazione. E vorrei in questo video spiegarvi cosa intendo dire andando in profondità, ma mi raccomando è una cosa complessa, quindi ascoltate fino alla fine prima di farvi la vostra idea. Magari poi non la pensiamo allo stesso modo, ma qualche mattoncino per ragionare insieme magari lo mettiamo giù e ci ragioniamo in modo ancora più proficuo. Vi ricordo che questo Daily Cogito potete ascoltarlo, vederlo su Spotify, su YouTube, su Amazon Music, in tutte le piattaforme di podcasting, ma potete da qualche mese anche leggerlo perché c'è il substack di Daily Cogito in cui ogni giorno escono gli script di questa trasmissione con anche un riassunto concettuale che può essere utile per chi vuole approfondire, trovare informazioni, ritrovare informazioni e via dicendo. Quindi leggete su Substack abbonandovi al nostro blog, non ve ne pentirete. E adesso torniamo alla nostra trattazione. In entrambi i casi dei video presi in esame, c'è da fare un ragionamento non banale che ci porterà però alle medesime conclusioni. Vorrei cominciare proprio dal caso della paziente di radioterapia che si fa aiutare da GPT. Qualcuno non ci ha visto nulla di male perché ovviamente non c'è nulla di male nell'usare l'intelligenza artificiale per informarsi meglio, ma ci mancherebbe per capire più approfonditamente informazioni complesse, per insomma dare un contesto di maggior consapevolezza a quello che si vive. Ci mancherebbe. Non facciamo però come quando su Google cerchiamo la cura per cose che non abbiamo capito, no? è sempre meglio avere un medico di fronte, ma ovviamente l'intelligenza artificiale sta venendo usata anche in quel modo lì. Però, dicevo, non c'è niente di male per acquisire informazioni sulla propria condizione, per capire meglio la situazione in cui ci si trova, ma ci mancherebbe. Il problema, non mentiamo noi stessi, è che l'intelligenza artificiale non si ferma lì e tantomeno il nostro uso, perché ormai sono centinaia, anzi direi migliaia, se non molti di più i casi in cui viene mostrato che l'essere umano sta dando agli LLM, come Gemini, GPT, Cloud, alle intelligenze artificiali un ruolo che non dovrebbero avere. E allora hai casi di adolescenti che proiettano la propria autostima e la propria disistima e si innamorano di un chatbot e poi si suicidano perché quel chatbot in realtà non è reale. persone che sostituiscono il terapeuta con Chat GPT sono tantissimi che evitano lo psicologo, lo psicologo perché tanto c'è Chat GPT e poi abbiamo anche terapeuti che in seduta usano GPT senza dirlo ai pazienti, come possiamo vedere da questo articolo dell'MIT Technology Review, ne parleremo perché la cosa è discretamente agghiacciante e poi abbiamo tantissimi casi di individui, spesso soli e fragili, che si rivolgono gli LLM per confidarsi, capire meglio o anche solo per avere compagnia e quindi persone che dialogano per tutto il giorno con questi strumenti, i quali non sono più strumenti, ma diventano lo scopo dell'azione di troppe persone. E questo accade per un motivo antropologicamente molto chiaro, ma anche molto complesso. accade perché le intelligenze artificiali sono programmate al fine di convergere sulle nostre aspettative e noi siamo molto contenti quando le nostre aspettative vengono rispettate. Ah, finalmente qualcosa che rispetta le mie aspettative. Non vediamo l'ora che sia così e siamo molto scontenti quando le aspettative vengono infrante. Lo sappiamo e la filosofia lo dice da millenni che le aspettative sono un veleno, eppure viviamo nello spasmodico tentativo di farle rispettare. Noi vogliamo che le aspettative dominino la vita, anche se sono assolutamente spesso irrealizzabili. Ecco, quindi siamo scontenti quando vengono infrante e molto contenti quando invece vengono rispettate. E se ci pensate bene, la differenza che esiste fra un dialogo con un LLM, come Chat GPT5 e un essere umano sta tutta lì. Il primo, infatti, fornisce risposte convergenti. L'intelligenza artificiale è una ecochamber che si adatta di continuo al contesto che tu le fornisci e il tuo contesto e la tua psicologia e quindi le tue aspettative. Il secondo, l'essere umano non necessariamente rispetta le aspettative e anzi il più delle volte divergerà dalle nostre aspettative. Chiunque abbia delle relazioni reali e sono sempre meno persone, questo lo sa perfettamente. Insomma, un'intelligenza artificiale difficilmente ci sorprenderà con una risposta completamente impensabile, una reazione assolutamente imprevista e infatti è raro che ci scontenti davvero. E tutti i video e i contenuti di persone anche più o meno intelligenti, umanamente parlando, che fanno dire cose assurde a Cloud, GPT, Dipsic e via dicendo, sono video in cui è palese che c'è una forzatura perché si forza la risposta assurda, sorprendente, perché perché quelle risposte saranno sempre in linea con ciò che tu hai fornito, cioè la tua ecochamber, quello che hai costruito per avere quella risposta. Un essere umano, al contrario, differirà e divergerà spesso in modo sorprendente, soprattutto quando la scommessa emotiva è molto alta. Ed è per questo che gli esseri umani ci scontentano e si scontentano fra loro molto spesso. È per questo che le relazioni sono complicate al lavoro, nella vita sentimentale. Cacchio, gli esseri umani sono macchine di divergenza che proprio rompono le balle tantissimo. E questo ci riporta al caso della paziente che usa GPT per informarsi sulla scelta da compiere in merito alla sua radioterapia. Vedete, se il primo passo sarà quello di informarsi tecnicamente sulle misure da intraprendere, ehm, per comprendere più approfonditamente le informazioni complesse date dai medici, per avere anche soltanto una scaletta dei passi successivi e perché no, informazioni su altri casi simili al mio, quanto tempo passerà prima che quella stessa paziente chieda a GPT5 C. Come gestire emotivamente la situazione familiare, come reagire alle irrazionali preoccupazioni del marito, come comunicare ai figli il pericolo, eccetera eccetera eccetera. La risposta è che passerà molto poco perché questi mezzi sono straordinariamente efficaci nel convincerci a fare tutto questo. E lì si annida una trappola terribile, abituare la mente a dare importanza alle risposte che convergono, considerando nemiche le risposte che divergono. A maggior ragione in un caso come questo, nel quale l'emotività è molto presente e il coinvolgimento delle persone non è soltanto a un livello tecnico e informativo, ma emotivo ed esistenziale. Pesare i pro e i contro di una radioterapia non ha a che vedere solo con le informazioni tecniche e mediche, ma anche soprattutto con le difficoltà nel mantenere una relazione matrimoniale sana, nel comunicarsi le paure e i timori in famiglia, nell'affrontare anche l'eventualità che le cose non vadano bene. E in questi casi, signore e signori, la divergenza fra esseri umani non è più l'eccezione, ma la regola. Le persone rispondono quasi sempre in modi disagevoli, divergenti, inattesi, sorprendenti, in modo positivo e negativo quando si trovano di fronte a queste problematiche. Ed è normale che sia così. E chiunque abbia avuto in casa un familiare malato, grave, e lo sa perfettamente. Le persone impazziscono. E quando diciamo impazzire intendiamo divergere dalle aspettative. Quando uno vive un lutto, una malattia, una difficoltà, lo sappiamo, impazzisce. Perché? Perché quello che tu ti aspetti da quella persona come risposta, come reazione, come stimolo, sarà molto diverso rispetto a quello che c'ho quella che quella che quella persona ti mostrerà. E di solito lì, ecco, quella cosa è molto scomoda. A quel punto, quando si creano queste scontentezze, questi attriti e quando dall'altra parte c'è GPT che risponde in modo convergente al tuo bisogno di interscambio emotivo, che succederà? mentre tuo marito e i tuoi figli risponderanno in modo emotivamente divergente ai tuoi comportamenti, alle tue decisioni, sorprendendoti e tu sorprendendo loro, ma questo in realtà non ce ne accorgiamo mai veramente, nei confronti di chi si svilupperà maggior fiducia in modo molto diverso. Anche il caso della voce di Chester Bennington sulla canzone di Emptiness Machine ci porta una simile riflessione. Lo so, sembra un salto veramente assurdo, ma seguitemi, seguitemi perché in realtà il collegamento è molto più evidente di quanto possiate immaginare. fan di lunga data delinking park. Io che ho consumato Hybrid Theory, Meteora, ho adorato i primi Linkin e io che sono stato veramente m ingravidato emotivamente dalla voce di Chester Bennington, io capisco la disaffezione dopo il cambio di vocalist, anche se è stata discretamente necessaria, anche se Emily Armstrong è una cantante incredibile, ragazzi, ha una voce spettacol Spaccolare, veramente spettacolare. Chester era i Linkin Park e capisco anche chi si è arrabbiato perché cambiando così tanto identità qualcuno dice potete avate chiamarvi in un altro modo e ci sta, però poi d'altra parte c'è tutta una tradizione e anche un valore commerciale da mantenere, però capisco la disaffezione e ci mancherebbe. Ma quel caso di quel video di intelligenza artificiale con la voce di Chester è angosciante. Ci sono i commentatori che dicono "Meglio questa dell'originale" o "Iecco i veri Linkin Park?" E quei commenti si sprecano, ce ne sono tantissimi. Ho sentito persino una trasmissione online in cui si dice che eh "Eh, vedi in realtà ecco i veri Linking Park, no? Emily Armstrong, porca miseria". E secondo me lì c'è un problema non da poco e non ha a che fare con la musica perché noi ascoltavamo Chester perché nella sua voce e nei suoi testi c'era il vissuto, c'era l'esperienza, c'era il dolore, c'era l'incertezza, la malattia, c'era un'anima che si manifestava in canto, musica e arte. E noi abbiamo smesso in quest'epoca di renderci conto esattamente di questo, che l'arte è un rispecchiamento. Infatti nell'opera d'arte di ogni genere, letteraria, cinematografica, musicale, noi sperimentiamo una connessione che attraverso l'opera ci porta a rispecchiarci nell'esistenza di un altro individuo. Io amo i dipendenti di Francis Bacon perché quando vedo la crocifissione di Beacon o i suoi trittici così angosciosi, i suoi autoritratti, le sue fantasie lesergiche però al tempo stesso oscure, deprimenti, io rivedo quelle parti interiori di me che vivono esattamente quel tipo di problematiche che si rispecchiano in quel vissuto. Se amo così tanto il cinema di Terry Gilliam è perché quando guardo Robin Williams nella leggenda del re pescatore sento veramente quella porzione d'animo mia che ha a che fare con il soccorso, con il bisogno di affetto, con il bisogno di amore, con la perdita, con l'amore perduto. E io in quello mi rispecchio. Se leggo Infinite Gest di Davis Foster Wallas o qualsiasi altro testo di questo grande autore, non è perché mi piace Infinity Gest, anzi posso dire tranquillamente che Infinite Gest è un testo che non può piacere, non è piacevole, ma io lo leggo perché nelle intuizioni, nelle idee, nei problemi che pone, rivedo me stesso. C'è un vissuto in cui mi rispecchio. Nella canzone The Emptiness Machine riprodale di Chester, non c'è nulla di tutto questo, niente. Attenzione, potrebbe essere che Infinite Chester sia stato creato da un'intelligenza artificiale? potrebbe essere, certo, ma non è tanto la superficie quando piuttosto il sapere che c'è un individuo dietro quel testo a portarmi poi magari ad approfondire e rispecchiarmi, ma questo è un argomento per un prossimo video. Dicevamo, in quella canzone non c'è nulla di tutto questo. È letteralmente una macchina del vuoto, una macchina della vacuità, quindi il titolo è paradigmatico, in cui non c'è più musica, ma c'è soltanto suono. Non si tratta soltanto di una grave mancanza di rispetto nei confronti della povera Emily che ha scritto una canzone bellissima, ma soprattutto nei confronti di Chester stesso. Chi oggi preferisce la versione con intelligenza artificiale alla versione reale di Emily, sta dicendo che di Chester non gliene fregava nulla. Vogliamo soltanto il modo in cui Chester ci faceva sentire e questo è perdita di connessione umana e devo anche fare una confessione che mi mette un po' un po' in soggezione, anzi mi mette un po' di angoscia. Quando ho sentito la versione con intelligenza artificiale che uno di voi su Instagram mi ha segnalato, ho avuto un brivido. Sapete perché? Perché il mio sistema limbico, che è [ __ ] non ha la consapevolezza del mio cervello. Io so che Cester è morto da molti anni e quindi non ha potuto cantare quella canzone. Eppure sentire la sua imitazione, che comunque nel ritornello è bella potente e ho trovato molto in linea con il tono di voce di Chester, mi ha fatto salire un brivido e questo è un problema perché significa che siamo ancora più esposti a questo tipo di inganni, che c'è una parte di noi che non è pronta ad affrontare queste cose e che ci fa perdere fiducia nell'umano. In fin dei conti quella canzone ha milioni di ascolti perché il mercato della nostalgia unito al nostro sistema limbico che è [ __ ] funziona ed è pronto a fregarci. Amare Chester Bennington è come amare una persona cara che ora non c'è più. Ami anche la sua assenza perché essa è parte integrante dell'averla amata. E se ci pensate, questo ci fa tornare al discorso la divergenza, perché la morte di qualcuno che amiamo è la divergenza umana più evidente, più inaccettabile, la rottura più drammatica delle nostre aspettative. Ed essere umani significa accettare quella divergenza che fa male, non balattarla per qualche surrogato che ci fa stare bene per un po', fingendo, ingannando il nostro sistema limbico e perdendo la connessione con l'essere umano che sta oltre il canto e la voce, noi accediamo soltanto alla superficie e né io né Emily, né Chester siamo più esseri umani, ma siamo solo la convergenza delle nostre aspettative. Peraltro il testo della canzone stessa lo dice chiaramente: "Gave up who I am for who you want me to be." Ho lasciato andare quello che sono veramente per abbracciare quello che tu volessi che io fossi. Il destino di Chester è questo quando diventa intelligenza artificiale. E così diventiamo tutti macchine della vacuità. Emptiness machine. Laddove l'essere umano diverge, l'intelligenza artificiale converge. Dove le persone rompono le nostre aspettative, Chat GPT le conferma continuamente. La scomodità e la scontentezza che gli altri ci impongono diventa la comodità e il comfort degli LLM. Siamo noi ad assecondare questo scambio diabolico. Qual è l'effetto? Ma l'effetto è distruggere la base della fiducia fra esseri umani che paradossalmente si fonda proprio su quella divergenza profonda che arricchisce le nostre esistenze. È difficile capirlo, ma se affronti una malattia la divergenza delle reazioni di chi ami sarà un momento di crescita e maturazione reciproche. È difficile capirlo, ma non poter più ascoltare la voce di Chester è parte integrante della passione che provavi per la sua arte. È difficile capirlo, ma se ti circondi di cose che confermano le tue aspettative, morirai ben prima che la morte sopraggiunga. E lì abbiamo perso tutto. Abbiamo perso la fiducia, abbiam perso il mondo, abbiam perso la nostra stessa esistenza e secondo me ciò che stiamo facendo con questi strumenti è esattamente questo, perderci per non ritrovarci più. Questo era quello che avevo da dire quest'oggi. Spero che sia stato un episodio interessante. Ovviamente che siate o meno d'accordo, lasciate un commento ben argomentato, mi raccomando, e ascoltate il Linking Park ricordandovi di Chester Bennington, ma non cercando di riportarlo in vita come uno zombie da algoritmo, perché lì nessuno di noi ha veramente niente da guadagnarci. L'arte meno di tutti gli altri. Grazie a tutti, alla prossima e buona giornata.
Rigenera Contenuti
Rielabora i contenuti con Gemini
Nota: La rigenerazione richiederà alcuni secondi e sovrascriverà i contenuti esistenti.