← Torna ai documenti

ChatGPT e gli altri male sulle news: troppi errori, Gemini maglia nera

web Elaborato Creato il 2025-10-26
Modifica

Metadati

Hash
c083fe4eee5540af...
Data Pubblicazione
2025-10-22
Lingua
it
Ultimo Aggiornamento
2025-10-26 08:46

Sintesi Breve

Riassunto generato da Gemini (max 200 parole)

Una ricerca coordinata dall'EBU e guidata dalla BBC, con la partecipazione di giornalisti Rai, ha valutato l'accuratezza di chatbot AI come ChatGPT, Copilot, Gemini e Perplexity in 14 lingue, coinvolgendo 22 emittenti pubbliche di 18 Paesi. I risultati hanno evidenziato problemi significativi, soprattutto con Gemini, che ha mostrato un alto tasso di risposte inaccurate e difficoltà nel reperimento delle fonti. Lo studio sottolinea un problema sistemico e transfrontaliero, con implicazioni sociali preoccupanti, poiché un numero crescente di persone, specialmente i giovani, si affida ai chatbot per informarsi, spesso senza verificare le fonti. L'EBU sollecita le autorità a far rispettare le leggi sull'integrità delle informazioni e chiede un monitoraggio continuo degli assistenti AI, dato il loro rapido sviluppo, per tutelare la fiducia del pubblico e la partecipazione democratica. L'autore del testo esprime scetticismo verso i chatbot, evidenziando errori continui e la tendenza a ripetere domande precedenti in risposte errate.

Trascrizione Estesa

Testo rielaborato e formattato da Gemini

ChatGPT è un disastro, quasi ridicolo. Il 24 ottobre 2025, emerge un quadro preoccupante sull'affidabilità dei chatbot AI. Come recita il disclaimer ormai onnipresente, "l'intelligenza artificiale può commettere errori", un avvertimento che molti sembrano sottovalutare, sedotti dall'apparente perfezione linguistica di ChatGPT e simili. Una ricerca coordinata dall'Unione europea di radiodiffusione (EBU) e guidata dalla BBC, con la partecipazione di giornalisti Rai, ha evidenziato errori sostanziali e frequenti. Lo studio internazionale, presentato all'Assemblea Stampa dell'EBU a Napoli, ha coinvolto 22 emittenti pubbliche di 18 Paesi in 14 lingue. I giornalisti hanno esaminato circa 3.000 risposte fornite dai chatbot più diffusi (ChatGPT, Copilot, Gemini e Perplexity), valutandole in base a criteri quali accuratezza, fonti, argomentazione contestuale e capacità di distinguere opinioni da fatti. I risultati non sono stati incoraggianti. Gemini è risultato il chatbot con le performance peggiori: il 76% delle sue risposte presentava problemi significativi, più del doppio rispetto ai concorrenti. In particolare, ha mostrato difficoltà nel reperimento delle fonti. Sebbene alcuni miglioramenti siano stati riscontrati nel corso dei mesi, il tasso di errore rimane troppo elevato. La trasversalità della ricerca conferma la natura sistemica del problema. È comprensibile che le AI possano sbagliare, ma il problema sociale è che molte persone nel 2025 si affidano ai chatbot per informazioni su fatti e notizie di attualità, prendendole per buone. Spesso, chi non utilizza un motore di ricerca non è nemmeno incentivato a valutare la fonte delle informazioni. Questo fenomeno è in crescita, soprattutto tra i giovani: secondo il Digital News Report 2025 del Reuters Institute, il 7% di chi cerca notizie online utilizza assistenti AI, percentuale che sale al 15% tra gli under 25. "Questa ricerca dimostra in modo inequivocabile che queste carenze non sono episodi isolati, ma sistemiche, transfrontaliere e multilingue, e ciò mette a repentaglio la fiducia del pubblico", ha spiegato Jean Philip De Tender, Direttore Media e Vicedirettore Generale dell'EBU. "Quando le persone non sanno di cosa fidarsi, finiscono per non fidarsi affatto, e questo può ostacolare la partecipazione democratica." L'EBU e i suoi membri sollecitano le autorità di regolamentazione nazionali e comunitarie a far rispettare le leggi esistenti in materia di integrità delle informazioni, servizi digitali e pluralismo dei media. Sottolineano inoltre l'importanza di un monitoraggio indipendente e continuo degli assistenti di intelligenza artificiale, data la rapidità del loro sviluppo, e intendono proseguire la ricerca su base continuativa. Personalmente, ritengo ChatGPT un fallimento. L'ho testato per mesi e continua a sbagliare. Inoltre, memorizza parole chiave dalle mie domande precedenti e le ripropone nelle risposte successive, che sono ovviamente errate. Gemini è leggermente migliore, e lo uso occasionalmente su Android, dove sembra funzionare bene. Dipende, comunque, dall'uso che se ne fa. Siri, al contrario, non capisce mai nulla. La gente si fida ciecamente e chiede persino consigli basati su queste informazioni. Forse, dopo aver subito qualche delusione, smetteranno di farsi ingannare da sistemi che non comprendono il significato delle loro risposte. Forse. Con un po' di fortuna, e se i social media, con la loro indignazione e le bufale, non avranno distrutto quel poco che resta della fiducia nel genere umano, potremmo tornare a valorizzare l'umanità. Parafrasando un detto, è come se uno straccio sporco parlasse male di un altro straccio. Gemini, comunque, non capisce nulla e fornisce risposte completamente sbagliate. L'unico che sembra dare risposte più sensate e corrette è Grok. Il problema è che per capire che i chatbot possono commettere errori, occorre un certo livello di alfabetizzazione. Anche analizzando la fonte della ricerca EBU/BBC, si comprende che, sebbene il risultato possa essere veritiero, è stato ottenuto con metodi lontani da un approccio scientifico rigoroso. [Riferimenti a Netflix, Motorola, TCL, Samsung e Honor rimossi in quanto non pertinenti al tema principale.]

Cartelle

Cartelle in cui è catalogato il documento

Testo Estratto (Cache)

Testo grezzo estratto dalla sorgente

A me chatgpt e' un disastro! Fa quasi ridere
24 Ottobre 2025
"L'intelligenza artificiale può commettere errori", è il disclaimer che appare un po' ovunque e che qualcuno, probabilmente, sottovaluta, sedotto dall'italiano perfetto di ChatGPT e degli altri chatbot AI. Eppure di errori, per quanto ben "confezionati", ne commette, e ne commette parecchi e sostanziali, secondo una ricerca coordinata dall'Unione europea di radiodiffusione (EBU) e guidata dalla BBC, che tra gli altri ha visto partecipare dei giornalisti Rai.
Lo studio internazionale è stato presentato oggi a Napoli, all'Assemblea Stampa dell'EBU, e ha coinvolto 22 emittenti pubbliche di 18 Paesi in 14 lingue, una trasversalità che, sul tema dell'accuratezza delle AI, non ha precedenti. I giornalisti delle emittenti hanno vagliato circa 3mila risposte fornite dai chatbot AI più diffusi al mondo - ChatGPT, Copilot, Gemini e Perplexity - valutandole sulla base di alcuni criteri chiave: accuratezza, fonti, argomentazione contestuale e capacità di scindere le opinioni dai fatti. Non è andata bene.
A mal figurare più degli altri, secondo lo studio, è stato Gemini: il 76% delle risposte avevano problemi definiti significativi, una percentuale più che doppia rispetto a quelle dei competitor. Il chatbot di Google ha evidenziato scarse prestazioni nel reperimento delle fonti. In alcuni mesi, comunque, sono migliorati un po' tutti, ma il tasso di errore è ancora troppo elevato.
La trasversalità della ricerca conferma che il problema è sistemico.
Ci sta che le AI possano sbagliare, lo fanno oggi e continueranno in futuro. C'è tuttavia un problema sociale, perché molta gente, nel 2025, chiede ai chatbot informazioni relative a fatti e notizie di attualità e le prende per buone. Chi non usa un motore di ricerca, il più delle volte non è nemmeno spinto a valutare la fonte da cui proviene una determinata informazione.
Un fenomeno sociale in crescita, quello di chi si informa tramite i chatbot, che riguarda soprattutto i più giovani: secondo il Digital News Report 2025 del Reuters Institute, il 7% di chi cerca notizie online utilizza gli assistenti AI per reperirle, una percentuale che sale al 15% tra chi ha meno di 25 anni.
Questa ricerca dimostra in modo inequivocabile che queste carenze non sono episodi isolati - ha spiegato Jean Philip De Tender, Direttore Media e Vicedirettore Generale dell'EBU - . Sono sistemiche, transfrontaliere e multilingue, e crediamo che ciò metta a repentaglio la fiducia del pubblico. Quando le persone non sanno di cosa fidarsi, finiscono per non fidarsi affatto, e questo può ostacolare la partecipazione democratica.
L'EBU e i suoi membri stanno sollecitando le autorità di regolamentazione nazionali e comunitarie a far rispettare le leggi esistenti in materia di integrità delle informazioni, servizi digitali e pluralismo dei media. Sottolineano inoltre che un monitoraggio indipendente e continuo degli assistenti di intelligenza artificiale è essenziale dato il ritmo con cui si sviluppa, e stanno cercando di proseguire la ricerca su base continuativa.
E' un altra kxxata chatgpt, messo alla prova da mesi e sbaglia continuamente, poi memorizza una parola Che ho messo precedentemente come domanda e lui me la ripropone nelle risposte seguenti,tutte sbagliate ovviamente.
Gemini un poco meglio
Boo non mi sembra, ogni tanto usi gemini essendo integrato in android e funziona bene.
poi non so che usi ne fate.
in confronto, siri non capisce mai nulla
La gente ci crede, sì, e chiede anche consigli su cosa fare in base a quelle informazioni. Tempo che prenda un po' di tranvate, e forse smetteranno di farsi prendere in giro da sistemi che non capiscono nulla di quello che rispondono. Forse.
Con un po' di fortuna - se nel frattempo i social da indignazione e bufale non avranno distrutto quel poco che rimane della fiducia nel genere umano - può anche darsi che si torni a valorizzare l'umanità.
"secondo una ricerca coordinata dall'Unione europea di radiodiffusione (EBU) e guidata dalla BBC, che tra gli altri ha visto partecipare dei giornalisti Rai"
Ah beh, cencio sporco e logoro che dice male di straccio
gemini non capisce nulla, ti dà risposte completamente sbagliate, lunico che effettivamente da più risposte sensate e giuste è GROK
Per capire che i chatbot possono commettere errori occorre un certo livello di alfabetizzazione, questo è il problema
anche guardando la fonte si capisce che, sebbene il risultato della ricerca possa essere veritiero, esso è stato ottenuto con metodi che stanno agli antipodi di un sistema scientifico o di una ricerca con tutti i carismi
Netflix: tutti i film e le serie TV in arrivo a novembre 2025
Recensione Motorola Razr 60: ora è il pieghevole perfetto in offerta a 499 euro
Recensione TV TCL C6K: MiniLED entry-level ricco di funzionalità e 144Hz
Samsung Galaxy Z Fold 7 o Honor Magic V5: il confronto dopo due mesi | Video

Rigenera Contenuti

Rielabora i contenuti con Gemini

Nota: La rigenerazione richiederà alcuni secondi e sovrascriverà i contenuti esistenti.