Google Discover usa l’AI per riassumere titoli, diffonde fake news

Secondo Google i titoli degli articoli su Discover sono troppo lunghi, quindi si possono sintetizzare con l’AI. Spoiler: non funziona. Gemini sta riassumendo i titoli in modo talmente sbagliato da trasformare ipotesi in affermazioni, sfumature in verità assolute e articoli ben scritti in titoli che sembrano generati da un bot ubriaco.

Google testa AI su Discover: titoli senza senso e disinformazione

The Verge ha scoperto il disastro mentre testava la nuova funzione che Google sta distribuendo (più o meno) silenziosamente nella scheda Discover di Android. Quello che dovrebbe essere un sistema per rendere i titoli più rapidi ed efficienti si è rivelato una macchina per diffondere disinformazione involontaria. E non sono errori marginali. Sono strafalcioni che cambiano completamente il significato degli articoli.

Un articolo che faceva solo ipotesi sul possibile prezzo della Steam Machine è stato trasformato da Gemini in “Rivelato il prezzo della Steam Machine “. Un forse è diventato un fatto. Una speculazione è diventata una certezza. Per chi legge solo i titoli (cioè praticamente tutti su Discover), la differenza è enorme.

Altro caso: un articolo che analizzava come i dipendenti Microsoft integrano l’AI nel flusso di lavoro quotidiano è diventato “Gli sviluppatori Microsoft usano l’AI?”. Una domanda talmente ovvia, che la risposta è scontata. Ma l’articolo originale non poneva quella domanda banale, parlava di come lo fanno, non se lo fanno. L’AI ha preso un contenuto interessante e lo ha ridotto a una domanda inutile.

Ma il caso più eclatante è quello delle schede grafiche AMD vs Nvidia. Gemini ha generato un titolo che affermava “Le schede grafiche AMD si vendono meglio di quelle Nvidia”. Suona come una notizia bomba,
giusto? AMD che finalmente supera il gigante Nvidia nelle vendite!

Il problema è che l’articolo originale si basava sull’esperienza di un singolo rivenditore tedesco che aveva venduto più GPU AMD di Nvidia in… una settimana. Una settimana. Un negozio. In Germania. E l’AI di Google ha preso quel dato super-specifico e limitato e lo ha trasformato in un’affermazione generale sul mercato globale.

È fake news. Non intenzionale, ma fake news lo stesso. Perché le persone vedranno quel titolo, ci crederanno, e magari lo condivideranno.

Titoli che non hanno alcun senso

E poi ci sono i titoli che semplicemente non vogliono dire niente. “Salvataggio del programma di raccolta 1”. “Il dibattito acceso sul tag AI”. Sembrano siano stati tradotti da una lingua sconosciuta. Non comunicano informazioni, non incuriosiscono, non invitano al clic. Sono semplicemente… lì. Parole messe insieme in un ordine che forma una frase, ma non hanno alcun significato comprensibile.

L’ossessione di Google per l’AI…

Google sta infilando l’intelligenza artificiale dappertutto. Chrome, Android Auto, Google Home, Google Foto. Ogni applicazione, ogni angolo di Android dove è possibile piazzare anche la più piccola funzionalità basata su Gemini prima o poi la riceverà. La strategia è chiara, l’AI deve diventare indispensabile.

Ma questa voglia spasmodica di integrare l’AI ovunque sta producendo risultati disastrosi. Riassumere titoli di articoli sembra un compito semplice. Gemini legge il titolo, e lo accorcia mantenendo il significato principale. Facile, no? Macché. I titoli contengono sfumature che, se eliminate, ribaltano completamente il significato.

Un test silenzioso che doveva restare tale

A differenza delle sue solite pratiche, Google non ha annunciato questa funzionalità. È un test distribuito silenziosamente ad alcuni utenti, probabilmente proprio perché sa che non è pronta. E infatti, non lo è.

Il problema è che anche un test in sordina raggiunge migliaia o milioni di persone. E quelle persone vedono titoli sbagliati, fake news involontarie, affermazioni distorte. Anche se è solo un test, l’impatto sulla percezione della realtà è reale.

Discover è pensato per permettere alle persone di informarsi velocemente sui temi che li interessano. Ma se l’AI trasforma speculazioni in certezze, contesti specifici in affermazioni generali, e genera titoli incomprensibili, diffonde solo disinformazione con l’etichetta di Google, che la rende ancora più credibile e pericolosa.

E tutto questo per risolvere un problema che probabilmente non esisteva nemmeno. I titoli erano davvero troppo lunghi? Gli utenti si lamentavano? O Google semplicemente ci ha visto un’opportunità per ficcare l’AI da qualche altra parte e non si è fermata a chiedersi se fosse una buona idea?

​ 

Share this Post