Salta al contenuto principale


Google trasforma il web in una vetrina per l’AI! Un disastro a breve per l’economia digitale


Google sta trasformando il suo motore di ricerca in una vetrina per l’intelligenza artificiale, e questo potrebbe significare un disastro per l’intera economia digitale. Secondo un nuovo studio del Pew Research Center, solo l’1% delle ricerche che mostrano un riepilogo basato sull’intelligenza artificiale finisce per cliccare sulla fonte originale. Ciò significa che la stragrande maggioranza degli utenti non visita nemmeno i siti da cui provengono le informazioni.

La funzionalità AI Overview è stata introdotta nel 2023 e ha rapidamente iniziato a dominare i risultati di ricerca, sostituendo il tradizionale modello dei “10 link blu”. Invece di testi in tempo reale di giornalisti e blogger, gli utenti ricevono un riepilogo generato da algoritmi. Il problema è che questi riepiloghi non solo riducono il traffico sui siti, ma spesso portano ad altre fonti meno affidabili.

Questo è ciò che è successo con l’indagine di 404 Media sulle tracce generate dall’intelligenza artificiale per conto di artisti defunti. Nonostante le proteste e le successive azioni di Spotify, le ricerche su Google hanno inizialmente mostrato un riepilogo basato sull’intelligenza artificiale basato su un blog secondario, dig.watch , anziché sul materiale originale. In modalità Panoramica AI, l’articolo di 404 Media non è apparso affatto, ma solo sugli aggregatori TechRadar, Mixmag e RouteNote.

I produttori di contenuti originali stanno perdendo lettori, fatturato e la capacità di operare in modo sostenibile. Anche i contenuti di qualità stanno affogando in informazioni riconfezionate e create senza l’intervento umano. La creazione di falsi aggregatori di intelligenza artificiale è diventata onnipresente: ottengono traffico senza investire nel giornalismo.

A peggiorare le cose, l’IA Panoramica è facile da ingannare. L’artista Eduardo Valdés-Hevia ha condotto un esperimento pubblicando una teoria fittizia di encefalizzazione parassitaria. Nel giro di poche ore, Google ha iniziato a mostrarla come un fatto scientifico. Ha poi coniato il termine “Ingorgo da IA” – e ancora una volta, ha ottenuto lo stesso risultato. In seguito, è riuscito a mescolare malattie reali con altre fittizie, come la Dracunculus graviditatis – e l’IA, ancora una volta, non è riuscita a distinguere tra finzione e realtà.

Altri esempi: Google che dice agli utenti di mangiare la colla a causa di una barzelletta su Reddit, o che riporta la morte del giornalista ancora in vita Dave Barry. L’algoritmo non riconosce umorismo, satira o bugie, ma le presenta con assoluta certezza. Il pericolo non sta solo negli errori, ma anche nella scalabilità. Come osserva Valdés-Hevia, bastano pochi post su forum con un linguaggio “scientifico” perché una bugia venga spacciata per verità. Google diventa così inconsapevolmente uno strumento per diffondere disinformazione.

Il problema è sistemico. Il traffico di ricerca, che è stato a lungo la base della sopravvivenza di media e blog, sta scomparendo. L’ottimizzazione SEO non funziona più e le piccole imprese , come i grandi media, stanno subendo perdite. Invece di una maggiore concorrenza, assistiamo a un flusso centralizzato di errori e disinformazione, rafforzato dalla fiducia nel marchio Google. Alcune aziende offrono alternative: motori di ricerca senza pubblicità e filtri di contenuto basati sull’intelligenza artificiale. Ma finché Google rimarrà lo standard, gli utenti non otterranno ciò che cercano, ma ciò che l’algoritmo decide di mostrare.

In un commento ufficiale, Google ha definito la metodologia di Pew “non rappresentativa” e ha osservato che “reindirizza miliardi di clic ogni giorno”. Ma i dati raccontano una storia diversa: con le recensioni basate sull’intelligenza artificiale, le persone aprono meno siti web.

E questo sta lentamente ma inesorabilmente distruggendo l’ecosistema della conoscenza umana su Internet.

L'articolo Google trasforma il web in una vetrina per l’AI! Un disastro a breve per l’economia digitale proviene da il blog della sicurezza informatica.


Spotify Publishes AI-Generated Songs From Dead Artists Without Permission


Spotify is publishing new, AI-generated songs on the official pages of artists who died years ago without the permission of their estates or record labels.

According to his official Spotify page, Blaze Foley, a country music singer-songwriter who was murdered in 1989, released a new song called “Together” last week. The song, which features a male country singer, piano, and an electric guitar, vaguely sounds like a new, slow country song. The Spotify page for the song also features an image of an AI-generated image of a man who looks nothing like Foley singing into a microphone.

Craig McDonald, the owner of Lost Art Records, the label that distributes all of Foley’s music and manages his Spotify page, told me that any Foley fan would instantly realize “Together” is not one of his songs.

“I can clearly tell you that this song is not Blaze, not anywhere near Blaze’s style, at all,” he told me on a call. “It’s kind of an AI schlock bot, if you will. It has nothing to do with the Blaze you know, that whole posting has the authenticity of an algorithm.”

McDonald said that his wife noticed that the song appeared on the Spotify page over the weekend but that they had not contacted Spotify yet. They did contact Lost Art’s distribution partner, Secretly Distribution, and have not heard back. Secretly Distribution did not immediately respond to my request for comment.

"We've flagged the issue to SoundOn, the distributor of the content in question, and it has been removed for violating our Deceptive Content policy," a Spotify spokesperson told me in an email after this article was first published.

SoundOn is a music distributor which is owned by TikTok that mostly exists to allow people to upload music directly to TikTok and earn royalties. SoundOn also allows artists to distribute their music to other platforms. TikTok did not immediately respond to my request for comment but I'll update this story if I hear back.

McDonald, who decided to originally upload Foley’s music to Spotify in order to share it with more people, told me he never thought that an AI-generated track could appear on Foley’s page without his permission.

“It's harmful to Blaze’s standing that this happened,” he said. “It's kind of surprising that Spotify doesn't have a security fix for this type of action, and I think the responsibility is all on Spotify. They could fix this problem. One of their talented software engineers could stop this fraudulent practice in its tracks, if they had the will to do so. And I think they should take that responsibility and do something quickly.”

🎵
Do you know anything else about AI-generated music on Spotify or YouTube? I would love to hear from you. Using a non-work device, you can message me securely on Signal at @emanuel.404‬. Otherwise, send me an email at emanuel@404media.co.

McDonald’s suggested fix is not allowing any track to appear on an artist’s official Spotify page without allowing the page owner to sign off on it first.

“Any real Blaze fan would know, I think, pretty instantly, that this is not Blaze or a Blaze recording,” he said. “Then the harm is that the people who don't know Blaze go to the site thinking, maybe this is part of Blaze, when clearly it's not. So again, I think Spotify could easily change some practices. I'm not an engineer, but I think it's pretty easy to stop this from happening in the future.”

There’s a copyright mark at the bottom of the Spotify page for the AI-generated “Together” from a company called Syntax Error. I couldn’t find any information about a music distribution company by that name, but searching Spotify, I found that the same copyright mark appears on a page for another AI-generated song by Grammy winning country singer-songwriter Guy Clark, “Happened To You,” who died in 2016. That song was uploaded to Spotify last week as well, and also features an AI-generated image of a singer that looks nothing like Clark.

A third song that includes the Syntax Error copyright mark, “with you” by Dan Berk, was uploaded at the same time and also features an AI-generated image of a singer who looks nothing like him. Berk did not immediately respond to a request for comment but according to a spokesperson for Reality Defender, a deepfake detection company, all the tracks “have indicators that show a higher-than-normal probability of AI generation.”

AI-generated music on Spotify is not a secret at this point. Last week, a band with more than a million streams on Spotify, Velvet Sundown, made headlines when it finally admitted it was AI-generated. Last year, Sam wrote about AI-generated Christmas music flooding Spotify. But what’s happening with Clark and Foley is much worse. This is not someone trying to monetize AI slop under a new name, but assigning that slop to the name of dead artists without asking for permission.

Update: This article was updated with comment from Spotify.