Salta al contenuto principale



Una telecamera può leggere la mente? La risposta arriva dal Portogallo


Uno studio condotto presso la Fondazione Champalimode in Portogallo ha dimostrato che una semplice registrazione video è sufficiente per “sbirciare” nel processo di pensiero. Gli scienziati hanno scoperto che le espressioni facciali dei topi riflettono le loro strategie decisionali interne. Questo risultato apre la strada a studi non invasivi sulle funzioni cerebrali, ma solleva anche nuovi interrogativi sui confini della privacy mentale.

In esperimenti precedenti, ai roditori è stato presentato un compito che prevedeva l’uso di due ciotole d’acqua. Solo una di esse conteneva acqua zuccherata in un dato momento, e gli animali dovevano indovinare dove si trovasse la ricompensa.

Al variare della fonte, i topi dovevano adattare il loro approccio. “Sapevamo che potevano risolvere il compito in modi diversi e potevamo dedurre la loro strategia dal loro comportamento”, ha affermato Fanny Cazette, autrice principale dello studio del Centro Nazionale per la Ricerca Scientifica e dell’Università di Aix-Marseille.

I ricercatori si aspettavano che i neuroni riflettessero solo il metodo scelto in un dato momento. Invece, il cervello ha registrato tutte le possibili opzioni contemporaneamente, indipendentemente da quale fosse stata effettivamente implementata. Questo li ha portati a verificare se le strategie si riflettessero anche nelle manifestazioni esterne.

Il team ha registrato simultaneamente l’attività neuronale e i movimenti facciali. Ha poi utilizzato l’apprendimento automatico per analizzarli . I risultati sono stati inaspettati: gli elementi più sottili dell’espressione facciale erano altrettanto informativi quanto i segnali provenienti da decine di neuroni. “Con nostra sorpresa, siamo stati in grado di ottenere tante informazioni su ciò che il topo stava ‘pensando’ quante ne ottenevamo dalle registrazioni cerebrali dirette”, ha osservato Zachary Mainen, responsabile dello studio. Egli ritiene che un accesso così facile a processi cognitivi nascosti potrebbe far progredire significativamente le neuroscienze.

Altrettanto sorprendente è stata la ripetibilità degli schemi. “Abbiamo visto che identici schemi di movimento facciale corrispondevano alle stesse strategie in animali diversi”, ha osservato il coautore Davide Reato, ora all’Università di Aix-Marseille e alla Scuola Mineraria di Saint-Etienne. Gli scienziati ritengono che tali riflessioni possano essere paragonate a emozioni universali.

Gli autori sottolineano che la tecnica apre la possibilità di studiare le funzioni cerebrali senza intervento chirurgico. Questo potrebbe aiutarci a comprendere sia il normale funzionamento del sistema nervoso che le sue patologie. Tuttavia, il facile accesso ai processi interni solleva questioni etiche. “Dobbiamo pensare in anticipo alle normative per proteggere la privacy mentale “, ha aggiunto Mainen.

Alfonso Renart, un altro ricercatore a capo del progetto, ha osservato: “I nostri dati dimostrano che i video catturano più di un semplice comportamento: possono fornire una finestra dettagliata sull’attività cerebrale. Sebbene questo sia entusiasmante dal punto di vista scientifico, solleva anche preoccupazioni sul mantenimento dei confini personali “.

Gli scienziati ritengono che il monitoraggio video facciale potrebbe diventare un potente strumento di ricerca, ma sottolineano che è necessario prendere in considerazione misure di protezione prima che la tecnologia vada oltre il laboratorio.

L'articolo Una telecamera può leggere la mente? La risposta arriva dal Portogallo proviene da il blog della sicurezza informatica.



Microsoft sfida Nvidia e AMD: ecco i chip proprietari per l’intelligenza artificiale


Microsoft accelera sulla produzione interna di semiconduttori destinati ai propri data center, con l’obiettivo di ridurre la dipendenza da fornitori esterni come Nvidia e AMD. Lo ha dichiarato mercoledì Kevin Scott, Chief Technology Officer del colosso tecnologico, sottolineando che la strategia a lungo termine prevede l’adozione prevalente di chip sviluppati direttamente dall’azienda.

I data center, cuore dell’elaborazione necessaria allo sviluppo di applicazioni e modelli di intelligenza artificiale, si basano oggi in larga parte sulle GPU Nvidia, leader indiscusso del settore, e in misura minore su quelle di AMD. Tuttavia, Microsoft, così come altri player del cloud computing, tra cui Google e Amazon, sta investendo nello sviluppo di chip proprietari per rendere i sistemi più efficienti e calibrati sulle proprie esigenze.

Nel 2023, Microsoft ha presentato l’acceleratore AI Azure Maia, progettato specificamente per i carichi di lavoro legati all’intelligenza artificiale, e la CPU Cobalt. L’azienda sta inoltre lavorando a semiconduttori di nuova generazione e ha recentemente introdotto una tecnologia di raffreddamento basata sulla microfluidica, sviluppata per mitigare il problema del surriscaldamento dei chip.

Alla domanda se l’obiettivo fosse quello di sostituire progressivamente i processori Nvidia e AMD nei propri data center, Scott ha risposto affermativamente, spiegando che molti chip Microsoft sono già in uso. Secondo il CTO, l’approccio non si limita alla produzione dei semiconduttori, ma comprende l’intero sistema, includendo aspetti cruciali come il networking e il raffreddamento, con la finalità di ottimizzare al massimo i carichi di lavoro.

Questa strategia si inserisce in un contesto di forte competizione tra i giganti della tecnologia. Nel 2024, società come Microsoft, Amazon, Alphabet e Meta hanno annunciato oltre 300 miliardi di dollari di investimenti in conto capitale, gran parte dei quali destinati all’intelligenza artificiale. Nonostante gli sforzi, Scott ha evidenziato come la potenza di calcolo rimanga insufficiente: “Parlare di crisi nel settore informatico è forse riduttivo”, ha dichiarato, osservando che dall’avvento di ChatGPT la capacità richiesta cresce più velocemente di quanto sia possibile implementarla.

Microsoft ha già ampliato in modo significativo l’infrastruttura dei propri data center, ma le previsioni interne, anche quelle più ottimistiche, risultano spesso inadeguate a coprire la domanda. “Nell’ultimo anno abbiamo aggiunto capacità straordinarie e continueremo a farlo negli anni a venire”, ha aggiunto Scott.

L'articolo Microsoft sfida Nvidia e AMD: ecco i chip proprietari per l’intelligenza artificiale proviene da il blog della sicurezza informatica.



La Cina obbliga le etichette sui contenuti IA. Vediamo cosa sta succedendo


Dal 1° settembre 2025, tutti i contenuti generati dall’intelligenza artificiale (IA) in Cina devono essere contrassegnati con una “filigrana elettronica”, in base alle nuove disposizioni legislative. L’obiettivo dichiarato è migliorare la trasparenza dei contenuti digitali e ridurre la diffusione di informazioni false.

A marzo di quest’anno, la Cyberspace Administration of China (CAC), insieme ad altri quattro dipartimenti, ha pubblicato le “Misure per l’identificazione di contenuti sintetici generati dall’intelligenza artificiale (note come “Misure di identificazione”).

Secondo queste regole, testi, immagini, audio, video e scene virtuali realizzati tramite IA devono riportare identificatori sia espliciti, visibili agli utenti, sia impliciti, incorporati nei dati che producono il contenuto.

Ruolo degli editori e responsabilità delle piattaforme


Le piattaforme di social media, tra cui Bilibili, Douyin, Weibo e Xiaohongshu, richiedono agli editori di contrassegnare proattivamente i contenuti generati dall’IA. Gli utenti o editori che non rispettano queste norme rischiano sanzioni che variano dalla limitazione del traffico alla rimozione dei contenuti e al blocco degli account. In particolare, Douyin ha previsto anche la sospensione dei guadagni e la riduzione dei follower per chi non etichetta correttamente i contenuti AI.

Molte piattaforme hanno introdotto sistemi di “etichettatura automatica” per gestire contenuti non contrassegnati, ma la loro efficacia è limitata. I giornalisti che hanno cercato termini come “immagini AI” hanno comunque rilevato una significativa quantità di contenuti generati dall’IA privi di identificazione. Alcune piattaforme hanno avviato queste regole già prima dell’emanazione delle nuove misure, dimostrando che l’etichettatura dei contenuti AI è un processo lungo e complesso.

Secondo Yao Zhiwei, professore di Giurisprudenza presso l’Università di Finanza ed Economia del Guangdong, le nuove normative richiedono competenze tecniche elevate e resta incerto se le piattaforme di piccole e medie dimensioni riusciranno a rispettarle pienamente.

Motivazioni e dinamiche degli editori


La mancata segnalazione dei contenuti AI da parte degli editori è spesso legata a motivazioni economiche, come l’incremento del traffico, la creazione di nuovi account e la monetizzazione dei contenuti. Studi sull’impatto della segnalazione dei deepfake suggeriscono che, sebbene i promemoria agli utenti possano migliorare la consapevolezza, allo stesso tempo riducono la propensione a condividere i contenuti.

Le piattaforme mostrano un rapporto ambivalente con l’IA: da un lato favoriscono la creazione di contenuti generati dall’IA, incrementando traffico e promozione; dall’altro devono affrontare abusi, tra cui diffusione di informazioni false, contenuti pornografici e manipolazioni di immagini e volti.

Interventi per contrastare l’abuso dell’IA


Ad aprile 2025, la CAC ha lanciato la campagna speciale di tre mesi “Clear and Clear: Rettificare l’abuso della tecnologia AI”. L’Amministrazione del Cyberspace di Shanghai ha coordinato l’azione di 15 piattaforme chiave, tra cui Xiaohongshu, Bilibili e Pinduoduo, intercettando oltre 820.000 contenuti illegali, eliminando 1.400 account e rimuovendo più di 2.700 entità AI non conformi. Questi interventi hanno ridotto significativamente la presenza online di contenuti AI illeciti.

I rapporti settimanali delle piattaforme, come il “Clear and Bright: Rectifying the Abuse of AI Technology”, evidenziano i tipi di abuso più frequenti: pubblicità ingannevole, contenuti volgari, marketing illegale di prodotti AI e scambi illeciti di volti e voci. Bilibili segnala anche violazioni legate a video falsi su questioni militari internazionali, contenuti educativi con esperti virtuali, storie di viaggi nel tempo e modelli AI per preparazione agli esami universitari.

Secondo l’Ufficio Informazioni Internet di Shanghai, le piattaforme come Xiyu Technology, Jieyuexingchen, Tongyi, Xiaohongshu, Bilibili e Soul hanno quasi completato l’implementazione delle specifiche per l’identificazione esplicita, accelerando lo sviluppo di sistemi di identificazione implicita e di verifica della catena di comunicazione. Xiaohongshu ha guidato anche la creazione di una guida pratica per il riconoscimento dei metadati delle immagini. Questi sforzi hanno prodotto risultati graduali ma concreti nella gestione dei contenuti generati dall’IA.

L'articolo La Cina obbliga le etichette sui contenuti IA. Vediamo cosa sta succedendo proviene da il blog della sicurezza informatica.



The Making of a Minimalist Analog Drum Machine


A photo of the front-panel with a bunch of lamps and knobs.

Our hacker [Moritz Klein] shows us how to make a minimalist analog drum machine. If you want the gory details check out the video embedded blow and there is a first class write-up available as a 78 page PDF manual too. Indeed it has been a while since we have seen a project which was this well documented.

A typical drum machine will have many buttons and LEDs and is usually implemented with a microcontroller. In this project [Moritz] eschews that complexity and comes up with an analog solution using a few integrated circuits, LEDs, and buttons.

The heart of the build are the integrated circuits which include two TL074 quad op amps, a TL072 dual op amp, a CD4520 binary counter, and eight CD4015 shift registers. Fifteen switches and buttons are used along with seven LEDs. And speaking of LEDs, our hacker [Moritz] seems to have an LED schematic symbol tattooed to his hand, and we don’t know about you, but this screams credibility to us! 😀

This capable drum machine includes a bunch of features, including: 4 independent channels with one-button step input/removal; up to 16 steps per channel; optional half-time mode per channel; two synchronizable analog low-frequency oscillators (LFOs) for dynamic accents; resistor-DAC output for pitch or decay modulation; and an internal clock with 16th, 8th, and quarter note outputs, which can be synchronized with external gear.

Of course at Hackaday we’ve seen plenty of drum machines before. If you’re interested in drum machines you might also like to check out Rope Core Drum Machine and Shapeshifter – An Open Source Drum Machine.

youtube.com/embed/s9HKXLPiX0w?…


hackaday.com/2025/10/01/the-ma…



Mesa Project Adds Code Comprehension Requirement After AI Slop Incident


Recently [Faith Ekstrand] announced on Mastodon that Mesa was updating its contributor guide. This follows a recent AI slop incident where someone submitted a massive patch to the Mesa project with the claim that this would improve performance ‘by a few percent’. The catch? The entire patch was generated by ChatGPT, with the submitter becoming somewhat irate when the very patient Mesa developers tried to explain that they’d happily look at the issue after the submitter had condensed the purported ‘improvement’ into a bite-sized patch.

The entire saga is summarized in a recent video by [Brodie Robertson] which highlights both how incredibly friendly the Mesa developers are, and how the use of ChatGPT and kin has made some people with zero programming skills apparently believe that they can now contribute code to OSS projects. Unsurprisingly, the Mesa developers were unable to disabuse this particular individual from that notion, but the diff to the Mesa contributor guide by [Timur Kristóf] should make abundantly clear that someone playing Telephone between a chatbot and OSS project developers is neither desirable nor helpful.

That said, [Brodie] also highlights a recent post by [Daniel Stenberg] of Curl fame, who thanked [Joshua Rogers] for contributing a massive list of potential issues that were found using ‘AI-assisted tools’, as detailed in this blog post by [Joshua]. An important point here is that these ‘AI tools’ are not LLM-based chatbots, but rather tweaked existing tools like static code analyzers with more smarts bolted on. They’re purpose-made tools that still require you to know what you’re doing, but they can be a real asset to a developer, and a heck of a lot more useful to a project like Curl than getting sent fake bug reports by a confabulating chatbot as has happened previously.

youtube.com/embed/4d8jLfa5Mx8?…


hackaday.com/2025/10/01/mesa-p…


Mesa is working to update our contributor guide. Can you guess why?

Did you guess AI?

Because if you did, you'd be right. I don't want to put anyone on blast here so please don't go digging to find the motivating MR and harass the contributor or anything like that.

But the situation was exactly what you might think. Someone ran ChatGPT on the code and asked it for suggestions on making it more performant. They applied a bunch of the changes against their local branch, tested it, and found that it gave maybe a 0.5-1.0% perf boost in some titles.

That's totally fine. I don't care what tools you use to find a bottleneck. I'll happily take more FPS, no matter who found the issue or how. If some AI assistant helps you find things no one else has found and lets us make drivers faster, great!

But that's not what happened.

What happened next is that they then tried to make it the Mesa project maintainers' job to sort through the shit ChatGPT spit out and decide what's useful and what's not and why the changes helped and whether or not they were correct. The contributor had no no idea and, more importantly, they had no desire to actually learn about the Mesa code-base or the hardware in question. They just wanted to run ChatGPT and send its suggestions towards upstream.

This is not useful. This is not contributing. It's just burning maintainer time sorting through AI hallucinations. We have enough mediocre code to review that comes from actual humans who are actually trying to learn about Mesa and help out. We don't need to add AI shit to the merge request pile. If you don't understand the patch well enough to be able to describe what it does and why it makes things faster, don't submit it.

So now we're making it really clear: If you submit the merge request, you're responsible for the code change as if you typed it yourself. You don't get to claim ignorance and "because the AI said so". It's your responsibility to do due diligence to make sure it's correct and to accurately describe the change in the commit message.

Some things shouldn't have to be explicitly written down but here we are... 😩




Electric Surfboard Gets Thrust Vectoring Upgrade


The internet has already taught us that an electric surfboard is a great way to get around on the water while looking like an absolute badass. [RCLifeOn] is continuing to push the boat forward in this regard, however, adding thrust vectoring technology to his already-impressive build.

If you’re unfamiliar with the world of electric surfboards, the concept is relatively simple. Stick one or more electric ducted fan thrusters on the back, add some speed controllers, and power everything from a chunky bank of lithium-ion batteries. Throw in a wireless hand controller, and you’ve got one heck of a personal watercraft.

Traditionally, these craft are steered simply by leaning and twisting as a surfer would with a traditional board. However, more dynamic control is possible if you add a way to aim the thrust coming from the propulsion system. [RCLifeOn] achieved this by adding steerable nozzles behind the ducted fan thrusters, controlled with big hobby servos to handle the forces involved. The result is a more controllable electric surfboard that can seriously carve through the turns. Plus, it’s now effectively an RC boat all on its own, as it no longer needs a rider on board to steer.

We’ve covered various developments in this surfboard’s history before, too. Video after the break.

youtube.com/embed/51nLtHqw2Ys?…


hackaday.com/2025/10/01/electr…



E il 3 ottobre sciopero generale


@Giornalismo e disordine informativo
articolo21.org/2025/10/e-il-3-…
Dopo l’abbordaggio da parte delle navi israeliane, le principali sigle sindacali hanno indetto la manifestazione generale per il 3 ottobre. L’Italia scende in piazza. “L’aggressione contro navi civili che trasportano cittadine e cittadini italiani, rappresenta un fatto di



A Gubbio incontro sull’informazione a Gaza


@Giornalismo e disordine informativo
articolo21.org/2025/10/a-gubbi…
Più di 250 giornalisti uccisi in due anni, in media 11 al mese. Mai così tanti, in nessun altro conflitto. A cui si aggiunge il divieto d’ingresso per la stampa internazionale. Quello che sta succedendo a Gaza viene raccontato, tra mille rischi



Israele ha bloccato la Flotilla alle 21


@Giornalismo e disordine informativo
articolo21.org/2025/10/israele…
Le immagini delle telecamere, che in contemporanea trasmettono un video delle dirette della navigazione, cominciano a spegnersi con le prime manovre di abbordaggio dei soldati: in meno di un’ora le connessioni cadono man mano, formando sul display una




Phantom Taurus: dettagli sull’APT cinese


@Informatica (Italy e non Italy 😁)
Phantom Taurus. Questo gruppo APT, legato alla Repubblica Popolare Cinese, è emerso dopo oltre due anni di monitoraggio da parte dei ricercatori di Unit 42 di Palo Alto Networks. Le sue operazioni di spionaggio, concentrate su enti governativi e di telecomunicazioni in Africa, Medio Oriente e Asia, rivelano un livello di

reshared this



‘I cannot overstate how disgusting I find this kind of AI dog shit in the first place, never mind under these circumstances.’#News


AI-Generated Biography on Amazon Tries to Capitalize on the Death of a Beloved Writer Kaleb Horton


On September 27, several writers published obituaries about writer and photographer Kaleb Horton, who recently died. The obituaries were written by friends, acquaintances, and colleagues, but all of them revered him as a writer and photographer, whose work has appeared in GQ, Rolling Stone, Vanity Fair, and VICE.

Some of these obituary writers were shocked and disgusted to discover an AI-generated “biography” of Kaleb Horton was suddenly for sale on Amazon.

“I cannot overstate how disgusting I find this kind of ‘A.I.’ dog shit in the first place, never mind under these circumstances,” writer Luke O’Neil, who wrote an obituary for Horton, told me in an email. “This predatory slop is understandably upsetting to his family and friends and fans and an affront to his specific life and to life itself. Especially days after his death. All week people have been eulogizing Kaleb as one of the best, although sadly not widely read enough, writers of his generation, and some piece of shit pressed a button and took 30 seconds or whatever it is to set up a tollbooth to divert the many people just learning about him away from his real and vital work. And for what? To make maybe a few dollars? By tricking people? I can't say what I think should happen to thieves like this.”

The book, titled KALEB HORTON: A BIOGRAPHY OF WORDS AND IMAGES: The Life Of A Writer And Photographer From The American West, was published on September 27 as well, is 74 pages long, and has all the familiar signs of the kind of AI-generated books that flood Amazon’s store on a daily basis.

Even at just 74 pages, the book was produced at superhuman speed. That appears to be the normal cadence for the author, Jack C. Cambron, who has no online footprint outside of online bookstores, and who has written dozens of biographies and cookbooks since his career as an author appeared out of thin air earlier in September. He has written biographies about director Cameron Crowe, Fulton County, Georgia district attorney Fani Willis, and pop singer Madison Beer, to name just a few. There’s no consistent pattern to these biographies other than a lot of the people they’re about have been in the news recently.

All these books also have obviously AI-generated covers, which is the most obvious and one of the most insulting signs that Horton’s biography is AI-generated as well: The person on the cover looks nothing like him.

AI-generated books on Amazon are extremely common and often attempt to monetize whatever is happening in the news or that people are searching for at any given time. For example, last year we wrote about a flood of AI-generated books about the journalist Kara Swisher appearing on Amazon leading up to the release of her memoir Burn Book. In theory, someone who might be interested in the book or Swisher might search for her name on Amazon and buy one of those AI-generated books without realizing it’s AI-generated. We’ve seen this same strategy flood public libraries with AI-generated books as well.

Amazon did not immediately respond to a request for comment. The company has said that it does not want these books in its store in response to our story about the AI-generated Kara Swisher books last year, but obviously is not taking any meaningful action to stop them.

“We aim to provide the best possible shopping, reading, and publishing experience for customers and authors and have content guidelines governing which books may be listed for sale," Amazon spokesperson Ashley Vanicek told me in an email last year. "We do not allow AI-generated content that creates a poor customer experience. We have proactive and reactive measures to evaluate content in our store. We have removed a number of titles that violated our guidelines.”


#News


comunque, poiché l'italia non conta una cippa sullo scenario internazionale, le attività di protesta che danneggiano l'italia e non direttamente israele non hanno alcun senso. masochismo puro. ma davvero gli sciperi in italia dovrebbero spaventare israele? sembra la frase di daitarn 3: "se se non temi questa potenza combatti" con israele che se la ride...


israele è sempre di meno uno stato di diritto e sempre più uno stato terrorista. maledetto il giorno in cui fu deciso di dare loro uno stato.




The main use of Sora appears to generate brainrot of major beloved copyrighted characters, to say nothing of the millions of articles, images, and videos OpenAI has scraped.#OpenAI #Sora2 #Sora


OpenAI’s Sora 2 Copyright Infringement Machine Features Nazi SpongeBobs and Criminal Pikachus


Within moments of opening OpenAI’s new AI slop app Sora, I am watching Pikachu steal Poké Balls from a CVS. Then I am watching SpongeBob-as-Hitler give a speech about the “scourge of fish ruining Bikini Bottom.” Then I am watching a title screen for a Nintendo 64 game called “Mario’s Schizophrenia.” I swipe and I swipe and I swipe. Video after video shows Pikachu and South Park’s Cartman doing ASMR; a pixel-perfect scene from the Simpsons that doesn’t actually exist; a fake version of Star Wars, Jurassic Park, or La La Land; Rick and Morty in Minecraft; Rick and Morty in Breath of the Wild; Rick and Morty talking about Sora; Toad from the Mario universe deadlifting; Michael Jackson dancing in a room that seems vaguely Russian; Charizard signing the Declaration of Independence, and Mario and Goku shaking hands. You get the picture.


0:00
/1:33

Sora 2 is the new video generation app/TikTok clone from OpenAI. As AI video generators go, it is immediately impressive in that it is slightly better than the video generators that came before it, just as every AI generator has been slightly better than the one that preceded it. From the get go, the app lets you insert yourself into its AI creations by saying three numbers and filming a short video of yourself looking at the camera, looking left, looking right, looking up, and looking down. It is, as Garbage Day just described it, a “slightly better looking AI slop feed,” which I think is basically correct. Whenever a new tool like this launches, the thing that journalists and users do is probe the guardrails, which is how you get viral images of SpongeBob doing 9/11.


0:00
/1:23

The difference with Sora 2, I think, is that OpenAI, like X’s Grok, has completely given up any pretense that this is anything other than a machine that is trained on other people’s work that it did not pay for, and that can easily recreate that work. I recall a time when Nintendo and the Pokémon Company sued a broke fan for throwing an “unofficial Pokémon” party with free entry at a bar in Seattle, then demanded that fan pay them $5,400 for the poster he used to advertise it. This was the poster:

With the release of Sora 2 it is maddening to remember all of the completely insane copyright lawsuits I’ve written about over the years—some successful, some thrown out, some settled—in which powerful companies like Nintendo, Disney, and Viacom sued powerless people who were often their own fans for minor infractions or use of copyrighted characters that would almost certainly be fair use.


0:00
/1:35

No real consequences of any sort have thus far come for OpenAI, and the company now seems completely disinterested in pretending that it did not train its tools on endless reams of copyrighted material. It is also, of course, tacitly encouraging people to pollute both its app and the broader internet with slop. Nintendo and Disney do not really seem to care that it is now easier than ever to make Elsa and Pikachu have sex or whatever, and that much of our social media ecosystem is now filled with things of that nature. Instagram, YouTube, and to a slightly lesser extent TikTok are already filled with AI slop of anything you could possibly imagine.And now OpenAI has cut out the extra step that required people to download and reupload their videos to social media and has launched its own slop feed, which is, at least for me, only slightly different than what I see daily on my Instagram feed.

The main immediate use of Sora so far appears to be to allow people to generate brainrot of major beloved copyrighted characters, to say nothing of the millions of articles, blogs, books, images, videos, photos, and pieces of art that OpenAI has scraped from people far less powerful than, say, Nintendo. As a reward for this wide scale theft, OpenAI gets a $500 billion valuation. And we get a tool that makes it even easier to flood the internet with slightly better looking bullshit at the low, low cost of nearly all of the intellectual property ever created by our species, the general concept of the nature of truth, the devaluation of art through an endless flooding of the zone, and the knock-on environmental, energy, and negative labor costs of this entire endeavor.


AI Channel reshared this.




Arriva MatrixPDF: bastano pochi click e il phishing è servito!


È stato scoperto un nuovo toolkit di phishing, MatrixPDF, che consente agli aggressori di trasformare normali file PDF in esche interattive che aggirano la sicurezza della posta elettronica e reindirizzano le vittime a siti Web che rubano credenziali o scaricano malware.

I ricercatori di Varonis, che hanno scoperto lo strumento, sottolineano che MatrixPDF viene pubblicizzato come un simulatore di phishing e una soluzione per specialisti di black team. Tuttavia, sottolineano che è stato individuato per la prima volta su forum di hacker.

MatrixPDF: è uno strumento avanzato per la creazione di PDF di phishing realistici, progettato per i team di black team e per la formazione sulla sicurezza informatica”, si legge nell’annuncio. “Con l’importazione di PDF tramite trascinamento della selezione, l’anteprima in tempo reale e le sovrapposizioni personalizzabili, MatrixPDF consente di creare scenari di phishing di livello professionale. Funzionalità di sicurezza integrate come la sfocatura dei contenuti, i reindirizzamenti sicuri, la crittografia dei metadati e il bypass di Gmail garantiscono affidabilità e distribuzione in ambienti di test.”

Il toolkit è disponibile con diversi piani tariffari, che vanno da $ 400 al mese a $ 1.500 all’anno.

I ricercatori spiegano che il builder MatrixPDF consente agli aggressori di caricare un file PDF legittimo e poi di aggiungervi funzionalità dannose, come l’offuscamento del contenuto, falsi prompt “Documento protetto” e sovrapposizioni cliccabili che puntano a un URL esterno con il payload.

Inoltre, MatrixPDF consente azioni JavaScript, che vengono attivate quando un utente apre un documento o clicca su un pulsante. In questo caso, il codice JavaScript tenta di aprire un sito web o di eseguire altre azioni dannose.

La funzione di sfocatura crea file PDF il cui contenuto appare protetto, sfocato e contiene un pulsante “Apri documento protetto“. Cliccando su questo pulsante si apre un sito web che può essere utilizzato per rubare credenziali o distribuire malware.

Un test condotto da specialisti ha dimostrato che i PDF dannosi creati utilizzando MatrixPDF possono essere inviati a una casella di posta Gmail e che l’email riesce a bypassare i filtri anti-phishing. Questo perché questi file non contengono file binari dannosi, ma solo link esterni.

Un altro test condotto dai ricercatori dimostra come la semplice apertura di un PDF dannoso provochi l’apertura di un sito web esterno. Questa funzionalità è più limitata, poiché i moderni visualizzatori di PDF avvisano l’utente che il file sta tentando di connettersi a un sito remoto.

Gli esperti di Varonis ci ricordano che i file PDF restano uno strumento popolare per gli attacchi di phishing perché sono ampiamente distribuiti e le piattaforme di posta elettronica possono visualizzarli senza preavviso.

L'articolo Arriva MatrixPDF: bastano pochi click e il phishing è servito! proviene da il blog della sicurezza informatica.



Segger’s Awkward USB-C Issue With the J-Link Compact Debugger


Theoretically USB-C is a pretty nifty connector, but the reality is that it mostly provides many exciting new ways to make your device not work as expected. With the gory details covered by [Alvaro], the latest to join the party is Segger, with its J-Link BASE Compact MCU debugger displaying the same behavior which we saw back when the Raspberry Pi 4 was released in 2019. Back then so-called e-marked USB-C cables failed to power the SBC, much like how this particular J-Link unit refuses to power up when connected using one of those special USB-C cables.

We covered the issue in great detail back then, discussing how the CC1 and CC1 connections need to be wired up correctly with appropriate resistors in order for the USB-C supply – like a host PC – to provide power to the device. As [Alvaro] discovered through some investigation, this unit made basically the same mistake as the RPi 4B SBC before the corrected design. This involves wiring CC1 and CC2 together and as a result seeing the same <1 kOhm resistance on the active CC line, meaning that to the host device you just hooked up a USB-C audio dongle, which obviously shouldn’t be supplied with power.

Although it’s not easy to tell when this particular J-Link device was produced, the PCB notes its revision as v12.1, so presumably it’s not the first rodeo for this general design, and the product page already shows a different label than for the device that [Alvaro] has. It’s possible that it originally was sloppily converted from a previous micro-USB-powered design where CC lines do not exist and things Just Work™, but it’s still a pretty major oversight from what should be a reputable brand selling a device that costs €400 + VAT, rather than a reputable brand selling a <$100 SBC.

For any in the audience who have one of these USB-C-powered debuggers, does yours work with e-marked cables, and what is the revision and/or purchase date?


hackaday.com/2025/10/01/segger…



Flotilla: blocco navale e diritto internazionale
di Massimo Mazzucco

youtube.com/watch?v=6dyFyLb9cd…



#USA, l'ascia dello #shutdown


altrenotizie.org/primo-piano/1…


“LA PENSIONE NON È DOVUTA”
La Fornero torna a fare terrorismo pontificando sulla Finanziaria: «Punirà i giovani». Parola di chi ha fabbricato migliaia di esodati.
Da 14 anni insiste, cioè da quando tentò di distruggere quel che restava di un Paese massacrato dallo spread e in pieno tsunami da crisi dei debiti sovrani. Non ci riuscì. Ma da allora è un continuo rimodellare la realtà, vantare operazioni pseudo-strategiche, ergersi a salvatrice della patria.

Anche stavolta Fornero vede grigio e lancia un siluro dal titolo: «Legge di bilancio, il solito mercato che alla fine punisce i giovani». L’ex ministro del Lavoro, impegnata vita natural durante a giustificare la sua sanguinosa riforma, sostiene che sarebbe sbagliato proporre «provvedimenti che ripropongono per l’ennesima volta la falsa illusione dell’anticipo del pensionamento per fare posto ai giovani o il falso mito del diritto acquisito».

E per chiudere dichiara: «Mostrateci, governo e opposizione, quello sguardo lungo e inclusivo che per molto tempo è mancato alla politica italiana».
Sorvolando sullo sguardo inclusivo (poiché il suo includeva i sottopassi delle stazioni come abitazioni per i 170.000 esodati fabbricati a mano),fa specie che la ex docente universitaria torinese continui a definire un diritto acquisito, praticamente una grazia del sovrano che getta dobloni dalla finestra ai villani, quello che secondo la Costituzione è uno dei patti sociali più inscalfibili in una democrazia; un contratto fra Stato e cittadini, i quali ne rivendicano il rispetto e l’applicazione nel momento in cui maturano requisiti anagrafici e contributivi di legge.

Fornero riesce a concretizzare due paradossi: definisce regalìa una prerogativa di legge, ancor più dopo l’applicazione in toto del sistema contributivo. E trasforma un dovere costituzionale (quello dell’erogazione della pensione ai lavoratori) in un principio contabile, scambiando allegramente lo Stato per una Spa.

È lo stesso errore che si commette sulla Sanità quando si evoca il pareggio di bilancio, ritenendo erroneamente che debba essere un investimento a scopo di lucro e non un servizio indispensabile da eseguire anche in perdita.

Oracoli iettatori di cui non sentiamo il bisogno.

Vox Italia