The media in this post is not displayed to visitors. To view it, please log in.

Some days, it feels like we’re getting all the bad parts of cyberpunk and none of the cool stuff. Megacorps and cyber warfare? Check. Flying cars and holograms? Not quite yet. This week, things took a further turn for the dystopian with the news that a woman was hospitalized after an altercation with a humanoid robot in Macau. Police arrived on scene, took the bot into custody, and later told the media they believed this was the first time Chinese authorities had been called to intervene between a robot and a human.
The woman, reportedly in her seventies, was apparently shocked when she realized the robot was standing behind her. After the dust settled, the police determined it was being operated remotely as part of a promotion for a local business. We’ve heard there’s no such thing as bad publicity, but we’re not sure the maxim holds true when you manage to put an old lady into the hospital with your ad campaign.
Speaking of robots, the U.S. Library of Congress recently discovered and subsequently restored Georges Méliès’s Gugusse et l’Automate (Gugusse and the Automaton), a short film from 1897 that’s considered the first piece of science fiction cinema. As far as anyone knows, it’s also the first time a robot appeared on screen, although this isn’t exactly The Terminator we’re talking about here.
The runtime is less than a minute, but to make the short story even shorter: a guy cranks up a robot that gets bigger and bigger until it turns on its maker and starts to hit him with a stick. The human responds in kind by smashing the robot with a cartoonishly large mallet until it poofs out of existence. The modern film school interpretation is that it’s a cautionary tale about the dangers of technology, ye old Black Mirror, if you will. Since nobody can ask old Georgie what he was going for, we’ll just have to take their word for it.
Returning to the desert of the present, Tom’s Hardware reports that at least one manufacturer is starting to pack their new RAM with an additional non-functioning filler module. With prices skyrocketing, this allows folks who can’t afford to fill all the memory slots on their motherboard to stick something in there that at least looks the part. This may seem pointless, but consider that many gamers and other power users have PC’s with clear side panels to show off their elaborate internal layouts. We get it from an aesthetic standpoint, but it also sounds like a new way to potentially get scammed when buying parts on the second-hand market. Though, to be fair, it could be that we’re just overly cynical after watching that Georges Méliès film. At the very least, the current price of memory certainly makes it feel like we’re being hit with a stick.
Finally, what good is living in a cyberpunk world without the occasional bout of rebellion? That’s where the Ageless Linux project comes in. This is a Linux distribution that’s intentionally configured to violate the California Digital Age Assurance Act, which essentially states that the operating system must ask the user how old they are and make this information available to any piece of software that wants to know.
To be fair, being in violation of this law right now is easy — indeed, the OS you’re using now is almost certainly not compliant. But the idea is that it may bend the knee at some point, while Ageless Linux won’t. One could argue that they started the project a bit too early, but frankly, the whole thing is performative in the first place, so if it gets people talking, that’s enough. We’re particularly interested in their idea of making a non-compliant hardware device that’s cheap enough to distribute while still meeting the definition of a computing device, as it’s written in the California Digital Age Assurance Act.
Think they would mind if we borrowed the idea for this year’s Supercon badge?
See something interesting that you think would be a good fit for our weekly Links column? Drop us a line, we’d love to hear about it.
hackaday.com/2026/03/15/hackad…
macfranc
in reply to .mau. • • •forse sembrerà una critica alla categoria, ma trovo che I "filosofi della mente" (come l'autore che hai citato) tendano a essere molto interessanti quando forniscono la propria opinione riguardo a questioni legate all'intelligenza artificiale; d'altra parte li trovo molto poco interessanti ed estremamente inaffidabili quando si tratta di fornire ogni interpretazione dell'esistente o, peggio ancora, avventurarsi in previsioni sul futuro.
Il lunghissimo articolo in questione, per esempio, ha il dono di essere estremamente plausibile e di apparire convincente, eppure non presenta adeguati elementi che ne dimostrino la correttezza.
Tutto ciò ci ricorda che l'indipendenza tra l'attendibilità di un testo e la sua plausibilità non è certo un fenomeno distorsivo nato con gli LLM 😅
.mau.
in reply to macfranc • • •macfranc reshared this.
Gino
in reply to .mau. • • •Tralascio poi l'uso del termine "allucinazione" riferito alle macchine. Il termine è usato in modo improprio, da un punto di vista di cosa realmente è una allucinazione, ma oltrettutto non ha nulla a che vedere con ciò che realmente accade nella macchina e serve solo a generare una narrativa umanizzante (e falsa) sui LLMs.
Purtroppo su questi giochetti linguistici si sta costruendo una narrativa utile solo al mercato che ha tutto l'interesse a umanizzare le macchine, a fare credere di avere a che fare con dei quasi sistemi viventi, per generare aspettative e spostare più facilmente istituzioni e organizzazioni a firmare contratti d'uso dei sistemi.
macfranc reshared this.
macfranc
in reply to Gino • • •@Gert giusto ricordarlo!
@mau
.mau.
in reply to Gino • • •@Gert mah, la "domanda" che poniamo a un LLM è indubbiamente una parte dell'input che assieme alla configurazione del modello porterà a un risultato stocastico; da questo punto di vista "prompt" potrebbe essere un termine più neutro. Ma per me il risultato pratico è lo stesso: ottengo un testo che ha generalmente una correlazione con quanto da noi scritto, e può essere visto come "risposta" anche senza antropomorfizzare il chatbot. Con i sistemi esperti funzionava allo stesso modo.
Quanto all'uso del termine "allucinazione": io sono un matematico, e i matematici hanno una lunga tradizione di prendere parole comuni e dar loro un altro significato (cit. Goethe). Quello che succede è ovviamente che a un certo punto la discesa del gradiente ti porta a seguire un'altra strada perdendo così la correlazione con il prompt: ma almeno a me non dà fastidio chiamarla "allucinazione".
cc @aitech che mi ero dimenticato di taggare...
Gino
in reply to .mau. • • •la domanda, per l'umano, nasce sempre da un modo di sentirsi vivere in un mondo quando i profili di mondo che incontra suscitano sorpresa, spaesamento, curiosità... Un fenomeno estraneo a una macchina che, in quanto tale, non ha né mondo né contesto.
La domanda "come mai la mela cade da un albero?" me la faccio perché ho una precomprensione pratica, tacita e vissuta di cosa significa stare vicino, sopra o sotto un albero, da solo o con altri, con delle sensazioni, dei bisogni, delle aspettative... A partire da quella domanda, se allestisco un esperimento per trovare una risposta non è l'apparato sperimentale che mi fornisce una risposta ma il mio modo di riflettere sulle eventuali invarianze che il dispositivo allestito mi restituisce.
Esiste una interessante ricerca che mostra come la rimozione delle virgolette, un tempo impiegate nella ricerca sulla IA dai primi ricercatori quando parlavano di "intelligenza" o "apprendimento" ecc..., sia stata una precisa operazione di manipolazione che con la ricerca non aveva nulla a che vedere.
Secondo me è importante, quando scriviamo su un social o generiamo testi destinati a non esperti, che ci si sforzi di non dare per scontati significati nei termini che usiamo e se possibile usare le virgolette in riferimento a termini che pertengono l'umano.
Non sarebbe male tenere sempre presente che, nonostante la fascinazione costruita dalle narrative, quando interagiamo con un calcolatore stiamo interagendo con un insieme di porte logiche gestite dall'algebra di Boole, cioè con dei meccanismi come quelli in figura.