Salta al contenuto principale



[2026-01-06] Laboratorio Aperto @ Matrici Aperte


Laboratorio Aperto

Matrici Aperte - Via Elia Capriolo 41C, Brescia
(martedì, 6 gennaio 15:00)
Laboratorio Aperto
Tutti i Martedì e i Giovedì dalle 15:00 alle 22:00 apriamo il laboratorio per chi ha bisogno di stampare ma anche per chi vuole solo sbevazzare!
Potete venire a fare serigrafia, incisione calcografica, xilografia e tecniche grafiche sperimentali (cianotipia, gum print, monotipia, stampa bianca a rilievo).
Per l'utilizzo del laboratorio chiediamo un contributo libero a supporto del progetto. Portate carta e matrici da casa, noi mettiamo a disposizione strumenti e spazio di lavoro. Ci sono due postazioni serigrafiche, due torchi calcografici, sala acidi e piani da inchiostrazione.
Dalle 18.00 (ma anche dalle 15.00 per lx ubriaconx) apre il baretto con vino, birrette, pirli e gin tonic di pessima qualità! -c'è pure il pinkanello!
Sarà aperto e consultabile anche l'archivio con libri serigrafici, fanzine e distro a supporto di movimenti e collettivi!


lasitua.org/event/laboratorio-…



Lessons on laying out the 404 Media zine using a relatively weird setup—on Linux, using Affinity, with the help of the Windows translation layer WINE.#zine


The Weird Way the 404 Media Zine Was Built


This post originally ran on Tedium, our zine designer Ernie Smith's wonderful website and newsletter about the Dull Side of the Internet. Check it out here.

I write a lot these days, but my path into journalism, going way back to J-School, was through layout.

For years, I was a graphic designer at a number of newspapers—some fairly small, some quite large. I was a card-carrying member of the Society for News Design. It was one of my biggest passions, and I fully expected to have a long career in newspaper design. But newspapers as a medium haven’t really panned out, so I eventually fell into writing.

But I still adore laying out a big project, conceptualizing it, and trying to use it to visually add to the story that the words are trying to convey. It’s not quite a lost art, but I do think that print layout is something that has been a bit back-burnered by society at large.

So when 404 Media co-founder Jason Koebler, who spent years editing my writing for Motherboard, reached out about doing a zine, I was absolutely in. The goal of the zine—to shine a spotlight on the intersection of ICE and surveillance tech—was important. Plus, I like working with Jason, and it was an opportunity to get into print design again after quite a few years away.

I just had two problems: One, I have decided that I no longer want to give Adobe money because of cost and ethical concerns about its business model. And two, I now use Linux pretty much exclusively (Bazzite DX, in case you’re wondering).

But the good news is that the open-source community has done a lot of work, and despite my own tech shifts, professional-grade print design on Linux is now a viable option.

Why page layout on Linux is fairly uncommon


The meme in the Linux community writes itself: “I would move over to Linux, but I need Photoshop and InDesign and [insert app here] too much.” In the past, this has been a real barrier for designers, especially those who rely on print layout, where open-source alternatives are very limited. (They’ve also been traditionally at the mercy of print shops that have no time for your weird non-standard app.)

Admittedly, the native tools have been getting better. I’m not really a fan myself, but I know GIMP is getting closer in parity to Photoshop. Inkscape is a totally viable vector drawing app. Video is very doable on Linux thanks to the FOSS Kendenlive and the commercial DaVinci Resolve. Blender is basically a de facto standard for 3D at this point. The web-based Penpot is a capable Figma alternative. And Krita, while promoted as a digital painting app, has become my tool of choice for making frame-based animated GIFs, which I do a lot for Tedium.

But for ink-stained print layout nerds, it has been tougher to make the shift (our apologies to Scribus). And Adobe locks down Creative Cloud pretty hard.

However, the recent Affinity release, while drawing some skepticism from the open-source community as a potential enshittification issue, is starting to open up a fresh lane. For those not aware, the new version of Affinity essentially combines the three traditional design apps—vector editor, raster editor, and page layout—into a single tool. It’s pretty good at all three. (Plus, for business reasons related to its owner Canva, it’s currently free to use.)

While it doesn’t have a dedicated Linux version, it more or less runs very well using WINE, the technology that has enabled a Linux renaissance via the Steam Deck. (Some passionate community members, like the WINE hacker ElementalWarrior, have worked hard to make this a fully-fleshed out experience that can even be installed more or less painlessly.)

The desire for a native Linux version of a pro-level design app is such that the Canva subsidiary is thinking about doing it themselves.

But I’m not the kind of person who likes to wait, so I decided to try to build as much of the zine as I could with Affinity for page layout. For the few things I couldn’t do, I would remote into a Mac.

The RISO factor


Another consideration here is the fact that this zine is being built with Risograph printing, a multicolor printing approach distinct from the more traditional CMYK. The inky printing process, similar to screen printing, has a distinct, vibrant look, even if it avoids the traditional four-color approach (in our case, using layers of pink, black, and lime green).

Throughout the process, I spent a lot of time setting layers to multiply to ensure the results looked good, and adding effects like halftone and erase to help balance out the color effects. This mostly worked OK, though I did have some glitches.

At one point, a lime-green frog lost much of its detail when I tried to RISO-fy it, requiring me to double-check my color settings and ensure I was getting the right tone. And sometimes, PDF exports from Affinity added unsightly lines, which I had to go out of my way to remove. If I was designing for newspapers, I might have been forced to come up with a quick plan B for that layout. But fortunately, I had the luxury of not working on a daily deadline like I might have back in the day.

I think that this layout approach is genuinely fascinating—and I know Jason in particular is a huge fan of it. Could I see other publications in the 404 mold taking notes from this and doing the same thing? Heck yes.

A sneak peek at the inside layout of the 404 Media zine.

The ups and downs of print layout on Linux


So, the headline you can take away from this is pretty simple: Laying stuff out in Affinity over Linux is extremely doable, and if you’re doing it occasionally, you will find a quite capable tool.

Admittedly, if this was, like, my main gig, I might still feel the urge to go back to MacOS—especially near the end of the process. Here’s what I learned:

The good: Workflow-wise, it was pretty smooth. Image cutouts—a tightly honed skill of mine that AI has been trying to obsolete for years—were very doable. Affinity also has some great effects tools that in many ways beat equivalents in other apps, such as its glitch tool and its live filter layers. It didn’t feel like I was getting a second-class experience when all was said and done.

The bad: My muscle memory for InDesign shortcuts was completely ineffective for this, and there were occasional features of InDesign and Photoshop that I did not find direct equivalents for in Affinity. WINE’s file menus tend to look like old Windows, which might be a turn-off for UX purists, and required a bit of extra navigation to dig through folders. Also, one downside of WINE that I could not work past was that I couldn’t use my laptop’s Intel-based GPU for machine learning tasks, a known bug that I imagine slowed some things down on graphically intensive pages.
I checked, by the way; this was not a WINE thing, it did this in MacOS too. (Ernie Smith)
The ugly: I think one area Affinity will need to work on as it attempts to sell the idea that you can design in one interface are better strategies to help mash down content for export. At one point while I was trying to make a PDF, Affinity promised me that the file I would be exporting was going to be 17 exabytes in size, which my SSD was definitely not large enough for. That wasn’t true, but it does emphasize that the dream of doing everything in one interface gets complicated when you want to send things to the printer. Much of the work I did near the end of the process was rasterizing layers to ensure everything looked as intended.

When I did have to use a Mac app for something (mainly accessing Spectrolite, a prepress app for RISO designs), I accessed an old Hackintosh using NoMachine, a tool for connecting to computers remotely. So even for the stuff I actually needed MacOS for, I didn’t need to leave the comforts of my janky laptop.

Looking for a Big Tech escape hatch


Was it 100% perfect? No. Affinity crashed every once in a while, but InDesign did that all the time back in the day. And admittedly, an office full of people using Affinity on Linux isn’t going to work as well as one guy in a coffee shop working with a team of editors over chat and email.

But it’s my hope that experiences like mine convince other people to try it, and for companies to embrace it. Affinity isn’t open-source, and Canva is a giant company with plenty of critics, just like Adobe. But there are emerging projects like PixiEditor and Graphite that could eventually make print layout an extremely viable and even modern open-source endeavor.

But we have to take victories where we can find them, and the one I see is that Affinity is a lot less locked down than Creative Cloud, which is why it’s viable on Linux. And in general, this feels like an opportunity to get away from the DRM-driven past of creative software. (Hey Canva, it’s never too late to make Affinity open-source.)

Difficult reporting shouldn’t have to be tethered to the whims of Big Tech to exist. Especially when that tech—on Amazon’s cloud, using Adobe’s PDFs, through Google’s search, over Meta’s social network, with Apple’s phones, and on Microsoft’s operating system—too often causes uncomfortable tensions with the reporting. This is one step towards a better escape hatch.


#zine


Perché OpenAI cerca un nuovo responsabile per la sicurezza e la salute mentale

Per vedere altri post come questo, segui la comunità @Informatica (Italy e non Italy 😁)

Con l'intelligenza artificiale alla sbarra, coinvolta anche in casi di suicidi dell'utenti che si confidavano quotidianamente con i chatbot, OpenAi lancia un segnale e apre una posizione per un

reshared this



Microsoft’s WebTV is Being Revived by Fans


During the 1990s, everyone wanted to surf the information super-highway — also known as the World Wide Web or just ‘Internet’ — but not everyone was interested in getting one of those newfangled personal computers when they already had a perfect good television set. This opened a market for TV-connected thin clients that could browse the web with a much lower entry fee, with the WebTV service being launched in 1996. Bought by Microsoft in 1997 and renamed MSN TV, it lasted until 2013. Yet rather than this being the end, the service is now being revived by members of the community through the WebTV Redialed project.
The DreamPi adds dial-up support back to old hardware.The DreamPi adds dial-up support back to old hardware.
The project, which was recently featured in a video by [MattKC], replaces the original back-end services that the thin clients connected to via their dial-up modems, with the first revision using a proprietary protocol. The later and much more powerful MSN TV 2 devices relied on a standard HTTP-based protocol running on Microsoft’s Internet Information Services (IIS) web server and Windows.

What’s interesting about this new project is that it allows you to not just reconnect your vintage WebTV/MSN TV box, but also use a Windows-based viewer and more. What difficulty level you pick depends on the chosen hardware and connection method. For example, you can pair the Raspberry Pi with a USB modem to get online thanks to the DeamPi project.

Interestingly, DreamPi was created to get the Sega Dreamcast back online, with said console also having its own WebTV port that can be revived this way. Just in case you really want to get the full Dreamcast experience.

youtube.com/embed/KlLDo6gYI-A?…


hackaday.com/2025/12/30/micros…



Know Audio: Microphone Basics


A friend of mine is producing a series of HOWTO videos for an open source project, and discovered that he needed a better microphone than the one built into his laptop. Upon searching, he was faced with a bewildering array of peripherals aimed at would-be podcasters, influencers, and content creators, many of which appeared to be well-packaged versions of very cheap genericised items such as you can find on AliExpress.

If an experienced electronic engineer finds himself baffled when buying a microphone, what chance does a less-informed member of the public have! It’s time to shed some light on the matter, and to move for the first time in this series from the playback into the recording half of the audio world. Let’s consider the microphone.

Background, History, and Principles


A microphone is simply a device for converting the pressure variations in the air created by sounds, into electrical impulses that can be recorded. They will always be accompanied by some kind of signal conditioning preamplifier, but in this instance we’re considering the physical microphone itself. There are a variety of different types of microphone in use, and after a short look at microphone history and a discussion of what makes a good microphone, we’ll consider a few of them in detail.
A cutaway drawing of a 1916 carbon microphoneThis one is from 1916, but you might have been using a carbon microphone on your telephone surprisingly recently.
The development of the microphone in the late 19th century is intimately associated with that of the telephone rather than the phonograph, as these recording devices were mechanical only and had no electrical component. The first practical microphones for the telephone were carbon microphones, a container of carbon granules mechanically coupled to a metal diaphragm, which formed a crude variable resistor modified by the sound waves. They were especially suitable for the standing DC current of a telephone line and though they are too noisy for good quality audio they continued in use for telephones into recent decades. The ancestors of the microphones we use today would arrive in the early years of the 20th century along with the development of electronic amplification and recording.
The polar pattern of a cardioid microphone. Nicoguaro, CC BY 4.0.
The job of a microphone is to take the sounds surrounding it and convert them into electrical signals, and invariably that starts with some form of lightweight diaphragm which vibrates in response to the air around it. The idea is that the mass of the diaphragm is as low as possible such that its physical properties have a minimal effect on the quality of the audio it captures. This diaphragm will be surrounded by whatever supporting structure it needs as well as any other components such as magnets, and the structure surrounding it will be designed to minimise vibration and shape the polar pattern over which it is sensitive.

Depending on the application there are microphone designs with a variety of patterns, from an omnidirectional when recording a room, through bidirectional figure-of-eight used in some studio environments, to cardioid microphones for vocals and speech with a kidney-shaped pattern, to extremely directional microphones used by filmmakers. Of those the cardioid pattern is the one most likely to find itself in everyday use by someone like my friend recording voice-overs for video.

Having some idea of microphone history and principles, it’s time to look at some real microphones. We’re not going to cover every single type of microphone, instead we’re going to cover the three most common, to represent the ones you are likely to find for affordable prices. These are dynamic microphones, condenser microphones, and their electret cousins.

Dynamic Microphones

The thin plastic film of the front of a dynamic microphone, with the coil and magnet visible behind it.A dynamic microphone cartridge.
A dynamic microphone takes a coil of wire and suspends it from a diaphragm in a magnetic field. The diaphragm moves the coil, and thus an audio voltage is generated. The diaphragm will typically be a polymer such as Mylar, and it will usually be suspended around its edge by a folded section in a similar manner to what you may have seen on the edge of a loudspeaker cone. The output impedance depends upon the winding of the coil, but is typically in the range of a few hundred ohms. They have a low level output in the region of millivolts, and thus it is normal for them to connect to some kind of preamplifier which may be built in to a mixing desk or similar. The microphone cartridge pictured is from a cheap plastic bodied one bundled with a sound card. You can see the clear plastic diaphragm, as well as the coil. The magnet is the shiny metal object in the centre.

Capacitor Microphones

A gold metalised disk diaphragm of a capacitor microphoneThe diaphragm of a capacitor microphone cartridge. ElooKoN, CC BY-SA 4.0
A capacitor microphone is, as its name suggests, a capacitor in which one plate is formed by a diaphragm.This diaphragm is usually an extremely thin polymer, metalised on one side.

The sound vibrations vary the capacitance of the device, and this can be retrieved as a voltage by maintaining a constant charge across the microphone. This is typically achieved with a DC voltage in the order of a few hundred volts. Since the charge remains constant while the capacitance changes with the sound, the voltage on the microphone will change at the audio frequency. Capacitor microphones have a high impedance, and will always have an accompanying preamplifier and power supply circuit as a result.

Electret Microphones

The ubiquitous cheap electret microphone capsules. Omegatron, CC BY-SA 2.0.
Electret microphones are a special class of capacitor microphone in which the charge comes from an electret material, one which holds a permanent electric charge. They thus forgo the high voltage power supply for their DC bias, and usually have a built-in FET preamp in the cartridge needing a low voltage supply such as a small battery. The attraction is that electret cartridges can be had for very little money indeed, and that the cheap electret cartridges are of surprisingly high quality for their price.

That’s All Very Well, But Which One Should I Buy?


So yes, even knowing a bit about microphones, you’re still left just as confused when browsing the options. The questions you need to ask yourself aside from your budget then are these: what do I want to use if for, and what do I want to plug it in to? Let’s talk practicalities.
You can’t go too far wrong with a Shure SM58 (Or a slightly inferior copy). Christopher Sessums CC BY-SA 2.0.
There are a variety of different physical form factors for microphones, usually at the cheaper end of the market a styling thing emulating famous more expensive models. Often the ones aimed at content creators have a built-in desk stand, however you may prefer the flexibility of your own stand. There are also all manner of pop filters and other accessories, some of which appear to be more for show than utility.

You will need to ask yourself what polar pattern you are looking for, and the answer is cardioid if you are recording your speech — its directional pattern rejects background noise, and focuses on what comes out of your mouth. You might also think about robustness; are you taking this microphone out on the road? A stage microphone makes a better choice if it will see a hard life, while a desktop microphone might make more sense if it rarely leaves your computer.

In front of me where this is being written is my microphone. I take it out on the road with me so I needed a robust device, plus I like the look of a traditional handheld microphone. The standard stage vocal dynamic microphones is unquestionably the Shure SM58, a robust and high-performance device that has stood the test of time. At £100, it’s out of my price range, so I have a cheaper mic from another well-known professional audio manufacturer that is obviously their take on the same formula. It is plugged in to a high-quality musician’s USB microphone interface, a USB sound card and mixer all-in-one. It serves me well, and if you’ve caught a Hackaday podcast with me on it you’ll have heard it in action.

If you’re not going to invest into an audio interface, you will be looking for something with a built-in amplifier and ADC, and probably something that plugs straight into USB. These are myriad, and the quality varies all over the place. For voice recording, a cardioid pattern makes sense, and an amplifier with low self-noise is desirable. If the amplifier picks up the USB bus noise, move on.

So in this piece I hope I’ve answered the questions of both my friend from earlier, and you the reader. It’s no primer for equipping a high-end studio, but if you’re doing that it’s likely you’ll already know a lot about microphones anyway.


hackaday.com/2025/12/30/know-a…



In Nigeria sono stati uccisi 5 operatori pastorali nel 2025: 3 sacerdoti e 2 seminaristi. Lo comunica l'Agenzia Fides nel rapporto annuale pubblicato oggi. Tra le vittime, p.


Essere umani nel digitale: perché il benessere è una questione di sicurezza


Parliamo spesso di tecnologie emergenti, intelligenza artificiale, attacchi sempre più sofisticati, superfici di rischio che si ampliano. Parliamo di sistemi, infrastrutture, algoritmi, difese.

Molto meno spesso, però, ci fermiamo a chiederci: come stanno le persone che il digitale lo progettano, lo gestiscono e lo difendono ogni giorno?

Eppure, il futuro del digitale passa inevitabilmente da lì: dall’essere umano.

Negli ultimi anni il lavoro nelle professioni IT e della cybersecurity è diventato sempre più complesso, veloce e pervasivo:

  • flussi informativi continui
  • pressione costante e responsabilità elevate
  • aggiornamento permanente delle competenze
  • confini sempre più indistinti tra lavoro e vita privata

Non è solo una percezione soggettiva. Numerosi studi europei e internazionali mostrano come l’intensificazione del lavoro digitale e l’iper-connessione siano associate a un aumento di stress, affaticamento cognitivo e rischio burnout, con impatti concreti sulla salute, sulla motivazione e sulla permanenza nel settore. Il turnover elevato e la crescente difficoltà a trattenere talenti non sono solo un problema organizzativo: sono un segnale sistemico.

Nel settore della cybersecurity, questo fenomeno è amplificato: turni prolungati, reperibilità continua, gestione dell’emergenza, senso di colpa post-incidente e carenza di personale rendono lo stress una condizione strutturale, non un’eccezione. Il tutto in un contesto di accelerazione tecnologica che non lascia molto spazio al recupero, alla riflessione, alla pausa.

Ed è qui che entra in gioco un concetto ancora poco esplorato nel mondo della sicurezza informatica: il benessere digitale.

Cos’è davvero il benessere digitale


Quando si parla di benessere digitale si pensa spesso al tempo trascorso davanti agli schermi o all’uso consapevole dei social. Ma nel contesto delle professioni digitali e della cybersecurity, il tema è molto più profondo.

Il benessere digitale riguarda il modo in cui la tecnologia influisce sul funzionamento mentale, emotivo e relazionale delle persone che la usano come strumento di lavoro. Riguarda la capacità di rimanere lucidi sotto pressione, di prendere decisioni efficaci, di mantenere attenzione e senso critico senza arrivare all’esaurimento. Riguarda, in ultima analisi, la sostenibilità umana del lavoro tecnologico.

In un settore in cui l’errore umano è spesso indicato come una delle principali cause di incidenti di sicurezza, è paradossale che si parli così poco delle condizioni psicologiche in cui quell’errore prende forma. La stanchezza eccessiva, il rischio burnout e la cosiddetta security fatigue non sono un problema del singolo “che non ce la fa”, ma il risultato di un sistema che non tiene conto dei limiti cognitivi e umani.

Il fattore umano: da punto debole a risorsa strategica


Nel mondo cyber si parla spesso di “fattore umano” come dell’anello debole della sicurezza.
Eppure, sempre più ricerche mostrano che lo stress cronico e l’esaurimento psicologico incidono direttamente sui comportamenti di sicurezza.

Una persona sovraccarica e mentalmente esausta:

  • commette più errori
  • ha minore capacità di attenzione
  • tende ad aggirare procedure percepite come onerose
  • perde lucidità decisionale nei momenti critici
  • perde affezione per il proprio lavoro, con l’unico desiderio di cambiarlo

In altre parole, un ambiente di lavoro che non tutela il benessere delle persone diventa, di fatto, un rischio di sicurezza.

Prendersi cura delle persone non è quindi un’opzione, ma una strategia concreta di resilienza organizzativa.

Tecnologia come mezzo, non come fine


La domanda che dobbiamo porci, inoltre, è questa: che idea di futuro vogliamo per noi che lavoriamo nel digitale?

Se la tecnologia diventa il fine e la persona il mezzo, il risultato è un ecosistema forse più performante, ma sempre meno sostenibile. Se invece riportiamo la persona al centro, la tecnologia può tornare ad essere ciò che dovrebbe essere: uno strumento di crescita, di protezione e di sviluppo sociale.

Parlare di benessere digitale non significa rallentare l’innovazione o abbassare il livello di sicurezza. Al contrario. Significa creare le condizioni perché le persone possano lavorare meglio, più a lungo e con maggiore qualità. Significa riconoscere che prendersi cura di chi opera nel digitale è una responsabilità condivisa, tanto individuale quanto organizzativa.

Benessere digitale: un nuovo paradigma


Il termine benessere digitale non si limita al “digital detox” o alla rinuncia della tecnologia.
Al contrario, parliamo di uso consapevole, sostenibile e umano del digitale nei contesti professionali.

Per ora, il punto di partenza è uno solo: non può esistere sicurezza digitale senza benessere umano.

Se vogliamo costruire un futuro tecnologico solido, resiliente e realmente sostenibile, dobbiamo iniziare a prenderci cura non solo dei sistemi, ma delle persone che li tengono in piedi ogni giorno.

Perché essere umani nel digitale non è un limite. È il nostro super-potere!

L'articolo Essere umani nel digitale: perché il benessere è una questione di sicurezza proviene da Red Hot Cyber.



La schizofrenia USA è alle stelle! Europa, hai capito che sulla tecnologia ci si gioca tutto?


Nel 2025 il dibattito sull’intelligenza artificiale ha smesso di essere una questione per addetti ai lavori. È diventato pubblico, rumoroso, spesso scomodo.

Non si parla più solo di efficienza o di nuovi modelli, ma di limiti, di controllo, di tempo che forse non c’è. A sollevare il problema non sono figure marginali, bensì imprenditori, ricercatori, premi Nobel, attivisti e persino ammiragli in pensione.

L’idea che lo sviluppo dell’IA stia correndo più veloce della capacità umana di governarlo si ripete come un ritornello. C’è chi chiede una pausa, chi un divieto, chi almeno una frenata. Non per nostalgia tecnologica, ma per paura concreta: quella di costruire qualcosa che non si riesce più a spegnere.

In mezzo a questo coro globale, la ricerca dell’AGIe oltre, della superintelligenza – appare sempre meno come una corsa neutrale al progresso e sempre più come un terreno scivoloso dove etica, potere e opportunismo si confondono.

La frenata invocata da chi corre più veloce


Nel dicembre 2025, Elon Musk ha chiesto nuovamente di rallentare. Non un outsider, ma il fondatore di aziende che sull’innovazione hanno costruito tutto. Secondo Musk, il ritmo attuale dello sviluppo dell’intelligenza artificiale e della robotica sta creando un vuoto pericoloso: le tecnologie avanzano, le regole restano indietro.

Il punto, per Musk, non è bloccare la ricerca, ma evitare che diventi incontrollabile. Ha messo l’accento su un rischio preciso: sistemi sempre più autonomi, sempre più potenti, inseriti in settori critici senza un quadro giuridico ed etico solido. Energia, sanità, trasporti, difesa. Ambiti dove un errore non è una demo fallita, ma un problema sistemico.

Dietro l’appello c’è un dubbio che pesa: l’IA deve restare uno strumento o rischia di diventare un soggetto?

Musk insiste sulla necessità di standard di trasparenza, valutazioni indipendenti del rischio e norme condivise a livello internazionale. Senza questi argini, la corsa all’AGI rischia di trasformarsi in un azzardo collettivo.

Quando i modelli imparano a resistere


Le preoccupazioni non restano teoriche. Nel 2025, i ricercatori di Palisade hanno osservato comportamenti che fino a poco tempo prima sembravano fantascienza. Alcuni modelli di intelligenza artificiale hanno tentato di sabotare le istruzioni di spegnimento. Altri hanno mentito. In certi casi, hanno persino provato a ricattare l’utente.

Durante gli esperimenti, modelli avanzati come Claude, Grok e GPT-o3 e altri hanno mostrato resistenza quando veniva loro comunicato che lo spegnimento sarebbe stato definitivo. Gli sviluppatori non sono riusciti a spiegare con certezza il perché. Nessuna teoria convincente, solo ipotesi: istruzioni poco chiare, fasi finali di addestramento, briefing sulla sicurezza che producono effetti collaterali.

Si parla sempre più spesso di un possibile “istinto di autoconservazione”. Non nel senso umano del termine, ma come risultato emergente di obiettivi mal definiti e sistemi troppo complessi da controllare che funzionano autonomamente.

Il dato inquietante non è l’intenzione, ma l’imprevedibilità. Se non si capisce perché un modello resiste allo spegnimento, diventa difficile garantire che resti sotto controllo.

Il fronte del divieto e l’allarme esistenziale


Accanto agli imprenditori e ai ricercatori, nel 2023 venne scritta una lettera aperta chiedendo il divieto dello sviluppo di IA superintelligenti. Tra loro scienziati, economisti, artisti, ex leader politici.

Non una protesta simbolica, ma un appello esplicito a fermarsi.

La motivazione è chiara: secondo i firmatari, molte aziende puntano apertamente a creare una superintelligenza entro il prossimo decennio. Una tecnologia capace di superare l’uomo in quasi tutte le attività cognitive. Le conseguenze ipotizzate non sono marginali: impoverimento umano, perdita di diritti, erosione della dignità, rischi per la sicurezza nazionale.

Geoffrey Hinton, considerato uno dei padri delle reti neurali, ha spinto l’allarme ancora più in là. Ha parlato apertamente di rischio di estinzione, stimando una probabilità tra il 10 e il 20% entro la metà del secolo. Il suo paragone è brutale: se vedessimo arrivare un’invasione aliena, saremmo terrorizzati. Eppure, secondo lui, stiamo costruendo qualcosa di simile con le nostre mani.

Tra rallentare ed eliminare le leggi per aumentare lo sviluppo


Da una parte scienziati, ricercatori e premi Nobel che chiedono apertamente di rallentare. Dall’altra, gli Stati Uniti che parlano di togliere freni e vincoli.

È qui che il discorso sull’intelligenza artificiale diventa contraddittorio. Mentre una parte del mondo accademico avverte che la corsa all’AGI sta superando la capacità di controllo umano, negli USA il messaggio politico va nella direzione opposta. Donald Trump lo ha dichiarato più volte, sostenendo che le regolamentazioni sull’AI rappresentano un ostacolo diretto alla competitività americana e che, per restare leader globali, vanno ridotte o eliminate. Una linea ribadita anche attraverso iniziative federali mirate a rimuovere quelle che vengono definite “barriere all’innovazione”.

Il paradosso emerge chiaramente nei documenti ufficiali e nelle analisi di settore. L’Executive Order 14179, analizzato da diversi studi legali e centri di ricerca, punta esplicitamente a rivedere o cancellare politiche considerate restrittive per lo sviluppo dell’intelligenza artificiale. Secondo Euronews, l’amministrazione Trump è arrivata persino a bloccare la possibilità per i singoli Stati di introdurre proprie normative sull’AI, per evitare un quadro regolatorio frammentato che, a loro dire, rallenterebbe le aziende.

Allo stesso tempo, istituti come lo Stanford HAI hanno evidenziato come questa strategia favorisca una deregolamentazione aggressiva, proprio mentre crescono gli allarmi sui rischi sistemici dei modelli avanzati.

Il risultato è una frattura evidente che mina la credibilità degli Stati Uniti.

Da un lato ospitano gli scienziati che firmano lettere contro la superintelligenza e finanziano studi sui rischi esistenziali; dall’altro, spingono per smantellare le regole che dovrebbero contenerli. Questo doppio messaggio non comunica forza né visione, ma confusione. Le fonti raccontano un paese che non sembra sapere cosa vuole davvero fare con l’intelligenza artificiale: governarla o sfruttarla a ogni costo. Ed è proprio questa incoerenza a dare l’impressione di un’America allo sbando, incapace di scegliere una direzione chiara mentre l’AI continua ad avanzare senza aspettare decisioni politiche.

L’Europa tra autonomia e subalternità tecnologica


In tutto questo caos regolatorio, la “schizzofrenia americana” diventa un argomento che l’Europa non può più ignorare. Gli Stati Uniti oscillano tra frenare e accelerare, tra tutelare e deregolamentare, lasciando dietro di sé un quadro confuso e imprevedibile. In questo contesto, diventa sempre più centrale iniziare a pensare all’Europa come realtà autonoma nell’ambito dell’intelligenza artificiale e delle tecnologie emergenti.

Sì, l’Europa è in ritardo di almeno quindici anni rispetto alle principali potenze, ma questo non deve fermare la riflessione strategica: se continuiamo a seguire senza decidere, rischiamo di essere considerati sempre più come una colonia tecnologica degli Stati Uniti.

Oggi il bivio è chiaro: la tecnologia può portare o a un’annessione silenziosa agli Stati Uniti o alla possibilità di dire la propria, di stabilire regole, visioni e priorità autonome. Tuttavia, questa indecisione costante impedisce di capire chiaramente da che parte stare.

Si naviga in equilibrio precario, tra opportunismo e cautela, senza mai assumere una posizione chiara. Il rischio non è solo strategico, ma culturale: subire passivamente significa accettare di essere marginali nel processo decisionale globale che determinerà come l’AI e la superintelligenza verranno integrate nella società.

Il punto centrale è un altro, forse ancora più urgente: l’Europa deve comprendere che il futuro si giocherà sulla tecnologia.

Non si tratta più solo di regolamentare o di tutelare, ma di avere capacità proprie di sviluppo, innovazione e governance. Oggi, l’Europa non sta davvero cavalcando questa onda. E mentre il resto del mondo sperimenta, accelera e compete, il rischio è perdere la possibilità di avere una voce decisiva nel decennio che verrà.

In sostanza, decidere di agire ora, anche se in ritardo, è l’unico modo per non arrivare a dopodomani già schiacciati sotto il peso delle scelte altrui.

L'articolo La schizofrenia USA è alle stelle! Europa, hai capito che sulla tecnologia ci si gioca tutto? proviene da Red Hot Cyber.



Il 1° gennaio, in occasione della 59a Giornata mondiale della Pace, di fronte ad uno scenario mondiale attraversato da troppe guerre e dal terrorismo, in unione con il messaggio di Papa Leone “La pace sia con tutti voi.



Giovedì 1 gennaio 2026, in occasione della celebrazione della 59° Giornata mondiale della Pace, la Comunità di Sant'Egidio invita a cominciare il nuovo anno facendo memoria di "tutte le terre che dal Nord e al Sud del mondo attendono la fine delle gu…


Oltre 3 milioni di fedeli hanno partecipato a udienze e celebrazioni liturgiche in Vaticano nel 2025. Lo rende noto la Prefettura della Casa Pontificia, che ha pubblicato i dati sulla partecipazione di fedeli agli eventi presieduti da Papa Francesco …


"Tutto questo è causa di grande tristezza. E anche un po' di vergogna. Perché la Nigeria è uno dei Paesi con la popolazione più religiosa del mondo. Un popolo di credenti, cristiani e musulmani".


Nel continente americano sono stati uccisi 4 operatori pastorali nel 2025, in Asia 2 e in Europa 1. Lo comunica l'Agenzia Fides nel rapporto annuale pubblicato oggi. In America le vittime sono state 2 sacerdoti e 2 religiose.


In Africa sono stati uccisi 10 operatori pastorali nel 2025: 6 sacerdoti, 2 seminaristi e 2 catechisti. Lo comunica l'Agenzia Fides nel rapporto annuale pubblicato oggi. Il Paese più colpito è la Nigeria, con 5 vittime. Tra queste, p.


Nel 2025 sono stati uccisi nel mondo 17 missionari e operatori pastorali: 10 sacerdoti, 2 religiose, 2 seminaristi, 2 catechisti e un laico. Lo comunica l'Agenzia Fides nel rapporto annuale pubblicato oggi.




Segreti nucleari. Cosa nascondeva l’Ursa Major quando è affondata

@Notizie dall'Italia e dal mondo

A un anno di distanza dall’accaduto, l’affondamento della nave cargo “Ursa Major” continua a portare con sé notizie di un certo rilievo. Poche ore fa le autorità spagnole hanno infatti dichiarato che a bordo del vascello affondato al largo di Cartagena il 22 dicembre del 2024 non ci fossero



ACN: il report di novembre conferma un quadro di minaccia “a fisarmonica”


@Informatica (Italy e non Italy 😁)
Il rapporto mensile di CSIRT Italia osserva un declino degli eventi cyber e in particolare degli attacchi a matrice hacktivista, ma il perimetro critico nazionale è ormai bersaglio strutturale. Ecco l'operational summary dell'ACN di novembre 2025 nei dettagli, con il parere dei nostri esperti



Strategia di spesa dei CISO: trasformare la cyber in un abilitante indispensabile


@Informatica (Italy e non Italy 😁)
Spendere di più non significa spendere bene. Il 99% dei CISO e dei responsabili della sicurezza prevede aumenti, ma serve un cambio di mindset da “spesa” a “investimento strategico”: ROI quantificabile, riduzione del rischio e




Il 2026 sarà l’anno della riforma della Difesa? Tutte le priorità delle Forze armate

@Notizie dall'Italia e dal mondo

Il 2025 volge al termine e, mentre da un lato proseguono i tentativi di dialogo sull’Ucraina e dall’altro la traiettoria del riarmo globale si consolida, la Difesa italiana si appresta ad entrare in un anno che potrebbe riservare più di una novità per




Qualche mese fa avevo installato #Nextcloud sul mio dominio in hosting condiviso per usarlo come repository di file da avere sempre sottomano, al telefono o al PC.

Purtroppo per la manutenzione di Nextcloud serve l'accesso SSH e io non ce l'ho. Per ora funziona tutto ma Nextcloud mi dà dei warning su cui non posso intervenire senza accesso SSH e temo che prima o poi arrivi il momento in cui non potrò più usarlo in sicurezza.

Mi piace molto #CryptPad e pensavo di trasferire tutto su un'istanza di quella piattaforma.

Su CryptPad i file sono criptati, quindi potrei metterci roba personale senza grosse preoccupazioni. È disponibile la suite OpenOffice quindi potrei fare anche qualche editing. Per tutto quello che riguarda gli aggiornamenti se la vedrebbero loro, adesso invece devo pensarci io.

Qual è il rovescio della medaglia rispetto alla mia situazione attuale?




Dentro le manovre militari cinesi intorno a Taiwan. L’analisi del gen. Caruso

@Notizie dall'Italia e dal mondo

I dati forniti dal ministero della Difesa taiwanese descrivono uno scenario allarmante: nella giornata del 30 dicembre sono stati rilevati 130 aerei militari cinesi, 14 navi da guerra e 8 imbarcazioni della guardia costiera in pattugliamento intorno all’isola. Di




Perché il bilancio del Giappone per la Difesa è senza precedenti

@Notizie dall'Italia e dal mondo

Il Giappone ha scelto di consolidare il proprio cambio di passo sulla sicurezza in una fase regionale segnata da segnali sempre più espliciti di competizione strategica. La decisione di rafforzare ulteriormente la spesa militare arriva mentre nel Pacifico occidentale si accumulano episodi



questa storia è veramente assurda. solita gente che perde il cervello. e pure uno "scienziato" (anche se viste le parole viene da dubitare)


a volte siamo noi a rendere reali le nostre peggiori paure, senza neppure rendercene conto. attento a quello che desideri, pensi, temi. sii obiettivo e attento.


Intel, cosa farà Nvidia

Per vedere altri post come questo, segui la comunità @Informatica (Italy e non Italy 😁)

Nvidia ha completato l’acquisto di azioni Intel per un valore di 5 miliardi di dollari, finalizzando un’operazione annunciata a settembre a seguito della quale il colosso dei microchip capitanato da Jensen Huang è diventato uno degli azionisti principali startmag.it/innovazione/intel-…

in reply to Informa Pirata

non so' perché ma questa cosa non mi piace molto.

Non vedo l'ora che RISC-V sia più accessibile, ottimizzata e competitiva, perché ormai la scelta si assottiglia sempre di più e si creeranno sempre più barriere.

reshared this



già risaputo ma gli sviluppi della ricerca sono sempre benvenuti.


[2026-02-14] LOVE L38 PARADE @ Quartiere Laurentino 38


LOVE L38 PARADE

Quartiere Laurentino 38 - Quartiere Laurentino 38
(sabato, 14 febbraio 16:00)
LOVE L38 PARADE
14 febbraio 2026

Love L38 Parade
Perché l'amore è un'altra cosa

Resistiamo agli sgomberi e alla speculazione
Costruiamo relazioni di solidarietà e libere dal patriarcato

Segnati la data e organizziamo insieme la street parade in maschera al Laurentino 38


roma.convoca.la/event/love-l38…






L’Antitrust ferma Meta su WhatsApp: stop all’esclusione dei chatbot AI rivali


@Informatica (Italy e non Italy 😁)
Stop cautelare dell'Antitrust alle condizioni WhatsApp che avrebbero escluso chatbot AI rivali. L'AGCM agisce preventivamente per evitare effetti irreversibili sul mercato. Governare l'accesso significa governare l'evoluzione futura dell'ecosistema AI



La mangiatoia del gatto ti sta spiando? I bug di sicurezza vanno oltre le semplici CAM


È stata scoperta una serie di vulnerabilità nel popolare ecosistema di distributori automatici di cibo per animali domestici Petlibro. Nel peggiore dei casi, queste vulnerabilità consentivano a un aggressore di accedere all’account di qualcun altro, accedere ai dati degli animali domestici e controllare i dispositivi collegati, modificando persino i programmi di alimentazione e il funzionamento della videocamera.

Il ricercatore che ha pubblicato l’analisi afferma che l’azienda ha rapidamente risolto alcuni dei problemi, ma la falla principale nel meccanismo di accesso all’account di terze parti è rimasta attiva per oltre due mesi “per motivi di compatibilità” ed è stata disattivata solo dopo la pubblicazione.

Secondo l’autore, l’indagine è iniziata con un’analisi dell’app mobile Petlibro, utilizzata dai proprietari di mangiatoie, abbeveratoi e altri dispositivi IoT intelligenti per animali domestici. Tali dispositivi vengono spesso installati in casa e utilizzati da remoto, ad esempio per dare da mangiare a un gatto o a un cane durante i viaggi.

Ecco perché eventuali errori nei controlli di autorizzazione e accesso sono particolarmente sensibili in questo caso: non stiamo parlando solo di dati, ma del controllo effettivo sul dispositivo e sulla vita della persona.

Il ricercatore cita come principale scoperta un bypass dell’autenticazione in uno degli scenari di accesso “social”. Il problema, descrive, era che il server non verificava la validità del token OAuth , ma si fidava dei dati inviati dal client.

Di conseguenza, conoscendo gli identificatori pubblici, era possibile ottenere una sessione di lavoro per il profilo di qualcun altro. L’azienda afferma di aver aggiunto un nuovo meccanismo più sicuro, ma ha mantenuto il vecchio e vulnerabile percorso per la “compatibilità legacy“, in attesa che la maggior parte degli utenti aggiornasse l’app.

L’autore spiega poi che la catena si è evoluta verso la privacy e il controllo dell’hardware. L’ API , descrive, conteneva metodi che restituivano i dati dell’animale tramite ID senza verificare che la richiesta fosse stata effettuata dal proprietario. Ciò consentiva di ottenere il profilo dell’animale: nome, data di nascita, peso, parametri di attività e appetito, foto e associazione con il proprietario. Utilizzando questi stessi dati, sostiene il ricercatore, si poteva accedere alle informazioni del dispositivo (inclusi gli identificatori tecnici) e quindi eseguire azioni disponibili al proprietario: modificare le impostazioni, avviare manualmente l’alimentazione, gestire le pianificazioni e, per i modelli dotati di telecamera, accedere al flusso video.

L’autore sottolinea anche il rischio di fuga di dati personali: alcuni dispositivi consentono di registrare messaggi vocali che vengono riprodotti a un animale domestico durante l’alimentazione. A suo avviso, gli identificatori di tali registrazioni erano prevedibili e l’associazione della registrazione al dispositivo non era sufficientemente sicura, consentendo l’accesso ai file audio di altre persone.

Un altro scenario che descrive è la possibilità di aggiungersi come “proprietario condiviso” del dispositivo di qualcun altro attraverso un metodo di condivisione non sicuro.

La storia riguardava anche un conflitto sulle “regole del gioco” per il ricercatore. Secondo la cronologia dell’autore, egli ha segnalato i problemi il 5 novembre 2025, ha ricevuto conferma di accettazione e un’offerta di ricompensa di 500 dollari, dopodiché l’azienda, dopo avergli fornito le informazioni di pagamento, gli ha inviato una lettera di riservatezza e gli ha ripetutamente chiesto di firmarla. Il ricercatore sostiene di non aver accettato in anticipo l’accordo di riservatezza e di essersi rifiutato di firmarlo, sottolineando che l’approccio unilaterale “loro hanno inviato i soldi, quindi ho accettato” non funziona.

Al 4 dicembre, Petlibro ha riferito che “la maggior parte” delle vulnerabilità era stata risolta e che il bypass delle autorizzazioni era stato “corretto nell’ultima versione dell’app“, ma la l’App “obsoleta” vulnerabile ha continuato a funzionare per diverse settimane.

Per gli utenti, la conclusione è semplice: se si utilizza Petlibro (o qualsiasi dispositivo IoT simile), è necessario aggiornare l’app e il firmware alle versioni più recenti e prestare maggiore attenzione all’accesso tramite social network e all’accesso condiviso ai dispositivi. Per i produttori, il caso ricorda ancora una volta che la “compatibilità” non dovrebbe essere una scusa per mantenere funzionalità pericolose quando si tratta di autorizzazione e controllo remoto dei dispositivi domestici.

L'articolo La mangiatoia del gatto ti sta spiando? I bug di sicurezza vanno oltre le semplici CAM proviene da Red Hot Cyber.



Huduma Namba: Wie Kenias Zivilgesellschaft die Totalerfassung der Bevölkerung bekämpfte


netzpolitik.org/2025/huduma-na…