Salta al contenuto principale



Patching Up Failing Hearts With Engineered Muscle Tissue


As the most important muscle in our body, any issues with our heart are considered critical and reason for replacement with a donor heart. Unfortunately donor hearts are rather rare, making alternatives absolutely necessary, or at the very least a way to coax the old heart along for longer. A new method here seems to be literally patching up a patient’s heart with healthy heart tissue, per the first human study results by [Ahmad-Fawad Jebran] et al. as published in Nature (as well as a partially paywalled accompanying article).

Currently, simple artificial hearts are a popular bridging method, which provide a patient with effectively a supporting pump. This new method is more refined, in that it uses induced pluripotent stem cells (iPS) from an existing hiPSC cell line (TC1133) which are then coaxed into forming cardiomyocytes and stromal cells, effectively engineered heart muscle (EHM). After first testing this procedure on rhesus macaque monkeys, a human trial was started involving a 46-year old woman with heart failure after a heart attack a few years prior.

During an operation in 2021, 10 patches of EHMs containing about 400 million cells each were grafted onto the failing heart. When this patient received a donor heart three months later, the removed old heart was examined and the newly grafted sections found to be healthy, including the development of blood vessels.

Although currently purely intended to be a way to keep people alive until they can get a donor heart, this research opens the tantalizing possibility of repairing a patient’s heart using their own cells, which would be significantly easier than growing (or bioprinting) an entire heart from scratch, while providing the benefit of such tissue patches grown from one’s own iPS cells not evoking an immune response and thus mitigating the need for life-long immune system suppressant drugs.

Featured image: Explanted heart obtained 3 months after EHM implantation, showing the healthy grafts. (Credit: Jebran et al., 2025, Nature)


hackaday.com/2025/01/30/patchi…



Copper Candle Burns Forever… Just add Fuel


[Zen Garden Oasis] wanted to heat and light a space using a candle. But candles aren’t always convenient since they burn down and, eventually, you must replace them. So he built copper candles using a common copper pipe and an old glass jar. Of course, the candle still takes fuel that you have to replace, but the candle itself doesn’t burn down.

The basic idea is that the copper tube holds a high-temperature carbon wick that stays saturated with fuel. The fuel burns, but the wick material doesn’t. The copper part is actually concentric with a 3/4-inch pipe mostly enclosing a 1/2-inch pipe.

The inner pipe extends further, and there are several holes in each pipe for fuel and air flow. The extended part of the pipe will be the candle’s flame. The wick wraps the entire inner pipe, stopping when it emerges from the outer pipe.

The fuel is alcohol, just like the old burner in your childhood chemistry set. The flame isn’t very visible, but a little salt in the fuel can help make the burn more orange.

Of course, this is a flame, so you need ventilation. You’ll also want to take care to make sure the candle—or anything burning—doesn’t tip over or set something else on fire. These candles will store just fine, and they can even burn common rubbing alcohol, so they could be useful in an emergency to generate heat and light with no electricity. Even a small candle can generate heat around 300F. Bigger candles make more heat, and the video shows ways to capture the heat to make it more useful.

There are a number of useful comments about drilling a cleaner hole in the jar lid and better replacements for the JB Weld seal. We’d have suggested furnace cement, which is easy to find and cheap.

youtube.com/embed/7LV5wY-iM34?…


hackaday.com/2025/01/30/copper…



Il Garante Blocca DeepSeek in Italia: La Delucidazione è Stata “Del Tutto Insufficiente”


Dopo aver inviato una richiesta ufficiale alle società cinesi Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence, il Garante per la protezione dei dati personali ha emesso un ulteriore comunicato in cui blocca con effetto immediato il trattamento dei dati degli utenti italiani da parte del chatbot DeepSeek.

Il provvedimento arriva dopo che le risposte fornite dalle società sono state ritenute del tutto insufficienti. Le aziende avevano dichiarato di non operare in Italia e di non essere soggette alla normativa europea, una posizione che il Garante ha contestato con fermezza, avviando un’istruttoria per verificare eventuali violazioni della normativa sulla protezione dei dati.

DeepSeek: l’AI cinese sotto osservazione


DeepSeek è un software di intelligenza artificiale relazionale, progettato per comprendere ed elaborare il linguaggio umano. Lanciato di recente a livello globale, ha registrato milioni di download in pochi giorni, attirando rapidamente l’attenzione delle autorità di regolamentazione.

In una precedente richiesta di informazioni, il Garante aveva chiesto a DeepSeek dettagli su:

  • Quali dati personali vengono raccolti e da quali fonti;
  • La base giuridica del trattamento e le finalità d’uso dei dati;
  • La localizzazione dei server, con particolare attenzione a un eventuale trasferimento di dati verso la Cina;
  • Le metodologie di addestramento del modello AI, inclusa la raccolta di informazioni tramite web scraping, e come gli utenti (registrati e non) venissero informati su tali pratiche.

Tuttavia, la risposta delle aziende cinesi è stata ritenuta inadeguata e non conforme alle richieste dell’Autorità.

La decisione del Garante


A tutela della privacy degli utenti italiani, il Garante ha disposto la limitazione immediata del trattamento dei dati da parte di DeepSeek, bloccando di fatto l’operatività del chatbot in Italia. Contestualmente, è stata aperta un’istruttoria per approfondire le eventuali violazioni della normativa europea sulla protezione dei dati personali.

Questa vicenda segna un nuovo capitolo nella crescente attenzione delle autorità europee nei confronti delle AI di origine straniera, soprattutto in relazione al trattamento dei dati personali e alla trasparenza degli algoritmi di addestramento.

L’episodio DeepSeek ricorda il caso di ChatGPT, che nel 2023 era stato temporaneamente bloccato in Italia per presunte violazioni della privacy, salvo poi essere riammesso dopo l’adozione di misure correttive. Le big tech dell’AI dovranno ora confrontarsi con normative sempre più stringenti, per garantire la protezione dei dati degli utenti europei.

Abbiamo chiesto a DeepSeek cosa ne pensa relativamente al comunicato del garante e l’AI ha riportato quanto segue:

L'articolo Il Garante Blocca DeepSeek in Italia: La Delucidazione è Stata “Del Tutto Insufficiente” proviene da il blog della sicurezza informatica.




Comparing Adhesives for Gluing PETG Prints



Testing every kind of glue with PETG, including wood glue. (Credit: Cosel, YouTube)Testing every kind of glue with PETG, including wood glue. (Credit: Cosel, YouTube)
PETG is a pretty great material to print 3D models with, but one issue with it is that gluing it can be a bit of a pain. In a recent video by [Cosel] (German language, with English auto-dub) he notes that he found that with many adhesives the adhesion between PETG parts would tend to fail over time, so he set out to do a large test with just about any adhesive he could get his hands on. This included everything from epoxy to wood glue and various adhesives for plastics

For the test, two flat surfaces were printed in PETG for each test, glued together and allowed to fully dry over multiple days. After about a week each sample was put into a rig that tried to pull the two surfaces apart while measuring the force required to do so.

With e.g. two-part epoxy and super glue the parts would break rather than the glue layer, while with others the glue layer would give way first. All of these results are noted in the above graphic that has the force listed in Newton. The special notes and symbols stand for strong smell (‘Geruch’), the PETG itself breaking (‘Substrat gebrochen’) and high variability (‘hohe Streuung’) between the multiple samples tested per adhesive.

Interesting is that multiple superglues (‘Sekundenkleber’) show different results, while MMA (Methyl Methacrylate) and similar score the highest. The Bostik P580 is a polyurethane construction adhesive, usually used for gluing just about anything to anything in interior and exterior applications, so perhaps its high score isn’t so surprising. Trailing at the end are the wood glue in last place, with the UHU general adhesive also scoring rather poorly.

Clearly there are many options for gluing PETG parts, but some are definitely more sturdy than others.

Thanks to [Risu no Kairu] for the tip.

youtube.com/embed/tyo8vLorpZo?…


hackaday.com/2025/01/30/compar…




"Per Trump la colpa dell'incidente in volo è delle politiche inclusive". fermo restando che una indagine chiarirà le cause dell'incidente, come sempre avviene in areonautica civile, solo io penso che questo sia un pazzo criminale, inadatto al ruolo? quali potranno essere le consegue cumulative di quanto detto da questo individuo nell'arco di appena 1 settimana? un tempo i presidenti volevano essere presidenti di tutti gli americani... ma non credo che valga per Trump, che ucciderebbe tutti i suoi avversari. come del resto ha già cercato di fare.

RFanciola reshared this.

in reply to simona

ah ecco.. ok. allora va tutto bene. mancava giusto quello che parlava dell'italia. casomai ci combinasse per caso qualcosa. premuto a forza. una riedizione di "e allora bibbiano"...


e io che pensavo che negli USA la caccia alle streghe (comunisti, giapponesi, o a chi tocca) fosse un difetto di ingenuità... adesso ce l'ha con persone transgender? proprio una spazzatura di presidente si sono scelti gli americani... tanti auguri. vedrete che bel futuro negli stati uniti. l'unico che se la cava sempre è l'uomo bianco "ariano". che bei ricordi... hitler gongolerebbe.

reshared this

in reply to simona

la nato non è gli stati uniti. semmai vanno buttato fuori gli usa dalla nato. sul resto fenrmamente dissento da @informapirata ⁂
in reply to simona

> sul resto fenrmamente dissento da @informapirata

Ci sta, eh... 😅
Solo non ho capito quale sia questo resto



Retrotechtacular: The Tyranny of Large Numbers


Although much diminished now, the public switched telephone network was one of the largest machines ever constructed. To make good on its promise of instant communication across town or around the world, the network had to reach into every home and business, snake along poles to thousands of central offices, and hum through the ether on microwave links. In its heyday it was almost unfathomably complex, with calls potentially passing through thousands of electronic components, any of which failing could present anything from a minor annoyance to a matter of life or death.

The brief but very interesting film below deals with “The Tyranny of Large Numbers.” Produced sometime in the 1960s by Western Electric, the manufacturing arm of the Bell System, it takes a detailed look at the problems caused by scaling up systems. As an example, it focuses on the humble carbon film resistor, a component used by the millions in various pieces of telco gear. Getting the manufacturing of these simple but critical components right apparently took a lot of effort. Initially made by hand, a tedious and error-prone process briefly covered in the film, Western Electric looked for ways to scale up production significantly while simultaneously increasing quality.

While the equipment used by the Western engineers to automate the production of resistors, especially the Librascope LGP-30 computer that’s running the show, may look quaint, there’s a lot about the process that’s still used to this day. Vibratory bowl feeders for the ceramic cores, carbon deposition by hot methane, and an early version of a SCARA arm to sputter gold terminals on the core could all be used to produce precision resistors today. Even cutting the helical groove to trim the resistance is similar, although today it’s done with a laser instead of a grinding wheel. There are differences, of course; we doubt current resistor manufacturers look for leaks in the outer coating by submerging them in water and watching for bubbles, but that’s how they did it in the 60s.

The productivity results were impressive. Just replacing the silver paint used for terminal cups with sputtered gold terminals cut 16 hours of curing time out of the process. The overall throughput increased to 1,200 pieces per hour, an impressive number for such high-reliability precision components, some of which we’d wager were still in service well into the early 2000s. Most of them are likely long gone, but the shadows cast by these automated manufacturing processes stretch into our time, and probably far beyond.

youtube.com/embed/4qlcBWkSHjk?…


hackaday.com/2025/01/30/retrot…




Digital Paint Mixing Has Been Greatly Improved With 1930s Math


You might not have noticed if you’re not a digital artist, but most painting and image apps still get color mixing wrong. As we all learned in kindergarten, blue paint and yellow paint makes green paint. Try doing that in Photoshop, and you’ll get something altogether different—a vague, uninspiring brownish-grey. It’s the same story in just about every graphics package out there.

As it turns out, there’s a good reason the big art apps haven’t tackled this—because it’s really hard! However, a team of researchers at Czech Technical University has finally cracked this long-standing problem. The result of their hard work is Mixbox, a digital model for pigment-based color mixing. Once again, creative application of mathematics has netted aesthetically beautiful results!

Come Up Off Your Color Chart

Combine yellow and blue paint, and the only light reflected by the pigments will be wavelengths in the green range. This is referred to as “subtractive” color mixing because each pigment is taking something away from white light. Credit: Lewin Day
The core issue lies in how digital art apps handle color. Most are built around the RGB color model, which is exactly how our monitors display color—but it’s nothing like how paint and color work in the real world. When you mix blue and yellow light, you get gray – exactly what happens in most digital painting software. Actual paint pigments interact with light in a much more complex way.

What we see when we look at paint is the light reflected from the pigments, not what was absorbed. Mixing paints ends up with a more complex situation, with the combined paint absorbing and scattering different wavelengths as light bounces around between pigment particles. Combine two paints, and you’re left with less reflected light because each different pigment absorbs a different part of the spectrum. You only see what’s left. This is also why you get a murky brown or black result when you mix a whole ton of different colors—the different pigments absorb light from all different parts of the spectrum, and reflect precious little to your eyes.

There’s actually been a mathematical model for the behavior of mixed paints since 1931 – the Kubelka-Munk (K-M) equations. Computer graphics researchers have known about it for decades, but it’s never widely been implemented in commercial software. That’s because implementing it would require tracking multiple pigment channels for every pixel instead of just three channels to cover red, green, and blue values. That was a particular deal-breaker in the early days of computing, but it remains a hurdle to this day. Most art software still relies on graphics pipelines built entirely around RGB. Beyond that, pigments don’t readily map to the whole gamut of available RGB colors.
Left, you can see the results of standard RGB color mixing, while to the right, you can see the results of the K-M method. The latter is far more representative of how paint mixes in real life. Credit: Research paper
The breakthrough came when researchers realized they could knit the principles of the K-M model into the RGB space. Their hack works by decomposing RGB colors into a combination of four basic pigments. The team chose Phthalo Blue, Quinacridone Magenta, Hansa Yellow, and Titanium White as a reasonable basis. Then, they coded a routine to calculate how RGB colors should mix based on their component pigments, using the K-M model. For RGB colors that can’t be made up purely with pigments, there’s also a special “residual” term that accounts for “the missing part of red, green, and blue light that needs to be supplemented to the light reflected off of the pigment mixture in order to exactly match the original RGB color.” It lets the K-M model do its mixing magic without compromising the color space available to the user. The team then had to perform some pigment manipulations to ensure their model wouldn’t end up creating colors that lived outside of the RGB color space, either.

Getting this model to run at speed was a must; after all, nobody wants art software that lags when dragging a brush across the screen. The biggest hurdle to overcome was the mathematical operation to decompose RGB colors into their base pigments. To run this quickly, they pre-compute massive lookup tables that handle all the complex K-M math ahead of time. At runtime, the software only needs to do a few quick table lookups to figure out how colors should blend. The whole system acts as a drop-in replacement for regular RGB color mixing, requiring minimal changes to existing software.

The performance overhead is surprisingly minimal, with the model running only about two to three times slower than regular RGB mixing. On modern hardware, that translates to just milliseconds of lag. In most cases, the model can run at over 60 frames per second on a modern computer. The lookup tables add about 96MB of memory overhead, which is pretty much unnoticeable compared to the gigabytes of memory bloat in most modern software.
The K-M model proves far more authentic than standard color-mixing algorithms in commercial software. Credit: research paper
The team has released their implementation on GitHub, opening the door for other developers to integrate proper pigment mixing into their own projects. The code has also been implemented in a simple web painting app that you can try for yourself, right in a browser. Alternatively, the system has been implemented in a commercial painting app called Rebelle. Whichever way you try it out, though, the results are equally impressive. With the mixing model at play, not only do blue and yellow finally make green, but you get all sorts of subtle effects that happen with real paint. For example, colors actually become more saturated when mixed with white instead of getting washed out.

The main limitation is that the system can only handle four base pigments at a time – adding more would make the lookup tables impractically large. More pigments might make it easier to cover the whole RGB gamut, but they also introduce issues for handling the maths in a neat and tidy manner. The researchers have suggested such expansion might be a valuable area for future work.
It’s quite easy to compare the validity of the K-M model simply by putting it next to real paint as an example. Credit: research paper
In any case, this could be a game-changer for new digital artists coming from traditional media, where color mixing is so much more intuitive. It’s beautiful to see vibrant colors erupting from a canvas, whether real or digital. Now, the latter can more accurately approach the former, giving digital artists greater opportunity for rich expression, colors and all.


hackaday.com/2025/01/30/digita…



Lo stato terrorista di isrl stamattina ha arrestato la pacifista ed ex parlamentare europea Luisa Morgantini (84 anni!) e l’inviato del Sole 24 Ore Roberto Bongiorni. È successo in Cisgiordania, nei territori occupati dove in teoria isrl nemmeno dovrebbe starci, altro che arrogarsi il diritto di arrestare le persone. Dico solo una cosa: adesso voglio vedere se i pennivendoli e i politici faranno lo stesso casino che hanno fatto per Cecilia Sala e condannano isrl per come hanno condannato l'Iran. Vi stiamo aspettiando al varco!

LUISA E ROBERTO LIBERI, SUBITO!

GiuseppeSalamone



Un fondo ad hoc per la Difesa. Tutti i dettagli sul vertice di Bruxelles

@Notizie dall'Italia e dal mondo

Primizia in Ue. Il vertice informale dei leader dell’Ue presso il Palais d’Egmont a Bruxelles di lunedì prossimo per la prima volta verrà dedicato al tema della Difesa. Se da un lato toccherà la capacità futura della Difesa europea, dall’altro metterà in risalto il modus con



Nuovo utente


Colgo la palla al balzo e provo anche Friendica
in reply to Tsumi

Ciao e benvenuto

Qui una guida generale
informapirata.it/2024/07/25/w-…

Qui invece troverai degli appunti su una questione che riguarda i post con il titolo


Formattazione post con titolo leggibili da Mastodon

Come saprete, con Friendica possiamo scegliere di scrivere post con il titolo (come su WordPress) e post senza titolo (come su Mastodon). Uno dei problemi più fastidiosi per chi desidera scrivere post con il titolo è il fatto che gli utenti Mastodon leggeranno il vostro post come se fosse costituito dal solo titolo e, due a capi più in basso, dal link al post originale: questo non è di certo il modo miglior per rendere leggibili e interessanti i vostri post!
Con le ultime release di Friendica abbiamo però la possibilità di modificar un'impostazione per rendere perfettamente leggibili anche i post con il titolo. Ecco come fare:

A) dal proprio account bisogna andare alla pagina delle impostazioni e, da lì, alla voce "Social Network" al link poliverso.org/settings/connect…
B) Selezionando la prima sezione "Impostazione media sociali" e scorrendo in basso si può trovare la voce "Article Mode", con un menu a cascata
C) Delle tre voci disponibili bisogna scegliere "Embed the title in the body"

Ecco, ora i nostri post saranno completamente leggibili da Mastodon!


W la Friendica (che dio la benedèndica): la guida al Facebook del Fediverso

La guida di Informapirata a Friendica, dedicata a tutti coloro che dal Fediverso vogliono ottenere tutto il possibile.

Un Mastodon con gli steroidi e attualmente l’unica alternativa a Facebook di tutto il Fediverso. Con mille pregi e, soprattutto, mille difetti. E mai nessuno che ci spieghi come utilizzarlo.
Almeno finora…

informapirata.it/2024/07/25/w-…

#Fediverso #Friendica #hashtag #Lemmy #Mastodon #Poliverso #PrivacyDaily #ProductDesign #ProductDesign #Scorza #Typography #TypographyInTheWild

[ap_content




A 1962 Test Gear Teardown


Although it sounds like some Star Trek McGuffin, a Q-Meter is a piece of test gear that measures the Q factor of a tuned circuit. [Thomas] got a Boonton meter from 1962 that wasn’t in very good shape, but it was a fun teardown, as you can see in the video below. The meter had signs of a prior modification or repair, but still a nice peek into some vintage gear.

The meter could measure up to 260 MHz (or megacycles in 1962 parlance) and had some unusual features, including an oddly wired AC transformer and a “voltage stabilizer” to ensure a constant AC voltage at the input. We have to admit, we miss the days when our test equipment had gears inside. Then again, we don’t miss the tubes and the high-voltage stuff. Because of the high frequency, the unit even has an oddball acorn tube that you rarely see.

You may notice the meter has a mirror in a strip on the face. This is a common feature of high-precision analog meter movements. The idea is that you move your head until the needle hides its own reflection in the mirror to avoid parallax errors in your reading.

This isn’t the first Q meter we’ve seen; in fact, one was pretty similar but a bit older. While you can get a lot of new gear cheap these days, there’s still something to be said for vintage test equipment.

youtube.com/embed/-o-g3DZhXBo?…


hackaday.com/2025/01/30/a-1962…



Se Gli USA Vietano Alla Marina L’uso di DeepSeek, Perché L’Europa Dovrebbe Fidarsi di OpenAI?


La Marina americana ha vietato ai suoi dipendenti di utilizzare l’intelligenza artificiale DeepSeek , creata in Cina. La lettera ufficiale, inviata attraverso canali interni, afferma che l’utilizzo di DeepSeek “a qualsiasi titolo” è inaccettabile a causa di “potenziali rischi per la sicurezza e preoccupazioni etiche”.

Il divieto è legato agli ultimi successi di DeepSeek, che ha introdotto un nuovo potente modello R1, paragonabile agli sviluppi di OpenAI. Subito dopo il rilascio, DeepSeek AI ha rapidamente superato la classifica dei download più scaricati nell’App Store, superando ChatGPT. Gli investitori sono allarmati: la società cinese ha affermato che ci sono voluti meno di 6 milioni di dollari e due mesi per creare la R1, che è significativamente più economica rispetto alle sue controparti occidentali.

Il Boom di DeepSeek e il terrore sulla sicurezza nazionale


Nel mercato azionario la reazione è stata rapida: le azioni di Nvidia e Broadcom sono scese del 17% e il Nasdaq ha perso il 3,1%. Ciò è costato ai giganti della tecnologia circa 800 miliardi di dollari di capitalizzazione. Il motivo del panico è la possibilità di ridurre i costi infrastrutturali per la formazione sull’intelligenza artificiale, che cambierà le regole del gioco nel settore.

Il divieto della Marina americana è stato annunciato pochi giorni prima di questi eventi. La lettera, scritta a nome del Chief Information Officer della Marina, afferma che l’uso di DeepSeek è vietato sia per scopi aziendali che personali. Si sottolinea che gli utenti non devono scaricare, installare o utilizzare il modello cinese in alcuna forma.

Allo stesso tempo, DeepSeek ha annunciato una sospensione temporanea della registrazione di nuovi utenti a causa di “attacchi su larga scala” alla piattaforma, ma ha presto ripreso i lavori.

Il presidente Donald Trump ha commentato la situazione, definendo il successo di DeepSeek un “campanello d’allarme” per le aziende americane. La sua amministrazione ha già annunciato il lancio del progetto Stargate, una joint venture tra OpenAI, Oracle e SoftBank, volta a sviluppare un’infrastruttura AI nazionale.

Nel frattempo, Meta ha creato quattro “war room” di crisi studiando i rischi associati a DeepSeek. Secondo il capo di Scale AI, Alexander Wang, il modello cinese “sciocca il mercato” e non è inferiore nelle sue capacità ai migliori sviluppi americani. Ha definito la situazione una “guerra dell’intelligenza artificiale” tra Stati Uniti e Cina.

Delle Conclusioni sul tema scottanti


Il divieto imposto dalla Marina americana sull’uso di DeepSeek non è solo una questione tecnica, ma un chiaro segnale geopolitico: gli Stati Uniti riconoscono i rischi legati all’intelligenza artificiale cinese e ne temono le implicazioni sulla sicurezza nazionale.

Ma questa decisione solleva una domanda scomoda: se Washington teme che un’AI straniera possa compromettere i propri segreti, perché l’Europa dovrebbe cedere i propri dati e affidarsi ciecamente a OpenAI e ad altre big tech statunitensi?

L’AI è ormai un’arma strategica, e il divieto di DeepSeek dimostra che gli USA vogliono mantenere il controllo su chi può svilupparla e su come viene utilizzata. Tuttavia, mentre gli Stati Uniti proteggono i loro interessi, l’Europa continua a dipendere da soluzioni americane senza garanzie di trasparenza o sovranità sui dati. La vera sfida, quindi, non è solo scegliere tra l’AI cinese e quella americana, ma capire come costruire un’alternativa europea che garantisca indipendenza tecnologica e sicurezza.

L'articolo Se Gli USA Vietano Alla Marina L’uso di DeepSeek, Perché L’Europa Dovrebbe Fidarsi di OpenAI? proviene da il blog della sicurezza informatica.




Forgotten Internet: Giving (or Getting) the Finger


Hey, you know that guy in accounting, Marco? If you want to find out more about him, you’d probably go surf LinkedIn or maybe a social media site. Inside a company, you might look on instant messaging for a profile and even find out if he is at his desk or away. But back in the 1970s, those weren’t options. But if Marco was on the computer system, maybe you could finger him. While that sounds strange to say today, Finger was a common service provided by computer services at the time. It was like a LinkedIn profile page for the 1970s.

Based on RFC 742, Finger was the brainchild for [Les Earnest]. From a user’s point of view, you put a few files in your home directory (usually .project and .plan; both hidden files), and when someone “fingered” you, they’d see some human-friendly output about your account like your name and office location, if you were logged in or not, and the contents of your project and plan files.

Modern versions may also show your public PGP key and other data. You could usually put a file in your home directory called .nofinger if you wanted to stop people from fingering you.

Under the Covers


Behind the scenes, finger worked with a daemon on port 79 that handled TCP requests. By 1991, RFC 1288 defined the protocol in more detail. Since it was a network service, you could finger people on other computers as long as port 79 was open.

Things were pretty freeform, so while some people had information in their plan files, others had jokes or even ASCII graphics. Most people didn’t know about them and ended up with the defaults.

Why Finger?


This PDP-10 surely was running a finger service. (photo CC-BY-4.0 by [Gah4])You might wonder why this was called finger. We always thought it was like the old mobster movies (“he put the finger on Lenny”). But it turns out, [Les] noted people using their fingers to trace through the verbose output of WHO command on WAITS, which was based on the operating system later known as TOPS-10, a common operating system on the PDP-6 and PDP-10 computers.

Incidentally, [Les] was the same guy who developed the SAIL keyboard that, as far as we know, introduced the META key you hear about in Emacs.

Cutting Off Finger


Finger is from a simpler time when you could assume people weren’t trying to hack into your system. Of course, they are. In 1988, the Morris worm exploited fingerd — the finger daemon — to spread itself among systems.

Between better alternatives, security concerns, and a general lack of awareness among new users, the writing was on the wall. Today, it is hard to find a system that provides finger services.

You could install finger, but we don’t recommend you keep it running for long. Ubuntu’s package manager, at least, will let you install both finger and fingerd easily.

Running finger with no arguments will show you a list of logged in users. Usually, you’d use it with a user ID, though:
$ finger alw
Login: alw Name: Al Williams
Directory: /home/alw Shell: /bin/bash
On since Sun Jan 12 13:51 (CST) on tty2 from :0
19 days 19 hours idle
On since Sun Jan 12 13:51 (CST) on pts/0 from :0
16 days 21 hours idle
On since Sun Jan 12 13:52 (CST) on pts/2 from tmux(1721804).%1
2 seconds idle
. . .
On since Wed Jan 15 13:48 (CST) on pts/7 from tmux(1721804).%4
13 days 21 hours idle
On since Fri Jan 17 11:40 (CST) on pts/11 from :0
11 days 23 hours idle
(messages off)
No mail.
Plan:
Write more Hackaday!
Sounds like a good plan.

In the 1980s, it seemed like finger would be around forever. But network tech can go from ubiquitous to forgotten in a flash. Just like UUCP in our last installment.

Featured image: The incredibly wittily titled “Left Index Finger” by Pixabay.


hackaday.com/2025/01/30/forgot…



Attenti alle API! Rilevato un aumento del +1205% in attacchi che sfruttano le API collegate alle AI


Wallarm ha pubblicato il rapporto API ThreatStats 2025, che rileva un aumento senza precedenti degli attacchi alle API (application programming interface) causati dall’implementazione attiva dell’intelligenza artificiale. Secondo lo studio, le API sono diventate una delle principali superfici di attacco e le vulnerabilità legate all’intelligenza artificiale sono aumentate del 1.205% rispetto allo scorso anno. Quasi tutte queste vulnerabilità influenzano direttamente l’API.wallarm.com/press-releases/wal…securitylab.ru/glossary/api/

Secondo Ivan Novikov, CEO di Wallarm, le vulnerabilità delle API non sono più solo un problema tecnico, ma rappresentano una seria minaccia per le aziende. La maggior parte dei moderni sistemi di intelligenza artificiale utilizza API per comunicare con le applicazioni, ma l’89% delle API non dispone di meccanismi di autenticazione avanzati e il 57% è disponibile pubblicamente. Solo l’11% dispone di una sicurezza sufficiente, lasciando la stragrande maggioranza degli endpoint vulnerabili agli attacchi.

Gli esperti di Wallarm hanno registrato 439 vulnerabilità legate all’intelligenza artificiale, ovvero il 1220% in più rispetto all’anno precedente. Quasi tutti sono legati all’API e includono attacchi di injection, errori di configurazione e vulnerabilità nella gestione della memoria. Per la prima volta nella classifica delle minacce Wallarm è apparso un nuovo tipo di attacco: corruzione e overflow della memoria, associati a un’elaborazione errata della memoria, che può portare a perdite di dati, arresti anomali ed esecuzione di codici arbitrari.

Nel giro di un anno, la quota di attacchi API nel catalogo KEV di CISA è aumentata del 30% e, per la prima volta nella storia, hanno superato la metà di tutte le vulnerabilità sfruttate, superando le categorie di attacco tradizionali come le vulnerabilità del browser, del kernel e della supply chain.

Wallarm ha identificato tre tendenze chiave nelle minacce API:

  1. L’intelligenza artificiale sta diventando un catalizzatore di nuovi attacchi. Secondo lo studio, il 53% delle aziende americane implementa tecnologie AI tramite API, ma la sicurezza rimane bassa. Sono state così scoperte gravi vulnerabilità negli strumenti AI PaddlePaddle e MLflow, che possono essere utilizzate dagli aggressori per rubare proprietà intellettuale e compromettere i dati di allenamento.
  2. Sia le API legacy che quelle moderne sono a rischio. Le API legacy, come quelle utilizzate in Digi Yatra e Optus, rimangono vulnerabili a causa della progettazione obsoleta, mentre le moderne API RESTful sono suscettibili agli attacchi a causa di complessi errori di integrazione e configurazione. Nel KEV, le API moderne rappresentano già il 33% di tutti gli attacchi, con Ivanti e Palo Alto Networks tra i più colpiti.
  3. Attacchi ai meccanismi di autenticazione. Gli incidenti di Twilio e Tech in Asia hanno dimostrato che le debolezze del controllo degli accessi stanno diventando un vettore di attacco chiave. Nel 2023, gli incidenti API sono stati registrati una volta al trimestre e nel 2024 il loro numero è aumentato fino a 3-5 attacchi al mese. Le API nel settore finanziario, sanitario e dei trasporti rimangono particolarmente vulnerabili.

La conclusione principale del rapporto: la sicurezza dell’intelligenza artificiale è inseparabile dalla sicurezza delle API. Con la crescita dell’integrazione dell’intelligenza artificiale, le aziende devono implementare controlli API proattivi per non rischiare non solo la violazione dei dati, ma anche la perdita di fiducia dei clienti.

L'articolo Attenti alle API! Rilevato un aumento del +1205% in attacchi che sfruttano le API collegate alle AI proviene da il blog della sicurezza informatica.




DeepSeek ha copiato OpenAI? Il sospetto sulla ‘distillazione’ dell’AI


OpenAI ha affermato di aver trovato prove del fatto che la startup cinese DeepSeek stava utilizzando i suoi modelli proprietari per addestrare il proprio concorrente open source. Ciò solleva preoccupazioni circa la possibile violazione della proprietà intellettuale.

Secondo il Financial Times, OpenAI sospetta che DeepSeek abbia utilizzato una tecnica chiamata “distillazione”, un processo in cui vengono utilizzati modelli più potenti per migliorare l’efficienza delle controparti più piccole. Sebbene questo metodo sia comune nel settore, OpenAI ritiene che l‘azienda cinese abbia violato i termini della propria piattaforma creando la propria IA competitiva.

“Il problema inizia quando si utilizza il modello non solo per lavorare, ma per creare il proprio analogo”, ha detto una fonte vicina a OpenAI. La società non ha rivelato i dettagli dell’indagine, ma le sue regole vietano i servizi di copiatura e l’utilizzo dei loro risultati per sviluppare soluzioni concorrenti.

DeepSeek ha suscitato scalpore nel mercato con il suo nuovo AI R1, che ha mostrato risultati paragonabili ai principali modelli americani. La sua formazione è costata solo 5,6 milioni di dollari e ha utilizzato 2.048 schede video Nvidia H800, significativamente meno di OpenAI e Google.

Questa notizia ha avuto un grave impatto sul mercato: le azioni Nvidia sono crollate del 17%, provocando una perdita di capitalizzazione di 589 miliardi di dollari. Tuttavia, martedì il tasso ha recuperato parte delle perdite, aumentando del 9%.

OpenAI e il suo partner Microsoft lo scorso anno hanno bloccato gli account presumibilmente associati a DeepSeek per aver violato i termini. Gli esperti notano che l’utilizzo delle risposte di ChatGPT e di altre popolari IA per addestrare nuovi modelli è diventata una pratica standard tra le startup.

“Molte aziende e ricercatori stanno adottando modelli commerciali già addestrati su dati incentrati sull’uomo per risparmiare su questo passaggio”, ha spiegato Ritwik Gupta, ricercatore dell’Università della California, Berkeley. OpenAI, a sua volta, afferma che sta adottando contromisure contro tali azioni e sta anche lavorando a stretto contatto con le autorità statunitensi per proteggere la sua tecnologia dai concorrenti.

In particolare, la stessa OpenAI è sotto pressione a causa delle accuse di violazione del copyright: il New York Times e numerosi scrittori hanno citato in giudizio la società per aver utilizzato i loro materiali senza autorizzazione.

L'articolo DeepSeek ha copiato OpenAI? Il sospetto sulla ‘distillazione’ dell’AI proviene da il blog della sicurezza informatica.



DeepSeek: i timori per la privacy e la cyber security


@Informatica (Italy e non Italy 😁)
Da fonti autotervoli emerge che DeepSeek raccoglie un'ampia gamma di dati personali dei propri utenti: messaggi e contenuti delle interazioni con il chatbot, informazioni sui dispositivi utilizzati e così via. Ecco i dubbi e le preoccupazioni che questo nuovo modello di AI reca per la privacy



Più cyber attacchi nel 2024. E nel 2025 il trend non si fermerà


@Informatica (Italy e non Italy 😁)
I report di livello Europeo forniti da ENISA e quelli centrati sull’Italia aiutano a comprendere lo scenario della minaccia, nel lasso temporale che va dal 2023 ad oggi, con uno sguardo sul futuro prossimo
L'articolo Più cyber attacchi nel 2024. E nel 2025 il trend non si fermerà



RGB LED Display Simply Solves The Ping-Pong Ball Problem


A few years ago [Brian McCafferty] created a nice big RGB LED panel in a poster frame that aimed to be easy to move, program, and display. We’d like to draw particular attention to one of his construction methods. On the software end of things there are multiple ways to get images onto a DIY RGB panel, but his assembly technique is worth keeping in mind.
The diameter of ping pong balls is a mismatch for the spacing of LEDs on a strip. The solution? A bit of force.
The technique we want to highlight is not the fact that he used table tennis balls as the diffusers, but rather the particular manner in which he used them. As diffusers, ping-pong balls are economical and they’re effective. But you know what else they are? An inconvenient size!

An LED strip with 30 LEDs per meter puts individual LEDs about 33 mm apart. A regulation ping-pong ball is 40 mm in diameter, making them just a wee bit too big to fit nicely. We’ve seen projects avoid this problem with modular frames that optimize spacing and layout. But [Brian]’s solution was simply to use force.

Observing that ping-pong balls don’t put up much of a fight and the size mismatch was relatively small, he just shoved those (slightly squashy) 40 mm globes into 33 mm spacing. It actually looks… perfectly fine!

We suspect that this method doesn’t scale indefinitely. Probably large displays like this 1200 pixel wall are not the right place to force a square peg into a round hole, but it sure seemed to hit the spot for his poster-sized display. Watch it in action in the video below, or see additional details on the project’s GitHub repository.

youtube.com/embed/zc0501GzpMw?…


hackaday.com/2025/01/30/rgb-le…



Il controllo del dipendente da parte del datore di lavoro: le sfide per la privacy


@Informatica (Italy e non Italy 😁)
Le evoluzioni tecnologiche sono in grado di offrire al datore di lavoro strumenti altamente sofisticati per monitorare, in maniera sempre più invasiva, lo svolgimento della prestazione lavorativa. Ecco quali adempimenti



DeepSeek, serve cautela: ci sono pericoli per la sicurezza


@Informatica (Italy e non Italy 😁)
DeepSeek è partito dalla Cina con il botto su tutti gli store, open source e candidato a sbaragliare la concorrenza. Si sta sempre meglio configurando come arma a doppio taglio: da un lato estremamente innovativo e dall'altro pericolosamente non controllato, soprattutto in ambito di



Comunicare per proteggere: strategie e strumenti per implementare i requisiti ISO 27001


@Informatica (Italy e non Italy 😁)
L’analisi del requisito 7.4 della ISO 27001 evidenzia come la comunicazione sia ben più dell’uso di un semplice canale di trasmissione di dati, andando a impattare su aspetti pratici come la comunicazione verbale, la corretta



Smishing a tema Poste Italiane: i dettagli e come difendersi


@Informatica (Italy e non Italy 😁)
È in corso una campagna di smishing che, mediante falsi SMS che sembrano provenire dal servizio PosteInfo, ruba credenziali d’accesso ai servizi bancari e dati delle carte di pagamento. Ecco come riconoscere la truffa e i consigli per difendersi
L'articolo Smishing a tema Poste Italiane:



Bilanciare i rischi di security beneficiando di tecnologie di AI: fra opportunità e rischi


@Informatica (Italy e non Italy 😁)
Il World Economic Forum, in collaborazione con Global Cyber ​​Security Capacity Centre dell'Università di Oxford, ha esplorato le soluzioni di AI, per orientare strategie e decisioni, nella consapevolezza della gestione dei



Le chat WhatsApp sono corrispondenza da tutelare: i paletti privacy della Cassazione


@Informatica (Italy e non Italy 😁)
Con una sentenza di inizio gennaio 2025, la Corte di Cassazione penale rialza il muro della privacy, affermando che le chat di WhatsApp negli smartphone sono a tutti gli effetti corrispondenza che godono di tutela costituzionalmente

reshared this



Decentraleyes potenzia la privacy online: vantaggi e limiti


@Informatica (Italy e non Italy 😁)
Con l'emulazione locale dei CDN, Decentraleyes è un'estensione open source del browser che migliora il controllo sui dati senza compromettere l'esperienza di navigazione che rimane fluida ed efficace. Ecco come funziona, quali limitazioni presenta e quali vantaggi offre



Terzo scambio ostaggi israeliani, prigionieri palestinesi


@Notizie dall'Italia e dal mondo
Hamas ha rilasciato due civili israeliane, una soldatessa e cinque lavoratori thailandesi. Tel Aviv libererà 110 prigionieri palestinesi tra cui Zakaria Zubeidi. Israele fa sapere di aver protestato con i mediatori per la folla radunatasi a Gaza durante lo scambio
L'articolo Terzo scambio



I cyber rischi in azienda che (anche) gli italiani non comprendono


@Informatica (Italy e non Italy 😁)
Il report 2024 Security Awareness and Training Global Research di Fortinet fa emergere una scarsa consapevolezza dei lavoratori per i quali la cyber security sarebbe un’entità separata dalle rispettive attività professionali. Ma il problema è a monte
L'articolo I cyber rischi




Trend Micro Svela le Minacce IT 2025: AI Malevole, Deepfake, APT e Minacce Automotive in Aumento


in occasione del SecurityBarcamp, l’evento dedicato agli scenari di cybercrime e di cybersecurity che ha visto la partecipazione dell’Agenzia per la Cybersicurezza Nazionale, Ansaldo e Aruba.

Milano, 30 gennaio 2025 – Nel 2025 gli attacchi informatici che sfruttano l’intelligenza artificiale diventeranno sempre più personalizzati e colpiranno attraverso truffe e attacchi di phishing altamente sofisticati. I cybercriminali utilizzeranno le informazioni trafugate online per addestrare i LLM a imitare gli utenti e sferrare così attacchi sempre più difficili da distinguere e prevenire, dando via al fenomeno che potrebbe caratterizzare l’anno, quello dei “malicious digital twins, i gemelli digitali cattivi”. I dati emergono dall’ultimo report Trend Micro, leader globale di cybersecurity, sulle minacce informatiche che caratterizzeranno il 2025, dal titolo “The Easy Way In/Out: Securing The Artificial Future”.

Lo studio è stato rilasciato durante l’evento #SecurityBarcamp, l’approfondimento annuale dedicato agli scenari di cybercrime e di cybersecurity di Trend Micro, diventato ormai un importante e tradizionale momento di condivisione tra prestigiosi enti pubblici e privati, che collaborano per il mantenimento della sicurezza a livello di sistema Paese.

In questa edizione, i rinomati e autorevoli ospiti sono stati: Gianluca Galasso, Direttore del Servizio Operazioni/ CSIRT Italia, Agenzia per la Cybersicurezza Nazionale (ACN), Ivan Monti, CISO Ansaldo, David Neumarker, CISO Aruba S.p.A, oltre ad Alessio Agnello, Technical Director Trend Micro Italia, Marco Balduzzi, Presidente No Hat e Technical Research Lead Trend Micro e Alessandro Fontana, Country Manager Trend Micro Italia.

Indicazioni emerse durante i lavori


L’IA è un potente strumento a doppio taglio. Da un lato, può migliorare notevolmente la sicurezza informatica, automatizzando la detection di minacce e rispondendo più rapidamente agli attacchi. Dall’altro, può essere utilizzata per creare attacchi più sofisticati. E può essere addestrata a creare malware altamente personalizzati e difficili da rilevare, oppure generare tentativi di phishing estremamente convincenti e Deepfakes difficili da riconoscere. Ci vorrà ancora qualche tempo prima di capirne il potenziale nel campo della cybersicurezza. Per ora è fondamentale impegnarsi a sviluppare sistemi di IA sicuri e affidabili, e capire come utilizzarli per difendersi dagli attacchi basati sull’IA stessa.

Per questo in ACN abbiamo già avviato dei programmi per utilizzare l’IA con l’HPC per anticipare la minaccia cibernetica”. Dichiara Gianluca Galasso, Direttore del Servizio Operazioni/ CSIRT Italia, Agenzia per la Cybersicurezza Nazionale (ACN).

“Crediamo fermamente che l’information sharing sia un pilastro fondamentale per rafforzare la resilienza del Sistema Paese, soprattutto in un contesto in cui le minacce informatiche sono sempre più sofisticate e interconnesse. La direttiva NIS2 sottolinea l’importanza della cooperazione tra settore pubblico, privato e piccole e medie imprese, riconoscendo che la condivisione tempestiva delle informazioni di sicurezza è essenziale per prevenire, mitigare e rispondere efficacemente agli incidenti. Per questo, favorire una cultura basata sulla fiducia e sulla collaborazione è oggi più che mai una necessità strategica per proteggere il nostro tessuto economico e digitale”. Precisa Ivan Monti, CISO Ansaldo.

“Il Security Barcamp di Trend Micro rappresenta un’importante occasione per condividere conoscenze e strategie contro le nuove minacce cibernetiche. Le evoluzioni tecnologiche, come l’intelligenza artificiale generativa, hanno ampliato le opportunità per i cybercriminali, rendendo fondamentale un ulteriore adeguamento a tutti i livelli e rimarcando l’importanza di un approccio collaborativo tra pubblico e privato. Come fornitore ICT offriamo supporto concreto alle PMI, con servizi e soluzioni IT e di sicurezza, al passo per fronteggiare le nuove sfide connesse alla trasformazione digitale. Collaboriamo attivamente con enti come l’ACN e ci allineiamo alle normative europee, come la NIS2, abilitando i nostri clienti a raggiungerne gli obiettivi di compliance.” Sottolinea David Neumarker, CISO Aruba S.p.A.

L’intelligenza artificiale generativa è sempre più diffusa sia nelle aziende, sia nella società. Questo richiede un’attenzione costante alle nuove minacce, spingendo le organizzazioni a focalizzarsi sull’individuazione e la neutralizzazione di attacchi sempre più sofisticati e sulla prevenzione della manipolazione degli agent AI”. Afferma Alessandro Fontana, Country Manager di Trend Micro Italia.

Le previsioni Trend Micro per il 2025

Cybercriminali e AI: arrivano i gemelli digitali cattivi e truffe sempre più personalizzate


A causa del loro grande potenziale, i deepfake sono destinati a diventare la più grande minaccia legata all’intelligenza artificiale e verranno utilizzati per rendere sempre più credibili truffe già popolari e basate sull’ingegneria sociale. I cybercriminali useranno anche LLM addestrati sui post pubblici di una persona per imitare lo stile di scrittura e la personalità, creando delle imitazioni convincenti che prenderanno di mira nuove vittime inconsapevoli, dando via al fenomeno dei malicious digital twins, i gemelli digitali cattivi. I cybercriminali creeranno anche dei falsi dipendenti per attaccare le aziende in nuove truffe Business Email Compromise (BEC) e si avvarranno anche di dati biometrici esposti involontariamente, oltre che di video e audio. Anche gli stessi sistemi di intelligenza artificiale potranno essere manipolati per compiere azioni dannose o non autorizzate e per creare kit di phishing personalizzati su misura, rendendo l’underground cybercriminale sempre più efficiente. Per gli utenti, diventerà sempre più difficile comprendere la veridicità e la legittimità dei contenuti creati online attraverso l’intelligenza artificiale.

AI e aziende: l’automazione nasconderà i difetti agli occhi umani


Nel momento in cui l’intelligenza artificiale inizierà a utilizzare strumenti e computer aziendali in modo autonomo, creerà una catena di eventi e interazioni invisibili agli operatori umani. Questa mancanza di visibilità può essere un problema di sicurezza, poiché sarà difficile monitorare e controllare le azioni dell’AI in tempo reale.

Le aziende saranno esposte a maggiori vulnerabilità, dovute anche alla possibile divulgazione di informazioni sensibili da parte degli LLM durante le interazioni con dipendenti e clienti. I cybercriminali potrebbero anche impossessarsi di agenti di intelligenza artificiale per compiere attività dannose. Il consumo delle risorse di sistema da parte degli agenti AI, sia benigni sia dannosi, potrà anche portare alla negazione di un servizio quando le risorse sono sopraffatte.

Attacchi APT a impatto massimo: gruppi criminali avanzati colpiranno il cloud e le supply chain


Nel 2024, gruppi di cybercriminali legati a organizzazione statali come Lazarus, Turla e Pawn Storm sono stati particolarmente attivi e potrebbero aumentare le loro attività nel 2025. Questi gruppi continueranno a concentrarsi sulla sottrazione di informazioni diplomatiche e di tecnologie militari, oltre a colpire le supply chain per massimizzare l’impatto dei loro attacchi.

Nuove Vulnerabilità colpiranno la gestione della memoria e il settore automotive


Le vulnerabilità nella gestione della memoria, come le scritture/letture fuori limite e i bug di corruzione continueranno a essere tra gli strumenti preferiti dei cybercriminali. La sicurezza diventerà sempre più fondamentale anche nelle innovazioni legate al settore della mobilità, dove c’è ancora molta strada da percorrere. La standardizzazione delle diverse piattaforme potrebbe permettere alle vulnerabilità di diffondersi su più modelli e coinvolgere molti produttori, obbligando a richiami su larga scala o aggiornamenti software urgenti. I cybercriminali potrebbero accedere ai sistemi di bordo dei veicoli, rubare informazioni sui pagamenti e interrompere le ricariche delle auto elettriche, ad esempio. Disattivando freni e sterzo, si potrebbero avere anche conseguenze fisiche per i guidatori e pedoni.

I Ransomware sfrutteranno sempre di più le vulnerabilità


Nel 2024 sono aumentati i gruppi ransomware che sfruttavano strumenti legittimi per l’esfiltrazione dei dati, collezionare credenziali e replicarle, con l’obiettivo di effettuare movimenti laterali e guadagnare privilegi. Questo trend continuerà anche nel 2025 e gli attacchi ransomware sfrutteranno sempre più spesso vulnerabilità o account compromessi, a discapito di tattiche più tradizionali legate al phishing. Gli attacchi ransomware potrebbero anche spostarsi verso modelli di business che non necessitano più di crittografia.

Gli attacchi di malvertising saranno più efficienti


Le informazioni raccolte dagli infostealer sono molto utili per i cybercriminali e i gruppi ransomware continueranno a utilizzare i dati, come gli account utente raccolti dagli infostealer, nei loro attacchi. Anche per questo, le minacce legate al malvertising, già sotto i riflettori a causa della loro diffusione e proliferazione, continueranno nel 2025.

In risposta a minacce sempre più pericolose e all’espansione della superficie d’attacco nelle aziende, queste le raccomandazioni Trend Micro:

  • Implementare un approccio alla sicurezza informatica basato sul rischio, che abiliti un’identificazione delle risorse a livello centrale e un’efficace valutazione, assegnazione delle priorità e mitigazione del rischio
  • Sfruttare l’intelligenza artificiale per beneficiare di informazioni sulle minacce, gestire i profili delle risorse, prevenire il percorso di un attacco e avere indicazioni per la risoluzione, idealmente da un’unica piattaforma
  • Formare e sensibilizzare gli utenti sui recenti progressi dell’intelligenza artificiale e il modo in cui questa potrebbe favorire la criminalità informatica
  • Monitorare e proteggere l’intelligenza artificiale dagli abusi, compresa la sicurezza per la convalida degli input e delle risposte o delle azioni generate dall’intelligenza artificiale
  • Per la sicurezza LLM: rafforzare gli ambienti sandbox, implementare una rigorosa convalida dei dati e difese multilivello contro attività di injection
  • Comprendere la posizione dell’organizzazione all’interno della supply chain, affrontare le vulnerabilità nei server rivolti al pubblico e implementare difese a più livelli all’interno delle reti interne
  • Facilitare la visibilità end-to-end sugli agenti AI
  • Implementare la previsione del percorso di attacco per mitigare le minacce cloud

Ulteriori informazioni sono disponibili a questo link

Di più su Trend Micro


Trend Micro, leader globale di cybersecurity, è impegnata a rendere il mondo un posto più sicuro per lo scambio di informazioni digitali. Con oltre 30 anni di esperienza nella security, nel campo della ricerca sulle minacce e con una propensione all’innovazione continua, Trend Micro protegge oltre 500.000 organizzazioni e milioni di individui che utilizzano il cloud, le reti e i più diversi dispositivi, attraverso la sua piattaforma unificata di cybersecurity. La piattaforma unificata di cybersecurity Trend Vision One™ fornisce tecniche avanzate di difesa dalle minacce, XDR e si integra con i diversi ecosistemi IT, inclusi AWS, Microsoft e Google, permettendo alle organizzazioni di comprendere, comunicare e mitigare al meglio i rischi cyber. Con 7.000 dipendenti in 65 Paesi, Trend Micro permette alle organizzazioni di semplificare e mettere al sicuro il loro spazio connesso. www.trendmicro.com

L'articolo Trend Micro Svela le Minacce IT 2025: AI Malevole, Deepfake, APT e Minacce Automotive in Aumento proviene da il blog della sicurezza informatica.



Il controllo del dipendente da parte del datore di lavoro: le sfide per la privacy


Le evoluzioni tecnologiche sono in grado di offrire al datore di lavoro strumenti altamente sofisticati per monitorare, in maniera sempre più invasiva, lo svolgimento della prestazione lavorativa. Ecco quali adempimenti sono necessari e quali i diritti dei lavoratori

L'articolo Il controllo del dipendente da parte del datore di lavoro: le sfide per la privacy proviene da Cyber Security 360.



Decentraleyes potenzia la privacy online: vantaggi e limiti


Con l'emulazione locale dei CDN, Decentraleyes è un'estensione open source del browser che migliora il controllo sui dati senza compromettere l'esperienza di navigazione che rimane fluida ed efficace. Ecco come funziona, quali limitazioni presenta e quali vantaggi offre

L'articolo Decentraleyes potenzia la privacy online: vantaggi e limiti proviene da Cyber Security 360.



Le chat WhatsApp sono corrispondenza da tutelare: i paletti privacy della Cassazione


Con una sentenza di inizio gennaio 2025, la Corte di Cassazione penale rialza il muro della privacy, affermando che le chat di WhatsApp negli smartphone sono a tutti gli effetti corrispondenza che godono di tutela costituzionalmente garantita. Vediamone i passaggi salienti

L'articolo Le chat WhatsApp sono corrispondenza da tutelare: i paletti privacy della Cassazione proviene da Cyber Security 360.



I cyber rischi in azienda che (anche) gli italiani non comprendono


Il report 2024 Security Awareness and Training Global Research di Fortinet fa emergere una scarsa consapevolezza dei lavoratori per i quali la cyber security sarebbe un’entità separata dalle rispettive attività professionali. Ma il problema è a monte

L'articolo I cyber rischi in azienda che (anche) gli italiani non comprendono proviene da Cyber Security 360.



Più cyber attacchi nel 2024. E nel 2025 il trend non si fermerà


I report di livello Europeo forniti da ENISA e quelli centrati sull’Italia aiutano a comprendere lo scenario della minaccia, nel lasso temporale che va dal 2023 ad oggi, con uno sguardo sul futuro prossimo

L'articolo Più cyber attacchi nel 2024. E nel 2025 il trend non si fermerà proviene da Cyber Security 360.