⚠ Wed, 15 Apr 2026 14:51:43 CEST
🥷 qilin
🎯 Gruppo ICM SPA, Italy
🔗 ransomfeed.it/index.php?page=p…
Dario Fadda reshared this.
Dario Fadda reshared this.
GNOME è uno dei più importanti ambienti desktop liberi e open source, progettato per offrire un’esperienza utente semplice, intuitiva e accessibile. Fin dalla sua nascita, l’obiettivo principale è stato quello di proporre un’interfaccia coerente e facile...
Tutto su Linux e news, kubuntu, consulenza, sysadm, drupal, kernel, italiaziobudda.org
Dario Fadda reshared this.
Integrare Large Language Model in .NET ha sempre comportato un problema: ogni servizio (OpenAI, Azure OpenAI, Ollama, Claude) ha il proprio SDK con API diverse. IChatClient della libreria Microsoft.Extensions.AI risolve questo problema fornendo un’astrazione unificata. Scrivi una volta, cambia provider senza modificare la logica applicativa.
IChatClient è un’interfaccia che rappresenta un client per servizi AI con capacità chat. Astrae i dettagli di comunicazione con LLM remoti o locali, permettendo di:
L’interfaccia fa parte del pacchetto Microsoft.Extensions.AI.Abstractions, mentre Microsoft.Extensions.AI aggiunge middleware per telemetria, caching, function calling automatico e patterns familiari di dependency injection.
Il punto di partenza è registrare il chat client nel contenitore di dependency injection. Ecco l’approccio canonico:
var builder = Host.CreateApplicationBuilder();
builder.Services.AddChatClient(
new OllamaChatClient(new Uri("http://localhost:11434"), "llama3"));
var app = builder.Build();
var chatClient = app.Services.GetRequiredService<IChatClient>();IChatClient. Il codice che usa il client rimane invariato.
Il caso più basilare: inviare un prompt e ottenere una risposta:
var response = await chatClient.GetResponseAsync("What is .NET? Reply in 50 words max.");
Console.WriteLine(response.Message.Text);GetResponseAsync restituisce un oggetto ChatCompletion con il messaggio della risposta. Semplice, sincrono dal punto di vista dello sviluppatore (anche se asincrono sottostante).
Per applicazioni interattive come chatbot, lo streaming è essenziale. Permette all’utente di vedere il testo apparire gradualmente, come in ChatGPT:
var chatResponse = "";
await foreach (var item in chatClient.GetStreamingResponseAsync(chatHistory))
{
Console.Write(item.Text);
chatResponse += item.Text;
}GetStreamingResponseAsync ritorna un IAsyncEnumerable<StreamingChatCompletionUpdate>. Ogni item contiene un frammento di testo che puoi visualizzare in tempo reale.
Mantenere una conversazione richiede di raccogliere la storia dei messaggi. Ecco un loop interattivo completo:
var chatHistory = new List<ChatMessage>();
while (true)
{
Console.Write("You: ");
var userPrompt = Console.ReadLine();
chatHistory.Add(new ChatMessage(ChatRole.User, userPrompt));
var chatResponse = "";
Console.Write("Assistant: ");
await foreach (var item in chatClient.GetStreamingResponseAsync(chatHistory))
{
Console.Write(item.Text);
chatResponse += item.Text;
}
Console.WriteLine();
chatHistory.Add(new ChatMessage(ChatRole.Assistant, chatResponse));
}GetStreamingResponseAsync. L’LLM usa questo contesto per mantenere coerenza conversazionale.
Spesso vuoi che l’LLM restituisca dati strutturati (JSON). Puoi chiederlo esplicitamente nel prompt:
var prompt = $"""
You will receive an article and extract its metadata.
Respond ONLY with valid JSON following this format without any deviation.
{{
"title": "...",
"summary": "...",
"keywords": ["...", "..."]
}}
Article:
{File.ReadAllText("article.md")}
""";
var response = await chatClient.GetResponseAsync(prompt);
var jsonText = response.Message.Text;
var metadata = JsonSerializer.Deserialize<ArticleMetadata>(jsonText);
La libreria Microsoft.Extensions.AI supporta il generic GetResponseAsync<T> che deserializza automaticamente il JSON in una classe C#:
public class ArticleMetadata
{
public string Title { get; set; } = string.Empty;
public string Summary { get; set; } = string.Empty;
public string[] Keywords { get; set; } = [];
}
var metadata = await chatClient.GetResponseAsync<ArticleMetadata>(prompt);
Console.WriteLine($"Title: {metadata.Result.Title}");
Console.WriteLine($"Keywords: {string.Join(", ", metadata.Result.Keywords)}");ArticleMetadata, il compilatore avvisa i punti di utilizzo.
Una delle promesse di IChatClient è la portabilità. Ecco come implementare una strategia “local in dev, cloud in prod”:
// Avvio locale con Ollama
if (app.Environment.IsDevelopment())
{
builder.Services.AddChatClient(
new OllamaChatClient(new Uri("http://localhost:11434"), "mistral"));
}
else
{
// Avvio cloud con Azure OpenAI
builder.Services.AddChatClient(
new AzureOpenAIClient(
new Uri(azureEndpoint),
new DefaultAzureCredential()).AsChatClient());
}IChatClient al DI container e riceve l’implementazione appropriata. Niente hardcoding, niente API specifiche sparse nel codice.
Il pacchetto Microsoft.Extensions.AI fornisce middleware composabile. Uno uso comune è aggiungere OpenTelemetry:
var builder = Host.CreateApplicationBuilder();
// Registra OpenTelemetry
builder.Services.AddOpenTelemetry()
.WithTracing(tracing => tracing
.AddAspNetCoreInstrumentation()
.AddHttpClientInstrumentation());
// Registra il chat client con middleware di telemetria
builder.Services.AddChatClient(baseChatClient)
.UseOpenTelemetry(builder.Services.BuildServiceProvider()
.GetRequiredService<ILoggerFactory>());IChatClient genera automaticamente span OpenTelemetry tracciabili in strumenti come Application Insights o Jaeger. Nessuna strumentazione manuale necessaria.
Il framework Agent di Microsoft costruisce sopra IChatClient aggiungendo astrazioni a livello agent: gestione persistente del contesto, tool calling automatico, prompt di sistema, API streaming pulita. Se usi agent, IChatClient rimane il cuore della comunicazione LLM.
IChatClient rappresenta una maturazione nell’integrazione LLM in .NET. Invece di accoppiare il codice a provider specifici, definisci un’astrazione e lascia che l’infrastruttura scelga l’implementazione. Lo streaming, la deserialization tipizzata, la composizione di middleware e la portabilità del provider diventano proprietà di prima classe dell’architettura.
Per qualsiasi team che integra LLM in .NET 2026, IChatClient è il fondamento su cui costruire. Richiede poca configurazione iniziale e ripaga con flessibilità architetturale a lungo termine.
Fonte originale: Microsoft.Extensions.AI libraries – .NET | Microsoft Learn e Working with LLMs in .NET using Microsoft.Extensions.AI
Learn how to use the Microsoft.Extensions.AI libraries to integrate and interact with various AI services in your .NET applications.learn.microsoft.com
Dario Fadda reshared this.
Qualcomm starebbe lavorando a un chip NPU standalone — separato dall’SoC principale — pensato per gestire l’intelligenza artificiale direttamente sullo smartphone, senza ricorrere al cloud. L’iniziativa, sviluppata in collaborazione con GigaDevice, punta ai produttori cinesi ma potrebbe avere ripercussioni sull’intera industria.
A differenza degli attuali SoC che integrano un modulo NPU all’interno dello stesso die — come accade negli Snapdragon 8 Elite — il nuovo approccio prevede un chip dedicato esclusivamente all’elaborazione AI. Questo NPU è pensato per lavorare in tandem con il processore principale, gestendo in modo autonomo carichi di lavoro come riconoscimento vocale, generazione di immagini e modelli linguistici di medie dimensioni.
La caratteristica tecnica più interessante è l’integrazione con 3D DRAM prodotta da CXMT: circa 4 GB di memoria impilata con tecnologia avanzata (TSV e hybrid bonding), capace di trasferire dati molto più velocemente rispetto alla classica LPDDR. Questo è fondamentale per i modelli AI che richiedono enormi quantità di dati in pochi millisecondi.
Le prestazioni annunciate si attestano intorno ai 40 TOPS (trilioni di operazioni al secondo), un valore che posiziona questo chip tra i più capaci in assoluto per l’uso mobile.
Il tallone d’Achille dell’iniziativa è il costo: la memoria 3D specializzata fa lievitare il prezzo complessivo del componente, limitandone l’adozione ai soli smartphone premium. L’arrivo sul mercato è previsto tra la seconda metà del 2026 e l’inizio del 2027. Con il tempo, se i costi scenderanno, questa tecnologia potrebbe ridefinire le aspettative sull’AI locale degli smartphone Android.
Dario Fadda reshared this.
Si parla di:
Toggle
Il 12 aprile 2026, il gruppo Handala, collegato ai servizi di intelligence iraniani, ha annunciato il successo di un attacco di proporzioni senza precedenti contro l’infrastruttura critica degli Emirati Arabi Uniti. L’operazione ha mirato alla Dubai Courts Authority, Dubai Land Authority e Dubai Roads & Transport Authority, risultando nel furto di 149 terabyte di documenti classificati e nella distruzione di 6 petabyte di dati, rappresentando una chiara escalation nella campagna di cyberguerra iraniana.
L’attacco coordinato dal gruppo Handala rappresenta una categoria di operazione cybernetiche rara: la combinazione di dati wiper (per la distruzione) e exfiltration (per il furto). La selezione degli obiettivi rivela una strategia sofisticata focalizzata su istituzioni critiche che controllano documenti di valore geopolitico, proprietà intellettuale sensibile e informazioni su infrastrutture strategiche.
L’enorme volume di dati distrutti (6 petabyte equivale a circa 6 milioni di gigabyte) suggerisce che gli attaccatori avevano accesso profondo alle infrastrutture di storage primarie e di backup, un indicativo di una lunga permanenza nei sistemi target senza essere rilevati. Il gruppo ha pubblicamente rivendicato l’operazione con comunicati dettagliati, indicando che l’obiettivo non era nascondere l’attacco bensì massimizzare l’impatto psicologico e geopolitico.
Sebbene Handala si presenta pubblicamente come collettivo di hacker hacktivist pro-resistenza, analisti di sicurezza e agenzie governative hanno stabilito con elevata confidenza il collegamento con il Ministero dell’Intelligence iraniano (MOIS). Il gruppo fa parte di quello che DomainTools Investigations ha descritto come “un ecosistema coordinato di cyber-influenza” che include anche i gruppi Karma/KarmaBelow80 e Homeland Justice.
Questa struttura a facciata permette all’Iran di mantenere una negazione plausibile mentre conduce operazioni cybernetiche offensive contro i nemici geopolitici e gli alleati regionali. La scelta di Dubai specificamente è significativa: gli EAU hanno in anni recenti normalizzato relazioni con Israele e hanno aumentato partnership strategiche con Stati Uniti e alleati occidentali, rendendoli un bersaglio prioritario per la rappresaglia iraniana.
Nel comunicato di rivendicazione, Handala ha caratterizzato l’operazione come risposta al “tradimento eclatante” dei leader degli Emirati, tracciando paralleli con figure storiche infami come Jeffrey Epstein. Questa retorica è coerente con la narrativa iraniana che dipinge gli EAU come traditori della causa palestinese per le relazioni normalizzate con Israele. Tuttavia, gli esperti di sicurezza sottolineano che la motivazione dichiarata funziona principalmente come cover narrativo per un’operazione principalmente geopolitica e economica.
Dati dell'Operazione:
- Data: 12 Aprile 2026
- Bersagli: 3 istituzioni critiche di Dubai
- Dati Rubati: 149 Terabyte (TB) di documenti classificati
- Dati Distrutti: 6 Petabyte (PB) = 6.000 Terabyte
- Attribution: MOIS Iran via Handala/Karma/Homeland Justice
- Reivindicazione: Pubblica tramite comunicati del gruppo
L’attacco Handala rivela vulnerabilità critiche nelle infrastrutture di protezione dei dati dei servizi pubblici. La capacità di distruggere 6 petabyte di dati suggerisce che gli attaccatori avevano accesso non solo ai sistemi primari ma anche ai backup, compromettendo le fondamentali pratiche di business continuity e disaster recovery. I responsabili della sicurezza negli Emirati e nei governi alleati devono riconsiderare gli assunti di base sulla separazione geografica, logica e procedurale dei backup critici.
La scala dell’exfiltration (149 TB) suggerisce inoltre che l’attacco non è stato una penetrazione improvvisa ma il risultato di un accesso sostenuto nel tempo. Durante il dwell time (periodo di permanenza), gli attaccatori hanno avuto il tempo di identificare, localizzare e esfiltrare i dati di massimo valore geopolitico prima di eseguire le operazioni di wiper.
L’operazione Handala rappresenta un’ulteriore escalation nella campagna iraniana di cyberguerra regionale. Con la Corea del Nord che diversifica gli attacchi verso il settore DeFi e l’Iran che consolida la sua capacità offensiva contro lo stato regionale, il 2026 è emergendo come anno critico di ricalibramento della strategia di cyberwarfare a livello globale.
Il 12 aprile 2026, il gruppo Handala legato all'Iran ha attaccato l'infrastruttura critica di Dubai, distruggendo 6 petabyte di dati e rubando 149 terabyte di documenti classificati da tre istituzioni governative emiratine in un'operazione che rappre…Dario Fadda ((in)sicurezza digitale)
Dario Fadda reshared this.
La famiglia pieghevole Motorola per il 2026 si completa con l’arrivo di un nuovo colore: il Bright White. Con questa aggiunta, il Motorola Razr 70 sarà disponibile in quattro varianti cromatiche, tutte ispirate alla palette Pantone e ciascuna con una finitura distintiva.
Il Motorola Razr 70 adotta una collaborazione con Pantone che va oltre la semplice scelta del colore: ogni variante ha una texture unica che la differenzia visivamente e al tatto. Ai tre colori già trapelati — Sporting Green, Hematite e Violet Ice — si aggiunge ora il Bright White. Motorola non si limita quindi a proporre colori diversi per uno stesso materiale, ma offre un’esperienza estetica differenziata per ciascuna scelta.
Dal punto di vista del form factor, il Razr 70 non rivoluziona il predecessore. Il display esterno misura circa 3,63 pollici (1.056×1.066 pixel), mentre quello interno si attesta su 6,9 pollici (1.080×2.640 pixel). Le dimensioni sono in linea con il segmento, puntando sulla praticità della forma clamshell.
Le specifiche complete non sono ancora state ufficializzate, ma le indiscrezioni indicano opzioni di memoria da 8, 12 e 16 GB con storage fino a 1 TB. Sul fronte fotografico, la principale novità rispetto al predecessore sarebbe la sostituzione dell’ultra-grandangolare con un teleobiettivo 3x, affiancato da un sensore principale da 50 MP. Il selfie-cam sarebbe da 32 MP.
Il lancio del Motorola Razr 70 è atteso nei prossimi mesi. Con la gamma cromatica ora definita, sembra che l’annuncio ufficiale sia sempre più vicino.
Dario Fadda reshared this.
Il Motorola Edge 70 Pro continua a fare capolino sui database di benchmark prima del lancio ufficiale. L’ultima apparizione su Geekbench ha rivelato le prestazioni attese e confermato alcuni dati chiave sulla configurazione hardware del dispositivo.
I risultati Geekbench registrano un punteggio single-core di 1.727 e multi-core di 6.563, numeri in linea con la fascia medio-alta del mercato Android. Le prestazioni sono sufficienti per gestire agevolmente le applicazioni quotidiane, lo streaming e anche qualche sessione di gaming non troppo impegnativa.
Il dispositivo monta 12 GB di RAM ed è equipaggiato con Android 16 già in fase di test, il che suggerisce un lancio previsto nella seconda metà del 2026.
Dall’architettura CPU rilevata — configurazione 1+3+4 con core principale a 3,40 GHz e GPU Mali-G720 MC8 — si deduce che il chip a bordo sia il MediaTek Dimensity 8500. Alcune fonti ipotizzano addirittura la variante Dimensity 8500 Extreme, una versione potenziata dello stesso chip, che potrebbe fare la sua comparsa nel modello finale.
Sul fronte fotografico, le indiscrezioni puntano a un sensore Sony Lytia 710, particolarmente apprezzato per la resa in condizioni di scarsa illuminazione. Motorola avrebbe enfatizzato proprio le capacità di scatto notturno nei materiali di teaser già circolati online.
Per quanto riguarda l’estetica, l’Edge 70 Pro dovrebbe proporre tre colorazioni con finiture differenti: blu in stile fabric, verde oliva satinato e bianco con texture marmo. Un approccio che richiama la filosofia di Motorola di offrire non solo colori, ma vere e proprie esperienze materiche.
Dario Fadda reshared this.
Samsung starebbe valutando un cambio di strategia importante per la gamma Galaxy S27: secondo le ultime indiscrezioni, il chip proprietario Exynos 2700 potrebbe essere adottato in circa la metà dei dispositivi prodotti, riducendo la dipendenza da Qualcomm e abbattendo i costi di produzione.
Con il Galaxy S25, Samsung aveva fatto una scelta netta: Snapdragon 8 Elite per tutti i modelli, senza eccezioni geografiche. Risultato? Prestazioni eccellenti e piena soddisfazione degli utenti, ma anche un aumento significativo dei costi per l’acquisto dei chip Qualcomm. Con i nuovi nodi produttivi sempre più costosi, la situazione è destinata a peggiorare ulteriormente.
Per correre ai ripari, Samsung starebbe pianificando di adottare il proprio Exynos 2700 su circa il 50% della produzione del Galaxy S27. Si tratterebbe di un ritorno significativo alla strategia “doppio chip” che ha caratterizzato per anni i Galaxy S, con modelli Snapdragon per alcuni mercati (tipicamente USA e Cina) ed Exynos per Europa e altri.
Questa mossa permetterebbe a Samsung di ridurre la dipendenza da un unico fornitore e di abbattere i costi, reinvestendo il risparmio in altri settori o semplicemente migliorando i margini.
Il punto critico rimane la competitività dell’Exynos 2700. In passato, i chip Samsung hanno spesso sofferto di inefficienze energetiche rispetto alle controparti Qualcomm, con conseguenze negative sulla durata della batteria e sulla gestione della temperatura. Se l’Exynos 2700 non dovesse colmare questo divario, gli utenti europei potrebbero ritrovarsi con un’esperienza d’uso inferiore rispetto a chi ha acquistato la versione con Snapdragon.
Samsung è consapevole di questa criticità: la scelta di puntare nuovamente su Exynos sarà vincente solo se il chip riuscirà a reggere il confronto nella vita reale, non solo nei benchmark. L’annuncio del Galaxy S27 è atteso per l’inizio del 2027.
Dario Fadda reshared this.
Dario Fadda reshared this.
Gli agent AI richiedono un modo flessibile e modulare di estendere le loro capacità: questo è il ruolo dei skill. Con il framework Agent di Microsoft per .NET, gli sviluppatori dispongono di tre paradigmi complementari per definire e comporre skill, permettendo ai team di scegliere l’approccio più adatto al loro contesto.
L’approccio più dichiarativo parte da una struttura di directory semplice. Ogni skill è organizzato come una cartella contenente:
SKILL.md con metadati nel frontmatter YAMLscripts/ con il codice eseguibilereferences/ con documentazione di supportoQuesto paradigma è particolarmente vantaggioso per i team che vogliono gestire i skill come assets indipendenti dentro un repository condiviso. Il caricamento è automatico: l’agent scopre e carica i skill quando l’utente ne fa richiesta.
Ecco come si registra un provider file-based:
var skillsProvider = new AgentSkillsProvider(
Path.Combine(AppContext.BaseDirectory, "skills"),
SubprocessScriptRunner.RunAsync);
Per chi preferisce la sicurezza dei tipi e il supporto IDE completo, gli skill basati su classe offrono un’alternativa fortemente tipizzata. Si eredita da AgentClassSkill<T> e si usano attributi di reflection per marcare le risorse e gli script:
public sealed class BenefitsEnrollmentSkill : AgentClassSkill<BenefitsEnrollmentSkill>
{
[AgentSkillResource("available-plans")]
public string AvailablePlans => "Plan A, Plan B, Plan C...";
[AgentSkillScript("enroll")]
private static string Enroll(string employeeId, string planCode)
{
// Logica di iscrizione
return $"Iscrizione di {employeeId} al piano {planCode} completata";
}
}[AgentSkillResource] e [AgentSkillScript] permettono al framework di scoprire automaticamente quali metodi e proprietà esporre all’agent.Un vantaggio cruciale: i team possono sviluppare e distribuire skill indipendentemente come pacchetti NuGet, mantenendo il proprio ciclo di rilascio e permettendo il riuso tra progetti.
Il terzo paradigma è il più flessibile: skill definiti a runtime usando AgentInlineSkill. Sono perfetti per bridge temporanei, skill generati dinamicamente o implementazioni condizionate dallo stato dell’applicazione:
var timeOffSkill = new AgentInlineSkill(
name: "time-off-balance",
description: "Calcola i giorni di ferie e malattia rimanenti per un dipendente...")
.AddScript("calculate-balance", (employeeId, leaveType) =>
{
// Logica runtime
return $"Giorni rimanenti: {remaining}";
});.AddResource("policies", () => PolicyRepository.GetActivePolicies());
La vera potenza del design emerge quando si combinano tutti e tre i paradigmi in un’unica applicazione. Il builder pattern permette una composizione dichiarativa:
var skillsProvider = new AgentSkillsProviderBuilder()
.UseFileSkill(Path.Combine(AppContext.BaseDirectory, "skills"))
.UseSkill(new BenefitsEnrollmentSkill())
.UseSkill(timeOffSkill)
.UseFileScriptRunner(SubprocessScriptRunner.RunAsync)
.Build();BenefitsEnrollmentSkill registra i suoi metodi annotatitimeOffSkill aggiunge capacità runtimeIl framework astrae completamente il “come” carica ogni tipo di skill; l’agent li vede come una superficie unificata.
Per ambienti ad alto rischio, è possibile richiedere una revisione umana prima dell’esecuzione:
.UseScriptApproval(true)
Quando si condividono directory di skill tra team, il filtraggio garantisce che solo gli skill approvati siano disponibili:
.UseFilter(skill => approvedSkills.Contains(skill.Frontmatter.Name))
I metodi degli skill possono ricevere IServiceProvider come parametro. Questo consente l’accesso a servizi registrati nel contenitore DI, indipendentemente dal paradigma di skill:
[AgentSkillScript("send-notification")]
private static string SendNotification(string userId, IServiceProvider services)
{
var emailService = services.GetRequiredService<IEmailService>();
return emailService.SendAsync(userId, "Notification");
}
Il design tripartito dei skill in .NET Agent Framework non è una complicazione: è un’architettura di composizione che rispetta gli usi diversi. Gli skill basati su file servono la semplicità e la dinamica; quelli basati su classe offrono sicurezza e riusabilità via NuGet; quelli inline forniscono agilità runtime.
Per i team che costruiscono sistemi agent complessi, questa flessibilità è fondamentale. Permette di iniziare in semplicità (skill inline), evolversi verso la modularità (skill basati su classe in NuGet) e mantenere agilità operativa (skill file-based per aggiustamenti dinamici) — tutto nello stesso agent, senza compromessi architetturali.
Fonte originale: Agent Skills in .NET: Three Ways to Author, One Provider to Run Them — Microsoft Agent Framework Blog
Your agents can now draw on skills authored in three different ways – as files on disk, as inline C# code, or as encapsulated classes – and combine them freely in a single provider.Sergey Menshykh (Microsoft Agent Framework)
Dario Fadda reshared this.
OpenSSL è una delle librerie crittografiche più importanti e utilizzate al mondo nel panorama del software libero. Si tratta di un progetto open source nato nel 1998 con l’obiettivo di fornire strumenti affidabili per...
Tutto su Linux e news, kubuntu, consulenza, sysadm, drupal, kernel, italiaziobudda.org
Dario Fadda reshared this.
Google ha fatto un passo avanti importante nella sicurezza del Pixel 10: per la prima volta, il linguaggio di programmazione Rust è stato introdotto all’interno del firmware del modem, l’elemento più esposto agli attacchi via rete. Una mossa che rafforza la difesa contro exploit remoti particolarmente pericolosi.
Il modem (o baseband) di uno smartphone gestisce tutte le comunicazioni cellulari ed è spesso costruito su codice scritto decenni fa in C e C++. Si tratta di software complesso, pieno di strati accumulati nel tempo, difficile da aggiornare e strutturalmente vulnerabile ai bug di gestione della memoria. Non a caso, il team Project Zero di Google ha dimostrato in passato che è possibile eseguire codice malevolo su Pixel da remoto, sfruttando proprio vulnerabilità nel modem, senza che l’utente faccia nulla.
L’approccio di Google non è stato riscrivere l’intero modem — operazione irrealistica vista la complessità del codice e i diritti di proprietà intellettuale coinvolti — ma intervenire su un componente specifico: il parser DNS. Questa sezione elabora le risposte provenienti dall’esterno ed è quindi particolarmente esposta a input malevoli. Sostituendola con codice Rust, Google elimina alla radice una categoria intera di vulnerabilità legate alla memoria.
Rust è un linguaggio moderno che garantisce la sicurezza della memoria a livello di compilazione, senza necessità di un garbage collector. Questo lo rende ideale per componenti critici come i modem, dove le prestazioni in tempo reale sono fondamentali. A differenza di C, Rust impedisce al programmatore di commettere certi tipi di errori che tipicamente aprono la porta agli exploit.
La mossa di Google con Pixel 10 segna una tendenza più ampia nell’industria tech: aziende come Microsoft, Amazon e Linux Foundation stanno tutte investendo in Rust per sostituire gradualmente il codice C legacy nei sistemi critici. Per gli utenti Pixel, questo si traduce in un dispositivo più difficile da compromettere anche da parte di attaccanti sofisticati.
Dario Fadda reshared this.
Samsung ha alzato i prezzi di listino di diversi smartphone e tablet Galaxy sul mercato statunitense. Gli aumenti variano da poche decine di dollari per gli smartphone fino a quasi 300 dollari per i modelli top di gamma della linea tablet, con i modelli a maggiore capacità di archiviazione che subiscono i rincari più pesanti.
Tra gli smartphone, le modifiche riguardano principalmente il Galaxy Z Flip 7 da 512 GB, il cui prezzo sale da 1.220 a 1.300 dollari (+80 dollari), il Galaxy S25 FE da 256 GB che passa da 710 a 750 dollari (+40 dollari) e il Galaxy S25 Edge da 512 GB, anch’esso a 1.300 dollari dai precedenti 1.220 (+80 dollari). Quest’ultimo modello aveva già registrato vendite non brillanti, e la decisione di alzarne il prezzo sembra puntare più al recupero dei margini che all’espansione del mercato.
È però sulla gamma Galaxy Tab che gli aumenti si fanno sentire di più. Il Tab S11 da 256 GB passa da 860 a 1.000 dollari (+140 dollari), la versione da 512 GB da 980 a 1.200 dollari (+220 dollari), mentre il Tab S11 Ultra da 1 TB arriva a 1.900 dollari, con un incremento di 280 dollari rispetto al precedente listino.
Sebbene Samsung non abbia comunicato ufficialmente le motivazioni, il contesto è chiaro: la politica tariffaria statunitense in vigore nel 2025-2026 ha aumentato i costi di importazione dei prodotti elettronici di consumo, e i produttori stanno scaricando almeno in parte questi oneri sui consumatori finali. Samsung non è l’unica: anche altri brand stanno rivedendo i prezzi sul mercato USA.
Per il momento non ci sono indicazioni che gli stessi aumenti vengano applicati sul mercato europeo, ma la situazione è in evoluzione e vale la pena monitorarla.
Dario Fadda reshared this.
I possessori di smartphone Google Pixel stanno segnalando da settimane un problema di consumo anomalo della batteria che, nonostante l’attesa di una correzione ufficiale, non è ancora stato risolto completamente. Alcune ipotesi tecniche iniziano però a fare luce sulla possibile origine del bug.
La problematica ha iniziato a manifestarsi in modo diffuso dopo il rilascio dell’aggiornamento software di marzo 2026. Non tutti i dispositivi Pixel sono stati colpiti, ma su diversi modelli gli utenti hanno notato un calo drastico dell’autonomia: smartphone che normalmente duravano un’intera giornata si scaricano già nel pomeriggio.
I forum ufficiali di supporto Google e i social network sono pieni di segnalazioni simili. Il denominatore comune è chiaro: dopo l’aggiornamento, il consumo energetico è aumentato in modo ingiustificato, senza variazioni nell’utilizzo quotidiano.
Un utente particolarmente attento ha identificato una possibile spiegazione tecnica: il problema potrebbe risiedere nel meccanismo di risparmio energetico del processore. In condizioni normali, quando lo smartphone è inattivo entra in uno stato di “Deep Doze”, riducendo drasticamente le attività in background. In questo caso, invece, tale modalità non si attiva correttamente.
Il risultato è che il dispositivo rimane in uno stato di elaborazione continua anche quando non viene utilizzato, con cicli brevi e ripetuti che consumano energia in modo costante. In sostanza, il software sarebbe intrappolato in un loop che impedisce al Pixel di “addormentarsi” davvero.
Al momento non esiste una soluzione definitiva lato utente per risolvere il problema alla radice. Alcuni hanno segnalato miglioramenti temporanei dopo un riavvio del dispositivo o il ripristino delle impostazioni di risparmio energetico, ma si tratta di rimedi parziali. La soluzione completa dovrà arrivare tramite un aggiornamento software da parte di Google.
Chi possiede un Pixel colpito dal bug è invitato a segnalare il problema attraverso i canali ufficiali per accelerare i tempi di correzione. Google non ha ancora rilasciato comunicazioni ufficiali sull’entità del problema né sui tempi previsti per il fix.
Dario Fadda reshared this.
Mentre il mercato degli smartphone pieghevoli si prepara all’arrivo del Galaxy Z Fold 8, Samsung guarda già oltre: un nuovo brevetto ha rivelato l’esistenza di un dispositivo chiamato Galaxy Z Tri-Fold Wide, con una struttura a tre pannelli e due cerniere.
La strategia di Samsung sembra strutturata in due fasi. La prima prevede il lancio di un Galaxy Z Fold 8 Wide, una versione più larga del Fold tradizionale, che offrirebbe un display interno con proporzioni più simili a quelle di un tablet. Questo cambio renderebbe l’uso di app, video e multitasking molto più naturale rispetto all’attuale schermo allungato.
Solo successivamente arriverebbe il Galaxy Z Tri-Fold Wide, il modello tre volte pieghevole che rappresenta l’evoluzione più radicale. Al momento si tratta di un concept che esiste principalmente su carta — nei documenti brevettuali — ma la direzione è chiara.
Dal brevetto emerge che il dispositivo è composto da tre schermi collegati da due cerniere. Completamente aperto, offre una superficie display che si avvicina a quella di un piccolo tablet orizzontale, decisamente più ampia di qualsiasi pieghevole attuale. Nella configurazione chiusa, una parte del display rimane visibile all’esterno come schermata di copertura.
Interessante anche la modalità “tent” (tenda): piegato a metà, il dispositivo può appoggiarsi da solo su una superficie e funzionare in autonomia, utile per videochiamate o fruizione di contenuti multimediali.
È importante sottolineare che un brevetto non garantisce affatto che il prodotto venga effettivamente lanciato sul mercato. Samsung protegge regolarmente le proprie idee innovative molto prima di decidere se trasformarle in prodotti reali. Tuttavia, questo brevetto conferma che il colosso coreano sta esplorando attivamente il segmento dei dispositivi a tre sezioni, potenzialmente in risposta all’interesse crescente per questa categoria.
Dario Fadda reshared this.
Si parla di:
Toggle
Il 1° aprile 2026, gli hacker nord-coreani legati al gruppo UNC4736 hanno condotto uno dei più sofisticati attacchi di social engineering contro la piattaforma DeFi Drift Protocol, drenando ben 285 milioni di dollari e dimostrando la capacità dello stato-nazione di infiltrarsi negli ecosistemi finanziari decentralizzati. L’attacco, iniziato sei mesi prima in autunno del 2025, ha sfruttato le “durable nonces” di Solana per ottenere il controllo amministrativo della piattaforma.
I threat actor nord-coreani hanno dimostrato una competenza tecnica straordinaria e una conoscenza approfondita del funzionamento di Drift Protocol. La campagna è iniziata con l’istituzione di un gruppo Telegram dove gli attaccanti hanno costruito una presenza operativa credibile all’interno dell’ecosistema. Per mesi, hanno intrattenuto conversazioni autentiche con i contributori di Drift riguardanti strategie di trading e integrazioni di vault, comportamenti indistinguibili da quelli di veri trader istituzionali. Gli attaccanti hanno depositato oltre 1 milione di dollari di propri fondi per aumentare la credibilità.
Questa fase preparatoria rappresenta un cambio fondamentale nelle tattiche di APT state-sponsored: da attacchi prevalentemente tecnici a operazioni ibride che combinano ingegneria sociale sofisticata con sfruttamento tecnico. Il gruppo, noto anche come AppleJeus, Citrine Sleet, Golden Chollima e Gleaming Pisces, ha dimostrato di comprendere a fondo i processi sociali interni alle organizzazioni target.
Una volta guadagnato l’accesso, gli attaccanti hanno sfruttato una caratteristica tecnica di Solana nota come “durable nonce” per indurre i membri del Drift Security Council a pre-firmare transazioni che avrebbero eventualmente loro trasferito il controllo amministrativo. Il passo successivo è stato cruciale: gli attaccatori hanno inserito nella whitelist un token artificiale e privo di valore (CVT) come collaterale valido. Hanno quindi depositato 500 milioni di token CVT e li hanno utilizzati per prelevare 285 milioni di dollari in asset reali inclusi USDC, SOL e ETH.
Timeline Attacco:
- Settembre 2025: Inizio social engineering
- Febbraio-Marzo 2026: Conversazioni integrate nel sistema
- 1 Aprile 2026: Esecuzione dell'attacco
- 12 minuti: Drenaggio di 285 milioni di dollari
- Poche ore: Bridging dei fondi verso Ethereum
Questo attacco è il secondo più grande exploit nella storia di Solana, superato solo dal compromesso della Wormhole bridge di 326 milioni di dollari nel 2022. Rappresenta anche un’escalation allarmante nella strategia nord-coreana di acquisizione di valute estere per aggirare le sanzioni internazionali. La Corea del Nord è stata storicamente limitata nell’accesso al sistema finanziario globale, rendendo i furti da piattaforme DeFi un’alternativa redditizia per il finanziamento delle operazioni dello stato.
Gli esperti di sicurezza sono preoccupati dal precedente stabilito da questa operazione. Se gli attaccatori nord-coreani possono infiltrarsi con successo nelle più sofisticate piattaforme DeFi attraverso il social engineering, nessun ecosistema blockchain è completamente immune. Le implicazioni si estendono oltre la sicurezza tecnica: dimostrano come i processi umani rimangono il punto debole più critico anche nei sistemi decentralizzati progettati per eliminare la fiducia.
Il compromesso di Drift Protocol dimostra che la Corea del Nord ha costruito le capacità tecniche e le risorse per condurre sofisticate operazioni cyberfinanza, rappresentando una minaccia crescente non solo per il settore DeFi ma per l’intero ecosistema blockchain globale.
Il 1° aprile 2026, hacker nord-coreani hanno drenato 285 milioni di dollari da Drift Protocol attraverso una campagna di social engineering durata 6 mesi, sfruttando la durable nonce di Solana per ottenere il controllo amministrativo della piattaform…Dario Fadda ((in)sicurezza digitale)
Dario Fadda reshared this.
Nella speranza che notizie come quella che stiamo raccontando diventino sempre più frequenti, oggi parliamo della scelta francese di abbandonare Microsoft Windows in favore di Linux all’interno delle postazioni di lavoro della pubblica amministrazione. L’attuazione dell’ambizioso piano sarà competenza del DINUM (Direzione interministeriale per il digitale) ed ovviamente il tutt...
Tutto su Linux e news, kubuntu, consulenza, sysadm, drupal, kernel, italiaziobudda.org
Dario Fadda reshared this.
Il Model Context Protocol (MCP) sta rapidamente diventando lo standard de facto per consentire agli agenti AI di interagire con servizi e strumenti esterni. Microsoft ha appena rilasciato la versione 2.0 stabile di Azure MCP Server, un passo significativo che porta a 276 strumenti distribuiti su 57 servizi Azure direttamente accessibili da qualsiasi agente o IDE compatibile con MCP.
Azure MCP Server è un’implementazione del Model Context Protocol che funge da ponte tra gli agenti AI e l’ecosistema Azure. Invece di dover scrivere codice di integrazione personalizzato per ogni servizio, un agente AI può semplicemente “scoprire” e utilizzare i tool messi a disposizione dal server MCP, che includono operazioni di provisioning, deployment, monitoraggio e diagnostica su decine di servizi Azure.
L’idea centrale è quella di rendere le operazioni su Azure talmente naturali per un agente AI quanto lo è per un programmatore umano navigare sul portale Azure o usare la CLI. La versione 2.0 segna la transizione da una release preview a un prodotto stabile e pronto per l’uso in produzione.
La novità più significativa di questa release è il supporto al deployment remoto. Nelle versioni precedenti, il server MCP doveva girare localmente sulla macchina dello sviluppatore. Con la 2.0, è possibile distribuire Azure MCP Server come servizio centralizzato, accessibile da tutto il team o dall’intera organizzazione tramite trasporto HTTP.
Questo cambia radicalmente le possibilità di adozione enterprise: invece di configurare ogni sviluppatore individualmente, il team di platform engineering può mantenere un’istanza centralizzata con configurazione e governance coerenti. Meno deriva di configurazione, più sicurezza, un unico punto di aggiornamento.
La versione 2.0 introduce il supporto per il flusso On-Behalf-Of (OBO), noto anche come OpenID Connect delegation. Questo meccanismo consente al server MCP di chiamare le API Azure usando il contesto dell’utente autenticato, mantenendo la separazione delle identità e rispettando i permessi RBAC assegnati al singolo utente.
L’integrazione con Microsoft Foundry consente di usare le managed identity direttamente, semplificando la gestione delle credenziali in ambienti cloud-native senza dover gestire segreti esplicitamente.
Con il passaggio a stable, Microsoft ha rafforzato significativamente la sicurezza del server:
Questi miglioramenti sono essenziali per l’adozione in contesti enterprise dove la superficie di attacco deve essere minimizzata.
Azure MCP Server 2.0 è ora configurabile per operare su Azure US Government e Azure operated by 21Vianet (il cloud sovrano cinese), ampliando notevolmente la portata per organizzazioni soggette a requisiti di sovranità dei dati.
Il server è disponibile attraverso diversi canali di distribuzione, adatti a scenari diversi:
La via più semplice per gli sviluppatori è attraverso le estensioni per i principali IDE:
Una volta installata l’estensione, il server MCP viene configurato automaticamente e i tool Azure diventano disponibili nell’assistente AI del tuo IDE.
Per chi lavora da terminale, Azure MCP Server si integra nativamente con GitHub Copilot CLI e Claude Code, consentendo di gestire risorse Azure direttamente dalla riga di comando con il supporto dell’AI.
Per il deployment remoto centralizzato, Microsoft fornisce un’immagine Docker ufficiale:
# Scarica l'immagine Docker
docker pull mcr.microsoft.com/azure-mcp-server:latest
# Esegui il server localmente
docker run -p 8080:8080 mcr.microsoft.com/azure-mcp-server:latest
Con 276 tool distribuiti su 57 servizi Azure, la copertura è notevolmente ampia. Gli strumenti coprono l’intero ciclo di vita delle risorse cloud:
L’arrivo di Azure MCP Server 2.0 stabile ha implicazioni concrete per i team di sviluppo che usano Azure:
Meno context switching: gli sviluppatori possono interrogare lo stato dei loro servizi Azure, diagnosticare problemi e persino deployare aggiornamenti senza uscire dall’IDE o passare al portale Azure.
Automazione conversazionale: invece di ricordare i comandi esatti della Azure CLI, è possibile descrivere in linguaggio naturale l’operazione desiderata e lasciare che l’agente AI formuli la chiamata corretta al tool MCP.
Governance centralizzata: con il deployment self-hosted, le organizzazioni possono controllare centralmente quali tool sono disponibili, chi può usarli e in che contesto, mantenendo audit trail completi.
Azure MCP Server 2.0 rappresenta un passo maturo verso l’integrazione dell’AI nei workflow operativi su cloud. Il supporto al deployment remoto e al flusso OBO erano i due tasselli mancanti per l’adozione enterprise, e la loro disponibilità in una release stabile apre scenari concreti di adozione su larga scala.
Per i team che già usano GitHub Copilot o altri agenti AI nel loro IDE, la barriera di ingresso è minima: basta installare l’estensione e il ricco catalogo di tool Azure diventa immediatamente disponibile. Per chi vuole andare oltre, il deployment self-hosted offre la flessibilità necessaria per integrarlo nei flussi platform engineering più sofisticati.
Fonte originale: Announcing Azure MCP Server 2.0 Stable Release — Sandeep Sen, Microsoft Azure SDK Blog
Azure MCP Server 2.0 introduces self‑hosted remote deployment for secure agentic workflows using standardized tools across Azure services.Sandeep Sen (Azure SDK Blog)
Dario Fadda reshared this.
Un’istanza WordPress compromessa, loghi dell’Agenzia delle Entrate e del Sistema Pubblico d’Identità Digitale riprodotti con precisione millimetrica, link personalizzati con l’email della vittima pre-compilata: CERT-AGID ha rilevato una nuova campagna di phishing che prende di mira le Pubbliche Amministrazioni italiane, con l’obiettivo di sottrarre credenziali SPID e accessi istituzionali. L’analisi tecnica rivela un attacco che sfrutta l’infrastruttura legittima per eludere i filtri antispam e conquistare la fiducia delle vittime.
Il primo elemento che distingue questa campagna dalle operazioni di phishing più rudimentali è la scelta dell’infrastruttura. Gli attaccanti non hanno registrato domini malevoli evidenti — hanno invece compromesso un server WordPress legittimo (documentato all’indirizzo wp-dev.typhur.com/agenziaentrate/), sfruttandone la reputazione consolidata per eludere i filtri antispam e i sistemi di blacklist automatici.
Un sito web legittimo offre agli attaccanti tre vantaggi competitivi fondamentali: certificati HTTPS validi che mostrano il lucchetto verde nel browser delle vittime, una reputazione di dominio già stabilita che bypassa i filtri di sicurezza email, e la capacità di ospitare contenuto HTML arbitrario che replica fedelmente le interfacce istituzionali italiane. Il vettore di compromissione del WordPress è quasi certamente legato a plugin o temi non aggiornati — il vettore più comune per questo tipo di hijacking.
La catena di attacco documentata da CERT-AGID si articola in più fasi progettate per massimizzare la credibilità e minimizzare i campanelli d’allarme per la vittima:
L’aspetto più allarmante della campagna, come sottolineato da CERT-AGID, è la natura del target primario: non utenti consumer generici, ma dipendenti e funzionari delle Pubbliche Amministrazioni italiane. Questa scelta non è casuale. Le credenziali SPID di un funzionario PA offrono un accesso privilegiato a sistemi interni, documenti riservati e portali interistituzionali che un account privato non avrebbe. La compromissione di un account PA può diventare il punto di partenza per movimenti laterali all’interno dei sistemi governativi, attacchi BEC (Business Email Compromise) verso altre istituzioni, e persino accessi a dati sensibili di cittadini.
# Domini malevoli identificati
agenziadelleentrate.live # Dominio typosquatting principale
wp-dev.typhur.com/agenziaentrate/ # WordPress compromesso usato come host
# Dominio mittente email
@propiski.com # Utilizzato come sender domain nelle email di phishing
# Dominio di reindirizzamento
sushicool.net # Usato come redirect dopo la sottrazione delle credenziali
# File IoC ufficiale CERT-AGID
phishing_AdE_10_04_26.json # Disponibile tramite feed ufficiale CERT-AGID
Questa campagna non nasce dal nulla. L’Agenzia delle Entrate ha emesso un avviso ufficiale già il 30 marzo 2026, segnalando campagne attive che sfruttano impropriamente i loghi di AdE, SPID e AgID. La storia recente mostra un pattern ricorrente: gli attori malevoli hanno identificato nel sistema SPID un bersaglio appetibile perché rappresenta la chiave di accesso unificata ai servizi digitali della PA italiana. Compromettere uno SPID significa potenzialmente accedere a decine di portali governativi con un’unica credenziale.
La tecnica di compromissione di siti WordPress legittimi come piattaforma di phishing è altrettanto consolidata: consente di sfruttare la reputazione del dominio ospitante e i certificati TLS validi per superare i controlli automatici, scaricando il costo di mantenimento dell’infrastruttura sull’ignaro proprietario del sito compromesso.
agenziaentrate.gov.it)Il CERT-AGID ha già avvisato le organizzazioni coinvolte e richiesto il takedown delle pagine di phishing identificate. Tuttavia, data la natura delle campagne di phishing — che spesso cambiano rapidamente infrastruttura per sopravvivere ai takedown — il monitoraggio continuo rimane essenziale.
Dario Fadda reshared this.
Dario Fadda reshared this.
Dario Fadda reshared this.
Nel 2024 avevamo già parlato di Datafetch, uno script Bash progettato per mostrare informazioni di sistema direttamente dal terminale.Chi desidera recuperare quella prima analisi può leggerla qui: Datafetch – Strumento avanzato per la rilevazione...
Tutto su Linux e news, kubuntu, consulenza, sysadm, drupal, kernel, italiaziobudda.org
Dario Fadda reshared this.
Si intensificano le indiscrezioni sul Motorola Edge 70 Pro, lo smartphone di fascia media-alta di Motorola che potrebbe essere presentato entro la fine di aprile. Nuovi leak hanno svelato il comparto fotografico, che si preannuncia come il vero punto di forza del dispositivo.
Il modulo fotografico posteriore ha un design squadrato con tre obiettivi. La specifica più interessante riguarda l’ultra-grandangolare da 12mm di focale equivalente, una delle più ampie disponibili nella categoria — ideale per paesaggi, architettura e riprese in spazi ristretti. Il teleobiettivo offre invece uno zoom ottico 3,5x con stabilizzazione ottica (OIS).
Almeno uno dei sensori è prodotto da Sony (serie Lytia), una garanzia di qualità nella cattura dell’immagine grezza, specialmente in condizioni di scarsa illuminazione.
Motorola punterà su diversi materiali e colorazioni per differenziare le versioni. Il modello blu avrà una finitura tessuta anti-scivolo, mentre la variante marrone presenterà un effetto legno. Una scelta estetica originale che fa pensare a un prodotto con una certa attenzione al design.
L’autonomia dovrebbe essere un punto di forza: il Motorola Edge 70 Pro è atteso con una batteria da 6500mAh, con ricarica rapida fino a 90W. Un’accoppiata che promette giornate di utilizzo intensivo senza preoccupazioni. Gli altri dettagli tecnici — processore, schermo, prezzo — saranno svelati al momento della presentazione ufficiale, attesa nelle prossime settimane.
Dario Fadda reshared this.
Uno degli eterni difetti degli smartphone — la scarsa reattività del touchscreen quando le mani o lo schermo sono bagnati — potrebbe trovare una risposta concreta con l’OPPO A6s Pro, annunciato ufficialmente per il 14 aprile 2026. Il protagonista è una nuova tecnologia chiamata Super Rain Touch.
La tecnologia Super Rain Touch promette di rendere il display pienamente funzionante anche in condizioni di pioggia intensa. OPPO afferma che il sistema è stato progettato per resistere persino al livello “Red Rain” della scala meteo cinese, ovvero precipitazioni equivalenti a un monsone. In pratica, secondo il produttore, si può tranquillamente rispondere ai messaggi anche con lo smartphone bagnato sotto un nubifragio.
La resistenza all’acqua è certificata IP69K, il massimo grado di protezione disponibile. Il dispositivo è progettato anche per resistere alle cadute accidentali, incluse quelle in pozze d’acqua. Una proposta chiaramente orientata a chi usa lo smartphone in ambienti difficili o all’aperto.
L’OPPO A6s Pro è un mid-range con display da 6,57 pollici Full HD e chip MediaTek Dimensity 6300. La fotocamera principale è da 50MP affiancata da un sensore da 2MP, mentre il selfie è da 16MP. Il punto forte lato batteria è la capacità da 7000mAh, con uno spessore di soli 8,3mm e un peso di 193g: numeri davvero notevoli per una batteria di questo taglio.
Il prezzo non è ancora stato comunicato, ma la fascia media è quella di riferimento. Se la tecnologia Super Rain Touch funziona davvero come promesso, questo OPPO potrebbe diventare la scelta di riferimento per chi vive in zone piovose o pratica sport all’aperto.
Dario Fadda reshared this.
Lo Xiaomi 18 Pro non è ancora stato annunciato ufficialmente — la presentazione è attesa per settembre 2026 — ma il celebre leaker Digital Chat Station ha già condiviso alcune informazioni sul prossimo flagship di casa Xiaomi. Le aspettative sono altissime.
Il dato più sorprendente riguarda la batteria: lo Xiaomi 18 Pro monterà un accumulatore con capacità che inizia per “7”, e secondo le indiscrezioni supererà i 7000mAh. Abbinato alla ricarica rapida cablata da 100W e al supporto wireless, si prospetta uno smartphone capace di garantire un’autonomia eccellente senza rinunciare alla comodità della ricarica veloce.
Sotto la scocca batte il nuovo Snapdragon 8 Elite Gen 6, prodotto a 2nm — un salto generazionale rispetto ai chip attuali, con benefici attesi in termini di performance, efficienza energetica e capacità di elaborazione AI. Il chip dovrebbe essere presentato da Qualcomm intorno a settembre, rendendo lo Xiaomi 18 Pro uno dei primissimi smartphone ad adottarlo.
Sul fronte fotografico, lo Xiaomi 18 Pro punterebbe su una configurazione con due sensori da 200 megapixel, più un obiettivo macro-teleobiettivo. Una configurazione ambiziosa che punta a coprire ogni scenario di scatto. Confermato anche il display posteriore, funzionalità già presente sui modelli precedenti, questa volta con funzioni ampliate rispetto al passato.
Il display principale frontale dovrebbe mantenersi intorno ai 6,4 pollici, in linea con la serie Xiaomi 18 standard. Mancano ancora molti mesi alla presentazione ufficiale, ma le premesse sono decisamente intriganti per chi cerca un top di gamma Android senza compromessi.
Dario Fadda reshared this.
Xiaomi ha confermato la data di lancio del REDMI K90 Max: il 21 aprile 2026 alle 19:00 (ora cinese). Si tratta di uno smartphone pensato interamente per il gaming mobile competitivo, con specifiche che mettono al centro la velocità di risposta del touchscreen e le prestazioni grafiche.
La specifica più impressionante del REDMI K90 Max è il sampling rate istantaneo del display: 3500Hz. In pratica, il pannello campiona la posizione delle dita a una frequenza estrema, riducendo al minimo la latenza percepita tra il tocco e la risposta su schermo. Per il gaming competitivo — soprattutto in titoli FPS o di combattimento — si traduce in un vantaggio reale. Il sampling rate continuo è di 480Hz, già superiore alla quasi totalità degli smartphone sul mercato.
Incluso anche un giroscopio a 6 assi che opera a 400Hz, per rilevare i movimenti fisici dello smartphone con altissima precisione — essenziale per i giochi che usano la mira giroscopica. Il pannello ha superato test di 1 milione di tocchi consecutivi per la durabilità.
Lo schermo da 6,83 pollici supporta un refresh rate di 165Hz e raggiunge una luminosità di picco di 3500 nit. Ottimo per l’utilizzo in esterni e per percepire ogni frame durante il gioco.
Una delle caratteristiche più peculiari è la presenza di una ventola di raffreddamento interna: una soluzione rara nel mondo Android, che punta a gestire il calore generato durante le sessioni di gioco prolungate. Il sistema utilizza un condotto d’aria sigillato e una struttura metallica per dissipare il calore in modo efficiente, con garanzia di 6 anni.
Sorprendentemente per un gaming phone, il REDMI K90 Max vanta anche la certificazione IP66, IP68 e IP69: resistenza alla polvere e all’acqua a più livelli. Il 21 aprile conosceremo processore, prezzo e gli altri dettagli rimasti in sospeso.
Dario Fadda reshared this.
Il mercato globale degli smartphone ha registrato un calo del 6% nel primo trimestre del 2026, ma non tutti i produttori soffrono allo stesso modo. Google Pixel brilla in controtendenza con una crescita del 14%, confermando che la strategia fondata sull’intelligenza artificiale e sull’esperienza software sta pagando.
Secondo i dati di Counterpoint Research per il Q1 2026, il panorama non è incoraggiante. Apple mantiene la leadership con il 21% di market share e addirittura cresce del 5% grazie all’ottima performance della serie iPhone 17. Samsung resta seconda ma perde il 6% delle spedizioni, complice un lieve ritardo nel lancio della linea Galaxy S26. Xiaomi, terza nel ranking globale con il 12% di quota, subisce un calo ben più pesante: -19% rispetto allo stesso periodo dell’anno precedente.
In questo scenario difficile, Google Pixel si distingue nettamente. Un +14% annuo dimostra che la proposta di valore del Pixel — fotografia computazionale, aggiornamenti tempestivi e funzionalità AI integrate — trova un pubblico in crescita. Non si tratta di numeri assoluti paragonabili ai colossi, ma la direzione è chiara.
Ancora più sorprendente la performance di Nothing, che registra addirittura un +25%. Il brand britannico punta su design originale, comunicazione diretta e un’identità forte, e i risultati sembrano premiarlo. I nuovi modelli lanciati di recente stanno aiutando a espandere la base utenti.
La lezione che emerge da questi dati è abbastanza netta: vincono i produttori che offrono qualcosa di distintivo. Non basta più un buono hardware; servono software di qualità, aggiornamenti costanti e funzionalità AI che migliorino concretamente la vita dell’utente. Google Pixel è forse il miglior esempio di questa formula. Le previsioni per il resto del 2026 restano conservative, con pressioni sul mercato che potrebbero durare almeno fino al 2027, ma chi ha una strategia software solida sembra poter navigare meglio la tempesta.
Dario Fadda reshared this.
Il prossimo pieghevole di Motorola si avvicina. Il Razr 70 Ultra è stato al centro di diversi leak che ne hanno svelato le specifiche principali: un aggiornamento mirato, più che una rivoluzione, che punta sull’autonomia come principale novità.
Il punto di forza del Razr 70 Ultra rispetto al predecessore è un incremento della batteria di circa il 6%, portando la capacità a 5000mAh. Per uno smartphone pieghevole — categoria storicamente penalizzata dall’autonomia a causa degli spazi ridotti — si tratta di un risultato notevole. La ricarica rapida via cavo rimane a 68W.
Per il resto, il Razr 70 Ultra non si discosta molto dal modello attuale. Il processore resta lo Snapdragon 8 Elite, con 16GB di RAM e 512GB di storage. Le dimensioni da aperto sono circa 171,5×74,0×7,2mm per un peso di 199g.
Il display è ancora il punto di forza: cover display da circa 4 pollici e schermo interno da circa 7 pollici, con risoluzioni 1080×1272 e 2992×1224 rispettivamente. Il comparto fotografico mantiene la configurazione triple 50MP (principale, ultragrandangolare e selfie).
Motorola punta tipicamente ad aprile per il lancio della serie Razr, e quest’anno non dovrebbe fare eccezione. Negli Stati Uniti, il modello sarà commercializzato con il nome Razr Ultra 2026. Chi cercava un restyling radicale rimarrà forse deluso, ma chi vuole un pieghevole affidabile con buona autonomia troverà nel Razr 70 Ultra una proposta solida.
Dario Fadda reshared this.
Se Sony decidesse di ridurre la gamma Xperia a una sola serie, quale vorreste mantenere? Un sondaggio condotto da una testata giapponese ha posto questa domanda ai lettori, raccogliendo 206 risposte. Il risultato è interessante — e in parte sorprendente.
Negli ultimi anni Sony ha ridotto progressivamente la sua gamma di smartphone. La serie Xperia 5 è stata di fatto interrotta, l’Xperia Ace non riceve nuovi modelli da anni, e oggi la lineup si concentra su due linee: l’Xperia 1 (flagship) e l’Xperia 10 (fascia media). Un assestamento comprensibile dal punto di vista aziendale, ma non necessariamente allineato ai desideri degli utenti.
Ecco come si sono distribuite le preferenze tra i partecipanti al sondaggio:
Il risultato più interessante non è la vittoria dell’Xperia 1 — abbastanza prevedibile per un flagship — ma il 38,3% raccolto dall’Xperia 5, una serie che non esiste più. Quasi quattro utenti su dieci vorrebbero vederla tornare.
L’Xperia 5 rappresentava una formula rara sul mercato: prestazioni top in un formato compatto. In un’epoca in cui gli smartphone diventano sempre più grandi, quella combinazione è oggi praticamente assente. Il dato del sondaggio suggerisce che la domanda esiste ancora, e che Sony avrebbe potenzialmente un mercato da servire — se solo volesse coglierlo.
Vale la pena notare, infine, che l’Xperia 10 — la serie attualmente in commercio — riceve solo l’8,7% delle preferenze, meno di una serie non più prodotta da anni. Un messaggio chiaro agli occhi di chi legge questi numeri.
Dario Fadda reshared this.
I possessori di Samsung Galaxy Watch stanno segnalando un problema sempre più diffuso: il consumo anomalo della batteria. Dalle ultime settimane, molti utenti riferiscono un calo drastico dell’autonomia, e i dati puntano verso un’unica causa: i Google Play Services.
La maggior parte delle segnalazioni indica che il problema si è presentato improvvisamente, spesso dopo un recente aggiornamento. Gli screenshot condivisi sulle community online mostrano chiaramente i Google Play Services come principale responsabile del consumo energetico, con picchi del tutto anomali rispetto al normale utilizzo.
In molti casi, orologi che in precedenza duravano diversi giorni con una singola carica ora non riescono ad arrivare nemmeno a metà dell’autonomia abituale. Un impatto concreto e tangibile sull’esperienza d’uso quotidiana.
Non si tratta di un difetto isolato su un modello specifico: le segnalazioni riguardano diverse generazioni di Galaxy Watch. Alcuni utenti che possiedono più smartwatch Samsung confermano di aver riscontrato lo stesso problema su tutti i modelli, indipendentemente dalla versione del software.
Curioso anche il fatto che alcuni utenti abbiano riportato il problema senza aver installato alcun aggiornamento manuale, il che suggerisce che potrebbe essere coinvolto un aggiornamento silenzioso lato server o un’app aggiornata automaticamente in background.
Nella community si stanno diffondendo alcune possibili contromisure, come la pulizia della cache dei Google Play Services o il riavvio forzato dello smartwatch. In alcuni casi, il ripristino alle impostazioni di fabbrica ha risolto temporaneamente il problema, ma non sembra una soluzione definitiva valida per tutti.
Samsung non ha ancora rilasciato comunicati ufficiali sulla questione. Gli utenti attendono un aggiornamento che risolva il problema alla radice, considerando quanto sia fastidioso un malfunzionamento della batteria su un dispositivo che si indossa ogni giorno.
Dario Fadda reshared this.
Lenovo ha ufficialmente annunciato il ritorno del brand Legion Phone nel mondo degli smartphone Android. Dopo quasi tre anni di assenza dal mercato, il marchio gaming di Lenovo è pronto a tornare con una nuova visione: trasformare lo smartphone da semplice strumento di intrattenimento a vera piattaforma AI per il gaming mobile.
Lenovo aveva lasciato il mercato degli smartphone gaming nel 2022, dopo il lancio della serie Legion Y70. Nel 2023, un portavoce della società aveva confermato ufficialmente la chiusura di questo segmento. Eppure, a sorpresa, il brand è tornato sui propri passi: un account ufficiale su WeChat ha annunciato il ritorno del Legion Phone con un nuovo modello chiamato Legion Phone Y70 Next Generation.
Il nuovo Legion Phone non vuole essere semplicemente uno smartphone potente. Lenovo lo posiziona come un dispositivo pensato per l'”era dell’AI”, capace di ottimizzare in tempo reale le prestazioni durante il gaming, gestire le impostazioni di gioco e garantire un’esperienza fluida grazie all’integrazione con l’ecosistema Legion.
Il design del nuovo modello è già trapelato online: le immagini mostrano uno smartphone con il logo Legion ben visibile sul pannello posteriore, con un’estetica chiaramente orientata al gaming. I dettagli tecnici completi saranno svelati in occasione della presentazione ufficiale.
L’annuncio ufficiale del Legion Phone Y70 Next Generation è atteso per maggio 2026. Il mercato degli smartphone gaming si è ridimensionato rispetto al picco degli anni precedenti, con pochi grandi player rimasti attivi. Il ritorno di Lenovo potrebbe riscaldare un settore che sembrava in declino, soprattutto se la proposta AI si rivelerà concreta e non solo marketing.
Dario Fadda reshared this.
Il prossimo flagship di Sony si avvicina. Un dispositivo identificato come probabile Xperia 1 VIII ha superato la certificazione FCC negli Stati Uniti, con settimane di anticipo rispetto alla tempistica del modello precedente. Un segnale chiaro che la presentazione potrebbe avvenire prima del solito.
Il dispositivo è stato registrato con l’ID FCC “PY7-30515Z”. Il prefisso PY7 è storicamente associato agli smartphone Sony, rendendo quasi certa l’attribuzione al brand giapponese. Le informazioni pubblicamente disponibili nella certificazione offrono qualche indizio sulle specifiche tecniche del nuovo modello.
Tra le specifiche emerse dall’FCC, spicca il supporto al Wi-Fi 7, la connettività wireless di ultima generazione, che conferma la natura flagship del dispositivo. È stata confermata anche la presenza della tecnologia FeliCa (NFC per pagamenti contactless tipico del mercato giapponese), il che suggerisce si tratti di un modello destinato principalmente al Giappone, eventualmente importabile.
Il jack per le cuffie da 3,5mm sembra confermato anche questa volta, una caratteristica distintiva della linea Xperia che molti utenti apprezzano. Le bande LTE supportate risultano limitate, un pattern tipico dei modelli giapponesi certificati per utilizzo in roaming negli USA.
Le immagini delle cover già circolate in rete mostrano un modulo fotocamera posteriore riprogettato. Secondo le indiscrezioni, il cambiamento sarebbe dovuto a un sensore zoom di dimensioni maggiorate, con un impatto concreto sulle prestazioni fotografiche e non solo sull’estetica.
L’anno scorso, l’Xperia 1 VII ottenne la certificazione FCC a fine aprile, mentre la presentazione avvenne a maggio. Stavolta la certificazione è arrivata ad aprile già nelle prime settimane: se il pattern si ripete, il lancio dell’Xperia 1 VIII potrebbe anticipare di 1-2 settimane rispetto al 2025.
Dario Fadda reshared this.
Si parla di:
Toggle
Prima che i missili iraniani illuminassero il cielo di sette nazioni, un’altra guerra era già in corso nelle reti digitali di quei paesi. L’analisi della campagna condotta da APT35 rivela come il gruppo legato all’IRGC avesse sistematicamente compromesso le infrastrutture critiche di ogni paese successivamente colpito dall’Operazione Epic Fury, trasformando la cyber intelligence in un componente integrale della dottrina militare iraniana.
Il 28 febbraio 2026, Stati Uniti e Israele hanno lanciato l’Operazione Epic Fury (denominata “Operazione Roaring Lion” dalla parte israeliana): oltre 1.250 obiettivi colpiti nelle prime 48 ore, infrastrutture nucleari iraniane distrutte, connettività internet dell’Iran ridotta all’1-4% dei livelli normali in quello che è stato definito il più grande cyberattacco della storia. Ma ciò che i rapporti di intelligence successivi hanno rivelato è ancora più preoccupante: l’Iran non si trovava impreparato. Per mesi, forse anni, i suoi gruppi APT affiliati all’IRGC e al MOIS avevano già mappato, compromesso e pre-posizionato capacità offensive nelle reti digitali di ogni paese che avrebbe poi colpito.
APT35 — conosciuto anche come Charming Kitten, Phosphorus, Magic Hound e Mint Sandstorm — è il gruppo cyber più rappresentativo dell’IRGC Intelligence Organisation (Unit 1500, Department 40), attivo almeno dal 2014. La sua caratteristica distintiva non è la sofisticazione tecnica delle singole operazioni, ma la pazienza strategica: operazioni di ricognizione prolungate, accesso silenzioso mantenuto per mesi o anni prima di un’attivazione.
Secondo le analisi di CloudSek e dei ricercatori di IT Nerd, APT35 aveva documentabilmente compromesso infrastrutture nei seguenti paesi prima dei bombardamenti:
L’analisi degli eventi suggerisce un modello di conflitto ibrido strutturato in tre fasi sequenziali, ormai consolidato nella dottrina iraniana:
APT35 non ha operato in isolamento. Il Tenable Research ha identificato 12 gruppi APT iraniani attivi nelle settimane e mesi precedenti l’Operazione Epic Fury, coordinati attraverso strutture parallele:
Gruppi IRGC-affiliati: Pioneer Kitten (Fox Kitten, UNC757), Imperial Kitten (Tortoiseshell, TA456), CyberAv3ngers — quest’ultimo specializzato nel targeting di sistemi OT e PLC nei sistemi idrici. Gruppi MOIS-affiliati: APT34/OilRig (nuova infrastruttura per attacchi ed esfiltrazione), MuddyWater/Mango Sandstorm (picco di attività nella rete nel settembre 2025, con server distribuiti in Russia, Estonia e UK), Banished Kitten/Void Manticore (usa la persona Handala, wiper-focused). Gruppi IRGC-IO: APT42 (credential harvesting tramite social engineering). Gruppi IRGC-CEC: Cotton Sandstorm (revival della persona Altoufan Team).
Particolarmente sofisticata è stata l’architettura di infrastruttura impiegata per mascherare l’attribuzione. Netcrook ha documentato uno schema di offuscamento a tre livelli:
Questa architettura ha reso estremamente complessa l’attribuzione rapida e le azioni legali di takedown durante le operazioni.
Il documento Tenable elenca 67 CVE sfruttate dai gruppi iraniani, incluse vulnerabilità ben note mai patchate da molte organizzazioni. Tra le più critiche:
# CVE sfruttate dai gruppi APT iraniani (selezione)
CVE-2021-26855 # Microsoft Exchange Server - ProxyLogon SSRF
CVE-2021-26858 # Microsoft Exchange - post-auth arbitrary file write
CVE-2021-26857 # Microsoft Exchange - insecure deserialization
CVE-2021-27065 # Microsoft Exchange - post-auth arbitrary file write
CVE-2021-44228 # Apache Log4j2 - Log4Shell RCE
CVE-2022-40684 # Fortinet FortiOS/FortiProxy - authentication bypass
CVE-2020-3153 # Cisco ASA - path traversal
# Malware famiglie associate
BellaCiao # RAT/implant IRGC (codice sorgente esposto in leak)
Sagheb RAT # Remote Access Trojan IRGC
Shamoon # Wiper distruttivo (energia, Arabia Saudita)
# Malware ICS/OT
Custom PLC malware targeting Rockwell Automation (CyberAv3ngers)
La vicenda dell’Operazione Epic Fury e della sua dimensione cyber non è semplicemente la cronaca di un conflitto mediorientale. È la dimostrazione concreta di come le operazioni cyber siano diventate componenti integrali — non accessorie — della dottrina militare degli stati autoritari. Il pre-posizionamento di APT35 nelle reti dei paesi bersaglio anni prima delle operazioni fisiche stabilisce un precedente: in futuri conflitti, qualsiasi attore statale disporrà presumibilmente di “porte di accesso” già aperte nelle infrastrutture avversarie.
Per i difensori occidentali, la lezione è chiara: la minaccia non inizia il giorno in cui i missili vengono lanciati. Inizia quando un webshell silenzioso viene installato su un server Exchange non patchato da sei mesi.
Prima che i missili iraniani illuminassero il cielo di sette nazioni, i gruppi APT dell'IRGC avevano già compromesso silenziosamente le infrastrutture critiche di quei paesi.Dario Fadda ((in)sicurezza digitale)
Dario Fadda reshared this.
Nei sistemi distribuiti, la gestione di processi di business che si estendono su più servizi e nel tempo rappresenta una delle sfide più complesse. Il Pattern Saga nasce proprio per risolvere questo problema: coordinare una sequenza di operazioni distribuite in modo affidabile, garantendo la consistenza dei dati anche in caso di errori parziali.
In questo articolo esploriamo come implementare il Pattern Saga in .NET utilizzando Wolverine, un framework moderno che semplifica notevolmente la gestione di messaggi e workflow complessi grazie al suo approccio convention-driven.
Il Pattern Saga è un meccanismo di gestione delle transazioni distribuite che sostituisce le transazioni ACID tradizionali nei sistemi a microservizi. Invece di eseguire una sequenza di operazioni come un’unica transazione atomica, la saga suddivide il processo in una serie di passi indipendenti, ciascuno con la propria logica di compensazione in caso di fallimento.
Il principio fondamentale è semplice: se un passo fallisce o va in timeout, la saga esegue la logica di compensazione invece di lasciare il sistema in uno stato inconsistente. Questo approccio è particolarmente utile per processi di lunga durata come:
Wolverine è un framework per .NET che adotta un approccio convention-driven alla messaggistica e ai workflow. A differenza di soluzioni come MassTransit o Rebus, Wolverine gestisce automaticamente routing dei messaggi, persistenza dello stato e correlazione, senza richiedere un’estesa configurazione tramite DSL per state machine.
Le principali dipendenze per iniziare sono:
WolverineFx (5.16.2)
WolverineFx.Postgresql (5.16.2)
WolverineFx.RabbitMQ (5.16.2)
La configurazione di Wolverine richiede pochi passaggi. Nell’entry point dell’applicazione, si configura il framework per utilizzare RabbitMQ come message broker e PostgreSQL per la persistenza dello stato:
builder.Host.UseWolverine(options =>
{
options.UseRabbitMqUsingNamedConnection("rmq")
.AutoProvision()
.UseConventionalRouting();
options.Policies.DisableConventionalLocalRouting();
options.PersistMessagesWithPostgresql(connectionString!);
});AutoProvision(): crea automaticamente exchange e code in RabbitMQUseConventionalRouting(): instrada i messaggi in base ai nomi dei tipiDisableConventionalLocalRouting(): forza tutti i messaggi attraverso RabbitMQPersistMessagesWithPostgresql(): archivia stato della saga e messaggi; crea una tabella per saga con serializzazione JSON
Ogni passo della saga è rappresentato da un messaggio. Definiamo tutti i tipi di messaggio per un processo di onboarding utente:
public record SendVerificationEmail(Guid UserId, string Email);
public record VerificationEmailSent(Guid Id);
public record VerifyUserEmail(Guid Id);
public record SendWelcomeEmail(Guid UserId, string Email, string FirstName);
public record WelcomeEmailSent(Guid Id);
public record OnboardingTimedOut(Guid Id) : TimeoutMessage(5.Minutes());OnboardingTimedOut estende TimeoutMessage di Wolverine: questo fa sì che il messaggio venga consegnato automaticamente dopo 5 minuti, eliminando la necessità di scheduler esterni per gestire i timeout.
La saga viene implementata come una classe che estende Saga. Lo stato viene mantenuto come proprietà della classe:
public class UserOnboardingSaga : Saga
{
public Guid Id { get; set; }
public string Email { get; set; } = string.Empty;
public string FirstName { get; set; } = string.Empty;
public string LastName { get; set; } = string.Empty;
public bool IsVerificationEmailSent { get; set; }
public bool IsEmailVerified { get; set; }
public bool IsWelcomeEmailSent { get; set; }
}
Il metodo statico Start è il factory method che inizia la saga. Restituisce una tupla contenente l’istanza della saga, il comando iniziale e il messaggio di timeout pianificato:
public static (
UserOnboardingSaga,
SendVerificationEmail,
OnboardingTimedOut) Start(
UserRegistered @event,
ILogger<UserOnboardingSaga> logger)
{
var saga = new UserOnboardingSaga
{
Id = @event.Id,
Email = @event.Email,
FirstName = @event.FirstName,
LastName = @event.LastName,
};
return (
saga,
new SendVerificationEmail(saga.Id, saga.Email),
new OnboardingTimedOut(saga.Id));
}
I metodi Handle elaborano i messaggi in arrivo. Se restituiscono void, aggiornano solo lo stato; se restituiscono un messaggio, causano l’invio del passo successivo:
public void Handle(VerificationEmailSent @event, ILogger<UserOnboardingSaga> logger)
{
logger.LogInformation("Email di verifica inviata per l'utente {UserId}", Id);
IsVerificationEmailSent = true;
}
public SendWelcomeEmail Handle(VerifyUserEmail command, ILogger<UserOnboardingSaga> logger)
{
logger.LogInformation("Email verificata per l'utente {UserId}", Id);
IsEmailVerified = true;
return new SendWelcomeEmail(Id, Email, FirstName);
}
public void Handle(WelcomeEmailSent @event, ILogger<UserOnboardingSaga> logger)
{
logger.LogInformation("Onboarding completato per l'utente {UserId}", Id);
IsWelcomeEmailSent = true;
MarkCompleted(); // Elimina lo stato dal database
}
Il timeout è un cittadino di prima classe in Wolverine. Se l’utente non verifica l’email entro 5 minuti, il handler del timeout gestisce la compensazione:
public void Handle(OnboardingTimedOut timeout, ILogger<UserOnboardingSaga> logger)
{
if (IsEmailVerified)
{
logger.LogInformation(
"Timeout ignorato - email già verificata per {UserId}", Id);
return;
}
logger.LogWarning(
"Onboarding scaduto per {UserId} - email non verificata", Id);
MarkCompleted();
}
Wolverine richiede la gestione esplicita del caso in cui arrivi un messaggio per una saga già terminata, tramite metodi statici NotFound:
public static void NotFound(VerifyUserEmail command, ILogger<UserOnboardingSaga> logger)
{
logger.LogWarning("VerifyEmail ricevuto ma la saga {Id} non esiste più", command.Id);
}
public static void NotFound(OnboardingTimedOut timeout, ILogger<UserOnboardingSaga> logger)
{
logger.LogInformation("Timeout per la saga già completata {Id}", timeout.Id);
}
Wolverine correla automaticamente i messaggi alle istanze della saga cercando nell’ordine: attributo [SagaIdentity], proprietà {SagaTypeName}Id, oppure proprietà Id. Non è necessaria alcuna configurazione esplicita per i casi standard.
Per la concorrenza, Wolverine applica di default il controllo di concorrenza ottimistico: quando più messaggi per la stessa saga arrivano contemporaneamente, uno riesce mentre gli altri vengono ritentati automaticamente. Attenzione: non invocare IMessageBus.InvokeAsync() all’interno dei handler della stessa saga, ma usare sempre i messaggi in cascata (valori di ritorno) per evitare problemi con dati obsoleti.
Wolverine supporta tre strategie per la persistenza dello stato della saga:
Il percorso “happy path” dell’onboarding segue questi passi:
UserRegistered attiva il metodo Start()SendVerificationEmail e pianificato OnboardingTimedOutVerificationEmailSent aggiorna lo stato della sagaVerifyUserEmail ricevuto, viene inviato in cascata SendWelcomeEmailWelcomeEmailSent completa il workflow, la saga viene eliminataSe VerifyUserEmail non arriva entro 5 minuti, OnboardingTimedOut gestisce la compensazione e termina la saga.
Wolverine offre un approccio sorprendentemente pulito all’implementazione del Pattern Saga in .NET. La scelta convention-driven elimina gran parte del boilerplate tipico di altri framework, consentendo di concentrarsi sulla logica di business. La gestione automatica di persistenza, routing e correlazione dei messaggi, unita al supporto nativo per timeout e compensazione, lo rende una scelta solida per workflow distribuiti complessi.
Per i team che lavorano con architetture a microservizi in .NET, Wolverine merita certamente una valutazione approfondita come alternativa moderna ai pattern tradizionali di orchestrazione.
Fonte originale: Implementing the Saga Pattern With Wolverine — Milan Jovanović
Long-running business processes don't fit neatly into a single request. Wolverine's Saga support gives you a convention-based approach to orchestrating workflows in .NET - with built-in timeout handling and compensation.www.milanjovanovic.tech
Dario Fadda reshared this.
Nascosta nei termini di servizio di Microsoft per Copilot c’è una frase (sottolineata per giunta in grassetto) che farebbe sorridere un avvocato ma anche impallidire molti utilizzatori: “Copilot è solo per intrattenimento“. La clausola completa avverte che lo strumento può fare errori, potrebbe non funzionare come previsto e che gli utenti non dovrebbero affidarsi a...
Tutto su Linux e news, kubuntu, consulenza, sysadm, drupal, kernel, italiaziobudda.org
Dario Fadda reshared this.
Trasformazioni Le Trasformazioni sono delle specie di filtri, nel senso che sono operazioni fatte sui pixel di un’immagine. Abbiamo un’immagine regolare, trasformazioni su tutti i livelli nell’immagine e menu in alto sui livelli, in modo che tu possa ridimensionare, ribaltare e ruotare l’intera immagine. Esiste anche lo Strumento Ritaglio, che riguarda solo la dimensione della tela, e lo...
Tutto su Linux e news, kubuntu, consulenza, sysadm, drupal, kernel, italiaziobudda.org
Dario Fadda reshared this.
Dario Fadda reshared this.
Il kernel GNU Linux-libre è una versione del kernel Linux appositamente modificata per garantire la massima libertà del software a chi desidera utilizzare un sistema operativo completamente privo di componenti proprietari. L’obiettivo centrale è offrire un ambiente interamente libero, in cui...
Tutto su Linux e news, kubuntu, consulenza, sysadm, drupal, kernel, italiaziobudda.org
Dario Fadda reshared this.
Nel mese di aprile 2026, i ricercatori di sicurezza hanno identificato un attacco di supply chain sofisticato ai danni di CPUID, l’azienda dietro i popolarissimi tool di monitoraggio hardware CPU-Z e HWMonitor. Gli attaccanti hanno compromesso i server dell’azienda e reindirizzato i download ufficiali verso versioni malware. Per il corso di sei ore, gli utenti che scaricavano CPU-Z e HWMonitor dai siti ufficiali ricevevano un Remote Access Trojan precedentemente non documentato denominato STX RAT.
Questo incidente exemplifica una tendenza crescente nel panorama delle minacce informatiche: gli attaccanti hanno capito che il modo più efficace per ottenere una penetrazione di massa non è attaccare i singoli utenti, ma compromettere i software publisher e i loro canali di distribuzione. Se il software che stai scaricando oggi da un sito ufficiale contiene malware, la fiducia nella sicurezza della catena di distribuzione software crolla completamente.
A differenza di molti attacchi di supply chain che richiedono il compromesso dei sistemi di build e signing di un’azienda, gli attaccanti dietro questo incidente hanno adottato un approccio più mirato. Invece di cercare di infettare i binari finali di CPU-Z o HWMonitor (che sono firmati digitalmente), gli attaccanti hanno compromesso un’API secondaria utilizzata da CPUID per servire i link di download sul proprio sito web.
Modificando questa API, gli attaccanti hanno reindirizzato le richieste degli utenti verso file malevoli ospitati su Cloudflare R2. Le vittime pensavano di scaricare il software legittimo direttamente dal sito CPUID, ma ricevevano invece il malware. Non è stata trovata alcuna evidenza che gli attaccanti abbiano compromesso il processo di compilazione, il sistema di signing dei binari, o i server di controllo della versione di CPUID.
STX RAT è stato nominato da eSentire per la sua caratteristica firma tecnica: l’utilizzo consistente del byte STX come magic byte per prefisso nei messaggi diretti al command-and-control (C2).
Browser e credenziali web:
Portafogli di criptovalute:
Credenziali client FTP:
Una capacità particolarmente insidiosa di STX RAT è il supporto per hidden VNC (Virtual Network Computing). Questo permette all’attaccante di:
I comandi supportati includono “starthvnc”, “keypress”, “mouseinput”, “mousewheel”, e “switchdesktop”, fornendo una suite completa di controllo remoto.
Il vettore di consegna del malware utilizza una tecnica classica pero ancora efficace: DLL sideloading (also known as DLL hijacking). Quando un utente scaricava il file trojanizzato da HWMonitor, conteneva:
Poiché Windows segue un ordine di ricerca delle DLL specifico, quando HWMonitor_x64.exe cerca di caricare CRYPTBASE.dll, trova prima la versione malevola nella stessa directory. Questo causa l’esecuzione del codice dell’attaccante con gli stessi privilegi dell’applicazione legittima.
C2 Server: 95.216.51.236
Malware: STX RAT
Compromesso: 9-10 aprile 2026
Download malevoli: CPU-Z, HWMonitor versioni x64 e x86
DLL sideload: CRYPTBASE.dllInoltre, eSentire ha documentato che STX RAT supporta il routing del traffico C2 attraverso Tor per garantire anonimato, rendendo la tracciatura della comunicazione estremamente difficile.
Kaspersky ha identificato oltre 150 vittime dirette dell’incidente CPUID. La distribuzione geografica mostra una concentrazione in Brasile, Russia, e Cina, con settori colpiti che includono: retail e e-commerce, manufacturing, consulting, telecomunicazioni, e agricoltura.
Il fatto che utenti in settori critici siano stati infetti suggerisce che STX RAT potrebbe essere utilizzato sia per cyber-spionaggio che per estorsione, poiché il malware combina capacità di reconnaissance (infostealing) con accesso remoto completo (HVNC).
L’incidente CPUID dimostra che la sicurezza della catena di distribuzione software non è negoziabile. Anche i siti ufficiali di società legittime possono essere compromessi. I defender devono adottare un mindset di “zero trust” verso qualsiasi software e implementare verifiche multi-strato di integrità e autenticità prima dell’esecuzione.
Dario Fadda reshared this.
Chiunque abbia lavorato con .NET Aspire su progetti reali si è prima o poi scontrato con il classico errore: “Port 17370 is already in use”. Capita quando si prova ad avviare una seconda istanza dell’AppHost — magari su un altro branch, o in un altro terminale — e le porte predefinite sono già occupate dalla prima istanza in esecuzione. Con Aspire 13.2, questo problema ha finalmente una soluzione elegante: la modalità isolata (--isolated).
In questo articolo vediamo nel dettaglio come funziona questa nuova funzionalità, i casi d’uso pratici, e le altre novità rilevanti di questa release.
In un tipico progetto .NET Aspire, l’AppHost configura i binding delle porte per tutti i servizi nell’orchestrazione: la dashboard su una porta, l’API su un’altra, il database su un’altra ancora. Questi binding sono statici per default, e questo crea problemi immediati quando si vuole eseguire due istanze dello stesso AppHost contemporaneamente:
La soluzione tradizionale era modificare manualmente i port binding nella configurazione — un approccio fragile, soggetto a errori e difficile da gestire in team.
--isolated
Aspire 13.2 introduce la flag --isolated che risolve il problema alla radice. L’utilizzo è semplicissimo:
aspire run --isolated
# oppure
aspire start --isolated--isolated, la CLI genera un identificativo univoco per l’istanza corrente, e questo ID guida due comportamenti fondamentali:
Invece di usare le porte definite staticamente nell’AppHost, ogni istanza isolata riceve un range di porte casuali disponibili. Dove un run normale potrebbe bindare i servizi su 8080, 8081, 8082, due istanze isolate potrebbero usare rispettivamente:
La cosa notevole è che il codice dell’applicazione non necessita alcuna modifica: il service discovery di Aspire risolve gli endpoint dinamicamente a runtime, quindi i servizi si “trovano” a prescindere dalle porte assegnate.
La configurazione rimane completamente separata per ogni istanza. Connection string, chiavi API e altre variabili d’ambiente non si “contaminano” tra run diversi, anche quando puntano a risorse Azure o database con nomi diversi. Questo è particolarmente importante in scenari di test dove ogni istanza deve operare in modo completamente autonomo.
Il caso d’uso più comune: sviluppo su due branch in parallelo.
# Terminale 1 - branch principale
cd ~/projects/myapp-main
aspire run --isolated
# Terminale 2 - feature branch
cd ~/projects/myapp-feature-xyz
aspire run --isolated
Un pattern molto utile: eseguire test di integrazione contro un AppHost “live” mentre si continua a sviluppare sull’AppHost principale.
# AppHost per sviluppo interattivo
aspire run --isolated
# In un altro terminale: avvia i test che usano il loro AppHost dedicato
dotnet test --isolated-apphost
Questo è il caso d’uso che ha spinto direttamente lo sviluppo di questa feature. Gli agenti AI in VS Code Copilot possono creare automaticamente git worktree separati per task paralleli. Con --isolated, ogni agente può avviare il proprio AppHost nella sua directory di lavoro senza conflitti con la sessione principale dello sviluppatore.
Aspire 13.2 include anche il comando aspire agent init (rinominato da aspire mcp init) che configura automaticamente gli agenti per usare --isolated con i worktree git.
La modalità isolata non è l’unica novità della CLI. Aspire 13.2 introduce una serie di nuovi comandi operativi che rendono la gestione delle istanze molto più potente:
aspire ps — lista delle istanze attive
Elenca tutti gli AppHost Aspire in esecuzione sulla macchina, con le relative informazioni (porte, stato, ID istanza). Utile specialmente quando si hanno più istanze isolate attive contemporaneamente e si vuole sapere cosa sta girando.
aspire ps
# Output:
# ID PROJECT STATUS DASHBOARD
# abc123 myapp-main Running http://localhost:15234
# def456 myapp-feature Running http://localhost:22891aspire describe — dettagli sulle risorse
Accede ai dettagli di una risorsa specifica direttamente dal terminale, senza dover aprire la dashboard:
aspire describe api
# Mostra endpoint, variabili d'ambiente, stato health, ecc.aspire doctor — diagnostica dell’ambiente
Esegue un controllo completo dell’ambiente di sviluppo: verifica che tutte le dipendenze siano installate correttamente (Docker, .NET SDK, ecc.) e segnala eventuali problemi di configurazione.
aspire wait — attesa su uno stato specifico
Blocca l’esecuzione in script di automazione finché una risorsa non raggiunge uno stato specifico. Utile in pipeline CI/CD o in script di startup:
aspire run --isolated &
aspire wait --resource api --state Running
# Ora l'API è sicuramente up, posso eseguire i testaspire export — export di telemetria e dati
Cattura telemetria e dati delle risorse in formato JSON per analisi offline o per integrazione con altri strumenti.
Una delle novità più interessanti di Aspire 13.2 è il supporto preview per scrivere l’AppHost in TypeScript. Fino ad ora, l’AppHost era necessariamente un progetto C#. Con questa release, è possibile usare TypeScript con una sintassi idiomatica:
import { createBuilder } from '@aspire/hosting';
const builder = await createBuilder();
// Aggiunge Redis come risorsa
const cache = await builder.addRedis("cache");
// Aggiunge un servizio Node.js con dipendenza da Redis
const api = await builder.addNpmApp("api", "../api")
.withReference(cache);
await builder.build().run();aspire add, e aspire restore li rigenera se necessario.Questa funzionalità è ancora in preview e non è raccomandata per produzione, ma è un segnale chiaro della direzione che sta prendendo Aspire: abbracciare anche gli sviluppatori TypeScript/Node.js, non solo quelli .NET.
La dashboard introduce un dialog centralizzato “Manage logs and telemetry” che permette di:
.env
Nuovo endpoint /api/telemetry sulla dashboard che permette query programmatiche dei dati di telemetria con supporto streaming NDJSON. Utile per integrare la telemetria di Aspire con strumenti di monitoring esterni o script di analisi.
È ora possibile impostare i parametri delle risorse direttamente dalla dashboard, con opzione di salvataggio nei user secrets. Questo elimina la necessità di modificare manualmente i file di configurazione per cambiare un parametro durante il debug.
Chi usa Aspire con workload AI troverà utili i miglioramenti al GenAI visualizer: migliore gestione di schemi complessi, payload troncati, testo non-ASCII e navigazione tra definizioni di tool.
È possibile dichiarare server Model Context Protocol (MCP) direttamente nell’AppHost con il nuovo metodo WithMcpServer():
var api = builder.AddProject<Projects.MyApi>("api")
.WithMcpServer("/mcp");
L’integrazione con Docker Compose passa da prerelease a stabile. È ora possibile generare un docker-compose.yaml completo direttamente dal modello di app Aspire con aspire publish --format docker-compose.
Nuovo pacchetto Aspire.Hosting.Azure.Network per la gestione di reti virtuali Azure:
var vnet = builder.AddAzureVirtualNetwork("vnet");
var subnet = vnet.AddSubnet("web", "10.0.1.0/24");
var natGateway = vnet.AddNatGateway("nat");
Se stai aggiornando un progetto Aspire esistente a 13.2, ci sono alcune breaking changes da considerare:
aspire.config.json unificato (migrazione automatica al primo run)resource-start → start, resource-stop → stopAspire.Hosting.Azure.AIFoundry → Aspire.Hosting.FoundryWithBuildSecretPer aggiornare, usa:
aspire update --self # aggiorna la CLI
aspire update # aggiorna i pacchetti del progetto
Aspire 13.2 è una release sostanziosa che affronta problemi concreti del workflow di sviluppo. La modalità --isolated è probabilmente la novità più impattante per il day-to-day: risolve un pain point reale in modo elegante, senza richiedere modifiche al codice dell’applicazione.
L’aggiunta del TypeScript AppHost in preview è un segnale importante della direzione di Aspire verso un ecosistema più inclusivo, mentre i nuovi comandi CLI (ps, describe, doctor, wait) rendono Aspire molto più adatto a workflow di automazione e sviluppo agentico.
Chi lavora già con Aspire troverà questo aggiornamento decisamente consigliato. Chi non lo ha ancora provato, potrebbe essere il momento giusto per iniziare — soprattutto se lavora con architetture microservizi in .NET.
Fonti: Running Multiple Instances of an Aspire AppHost Without Port Conflicts · What’s new in Aspire 13.2
Aspire 13.2 introduces isolated mode, letting you run multiple instances of the same AppHost in parallel without port conflicts.James Newton-King (Aspire Blog)
Dario Fadda reshared this.