Dario Fadda ha ricondiviso questo.

Rilasciati GNOME 50.1 e GNOME 49.6


GNOME è uno dei più importanti ambienti desktop liberi e open source, progettato per offrire un’esperienza utente semplice, intuitiva e accessibile. Fin dalla sua nascita, l’obiettivo principale è stato quello di proporre un’interfaccia coerente e facile...

🔗 Leggi il post completo

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

LLM Chat in .NET con IChatClient: guida completa all’integrazione


Integra LLM in .NET con IChatClient: astrazione unificata per OpenAI, Azure OpenAI, Ollama e altri. Streaming, structured output, portabilità tra provider e middleware.
The media in this post is not displayed to visitors. To view it, please go to the original post.

Introduzione: l’astrazione che unifica i servizi LLM


Integrare Large Language Model in .NET ha sempre comportato un problema: ogni servizio (OpenAI, Azure OpenAI, Ollama, Claude) ha il proprio SDK con API diverse. IChatClient della libreria Microsoft.Extensions.AI risolve questo problema fornendo un’astrazione unificata. Scrivi una volta, cambia provider senza modificare la logica applicativa.

Cosa è IChatClient?


IChatClient è un’interfaccia che rappresenta un client per servizi AI con capacità chat. Astrae i dettagli di comunicazione con LLM remoti o locali, permettendo di:

  • Inviare e ricevere messaggi con contenuto multi-modale (testo, immagini, audio)
  • Ottenere risposte complete o streaming incrementale
  • Mantenere contesto di conversazione
  • Usare funzionalità avanzate come tool calling e structured outputs

L’interfaccia fa parte del pacchetto Microsoft.Extensions.AI.Abstractions, mentre Microsoft.Extensions.AI aggiunge middleware per telemetria, caching, function calling automatico e patterns familiari di dependency injection.

Setup iniziale con DI


Il punto di partenza è registrare il chat client nel contenitore di dependency injection. Ecco l’approccio canonico:

var builder = Host.CreateApplicationBuilder();
builder.Services.AddChatClient(
    new OllamaChatClient(new Uri("http://localhost:11434"), "llama3"));
var app = builder.Build();
var chatClient = app.Services.GetRequiredService<IChatClient>();

In questo esempio, usiamo Ollama con il modello llama3 locale. La bellezza di questa astrazione: la stessa registrazione funziona con OpenAI, Azure OpenAI o qualsiasi provider che implementi IChatClient. Il codice che usa il client rimane invariato.

Risposta semplice da un LLM


Il caso più basilare: inviare un prompt e ottenere una risposta:

var response = await chatClient.GetResponseAsync("What is .NET? Reply in 50 words max.");
Console.WriteLine(response.Message.Text);

Il metodo GetResponseAsync restituisce un oggetto ChatCompletion con il messaggio della risposta. Semplice, sincrono dal punto di vista dello sviluppatore (anche se asincrono sottostante).

Streaming per risposte lunghe


Per applicazioni interattive come chatbot, lo streaming è essenziale. Permette all’utente di vedere il testo apparire gradualmente, come in ChatGPT:

var chatResponse = "";
await foreach (var item in chatClient.GetStreamingResponseAsync(chatHistory))
{
    Console.Write(item.Text);
    chatResponse += item.Text;
}

Il metodo GetStreamingResponseAsync ritorna un IAsyncEnumerable<StreamingChatCompletionUpdate>. Ogni item contiene un frammento di testo che puoi visualizzare in tempo reale.

Conversazioni multi-turno con cronologia


Mantenere una conversazione richiede di raccogliere la storia dei messaggi. Ecco un loop interattivo completo:

var chatHistory = new List<ChatMessage>();
while (true)
{
    Console.Write("You: ");
    var userPrompt = Console.ReadLine();
    
    chatHistory.Add(new ChatMessage(ChatRole.User, userPrompt));
    
    var chatResponse = "";
    Console.Write("Assistant: ");
    await foreach (var item in chatClient.GetStreamingResponseAsync(chatHistory))
    {
        Console.Write(item.Text);
        chatResponse += item.Text;
    }
    Console.WriteLine();
    
    chatHistory.Add(new ChatMessage(ChatRole.Assistant, chatResponse));
}

Ogni turno aggiunge alla lista: il user message, poi il response dell’assistant. Al turno successivo, passi l’intera cronologia a GetStreamingResponseAsync. L’LLM usa questo contesto per mantenere coerenza conversazionale.

Structured output: JSON tipizzato


Spesso vuoi che l’LLM restituisca dati strutturati (JSON). Puoi chiederlo esplicitamente nel prompt:

var prompt = $"""
You will receive an article and extract its metadata.
Respond ONLY with valid JSON following this format without any deviation.

{{
    "title": "...",
    "summary": "...",
    "keywords": ["...", "..."]
}}

Article:
{File.ReadAllText("article.md")}
""";

var response = await chatClient.GetResponseAsync(prompt);
var jsonText = response.Message.Text;
var metadata = JsonSerializer.Deserialize<ArticleMetadata>(jsonText);

L’approccio funziona, ma richiede gestione manuale di parsing e validazione. C’è una soluzione migliore.

Deserialization tipizzata con generics


La libreria Microsoft.Extensions.AI supporta il generic GetResponseAsync<T> che deserializza automaticamente il JSON in una classe C#:

public class ArticleMetadata
{
    public string Title { get; set; } = string.Empty;
    public string Summary { get; set; } = string.Empty;
    public string[] Keywords { get; set; } = [];
}

var metadata = await chatClient.GetResponseAsync<ArticleMetadata>(prompt);
Console.WriteLine($"Title: {metadata.Result.Title}");
Console.WriteLine($"Keywords: {string.Join(", ", metadata.Result.Keywords)}");

Questa API offre sicurezza in fase di compilazione e supporto IDE completo per il refactoring. Se cambi la struttura di ArticleMetadata, il compilatore avvisa i punti di utilizzo.

Portabilità tra provider: da locale a cloud


Una delle promesse di IChatClient è la portabilità. Ecco come implementare una strategia “local in dev, cloud in prod”:

// Avvio locale con Ollama
if (app.Environment.IsDevelopment())
{
    builder.Services.AddChatClient(
        new OllamaChatClient(new Uri("http://localhost:11434"), "mistral"));
}
else
{
    // Avvio cloud con Azure OpenAI
    builder.Services.AddChatClient(
        new AzureOpenAIClient(
            new Uri(azureEndpoint),
            new DefaultAzureCredential()).AsChatClient());
}

Il resto dell’applicazione non cambia. Chiede semplicemente IChatClient al DI container e riceve l’implementazione appropriata. Niente hardcoding, niente API specifiche sparse nel codice.

Middleware per telemetria e caching


Il pacchetto Microsoft.Extensions.AI fornisce middleware composabile. Uno uso comune è aggiungere OpenTelemetry:

var builder = Host.CreateApplicationBuilder();

// Registra OpenTelemetry
builder.Services.AddOpenTelemetry()
    .WithTracing(tracing => tracing
        .AddAspNetCoreInstrumentation()
        .AddHttpClientInstrumentation());

// Registra il chat client con middleware di telemetria
builder.Services.AddChatClient(baseChatClient)
    .UseOpenTelemetry(builder.Services.BuildServiceProvider()
        .GetRequiredService<ILoggerFactory>());

Con questo setup, ogni chiamata a IChatClient genera automaticamente span OpenTelemetry tracciabili in strumenti come Application Insights o Jaeger. Nessuna strumentazione manuale necessaria.

Integrazione con il framework Agent


Il framework Agent di Microsoft costruisce sopra IChatClient aggiungendo astrazioni a livello agent: gestione persistente del contesto, tool calling automatico, prompt di sistema, API streaming pulita. Se usi agent, IChatClient rimane il cuore della comunicazione LLM.

Conclusione


IChatClient rappresenta una maturazione nell’integrazione LLM in .NET. Invece di accoppiare il codice a provider specifici, definisci un’astrazione e lascia che l’infrastruttura scelga l’implementazione. Lo streaming, la deserialization tipizzata, la composizione di middleware e la portabilità del provider diventano proprietà di prima classe dell’architettura.

Per qualsiasi team che integra LLM in .NET 2026, IChatClient è il fondamento su cui costruire. Richiede poca configurazione iniziale e ripaga con flessibilità architetturale a lungo termine.

Fonte originale: Microsoft.Extensions.AI libraries – .NET | Microsoft Learn e Working with LLMs in .NET using Microsoft.Extensions.AI

#ai #dev #c #copilot #Net
Questa voce è stata modificata (2 ore fa)

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Qualcomm sviluppa un NPU dedicato per smartphone: l’AI on-device entra in una nuova era


Qualcomm starebbe lavorando a un chip NPU standalone — separato dall'SoC principale — pensato per gestire l'intelligenza artificiale direttamente sullo smartphone, senza ricorrere al cloud. L'iniziativa, sviluppata in collaborazione con GigaDevice, punta ai produttori cinesi ma potrebbe avere ripercussioni sull'intera industria. Un chip AI separato dallo Snapdragon A differenza degli attuali SoC che integrano un modulo NPU all'interno dello stesso die — come accade negli Snapdragon 8 […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Qualcomm starebbe lavorando a un chip NPU standalone — separato dall’SoC principale — pensato per gestire l’intelligenza artificiale direttamente sullo smartphone, senza ricorrere al cloud. L’iniziativa, sviluppata in collaborazione con GigaDevice, punta ai produttori cinesi ma potrebbe avere ripercussioni sull’intera industria.

Un chip AI separato dallo Snapdragon


A differenza degli attuali SoC che integrano un modulo NPU all’interno dello stesso die — come accade negli Snapdragon 8 Elite — il nuovo approccio prevede un chip dedicato esclusivamente all’elaborazione AI. Questo NPU è pensato per lavorare in tandem con il processore principale, gestendo in modo autonomo carichi di lavoro come riconoscimento vocale, generazione di immagini e modelli linguistici di medie dimensioni.

Memoria 3D DRAM per prestazioni elevate


La caratteristica tecnica più interessante è l’integrazione con 3D DRAM prodotta da CXMT: circa 4 GB di memoria impilata con tecnologia avanzata (TSV e hybrid bonding), capace di trasferire dati molto più velocemente rispetto alla classica LPDDR. Questo è fondamentale per i modelli AI che richiedono enormi quantità di dati in pochi millisecondi.

Le prestazioni annunciate si attestano intorno ai 40 TOPS (trilioni di operazioni al secondo), un valore che posiziona questo chip tra i più capaci in assoluto per l’uso mobile.

Prezzi alti, almeno all’inizio


Il tallone d’Achille dell’iniziativa è il costo: la memoria 3D specializzata fa lievitare il prezzo complessivo del componente, limitandone l’adozione ai soli smartphone premium. L’arrivo sul mercato è previsto tra la seconda metà del 2026 e l’inizio del 2027. Con il tempo, se i costi scenderanno, questa tecnologia potrebbe ridefinire le aspettative sull’AI locale degli smartphone Android.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Handala e la Cyber-Offensiva dell’Iran: 6 Petabyte distrutti e 149 Terabyte rubati dall’infrastruttura critica di Dubai


Il 12 aprile 2026, il gruppo Handala legato all'Iran ha attaccato l'infrastruttura critica di Dubai, distruggendo 6 petabyte di dati e rubando 149 terabyte di documenti classificati da tre istituzioni governative emiratine in un'operazione che rappresenta una significativa escalation della cyberguerra iraniana.
The media in this post is not displayed to visitors. To view it, please go to the original post.

Si parla di:
Toggle


Il 12 aprile 2026, il gruppo Handala, collegato ai servizi di intelligence iraniani, ha annunciato il successo di un attacco di proporzioni senza precedenti contro l’infrastruttura critica degli Emirati Arabi Uniti. L’operazione ha mirato alla Dubai Courts Authority, Dubai Land Authority e Dubai Roads & Transport Authority, risultando nel furto di 149 terabyte di documenti classificati e nella distruzione di 6 petabyte di dati, rappresentando una chiara escalation nella campagna di cyberguerra iraniana.

Portata e natura dell’attacco


L’attacco coordinato dal gruppo Handala rappresenta una categoria di operazione cybernetiche rara: la combinazione di dati wiper (per la distruzione) e exfiltration (per il furto). La selezione degli obiettivi rivela una strategia sofisticata focalizzata su istituzioni critiche che controllano documenti di valore geopolitico, proprietà intellettuale sensibile e informazioni su infrastrutture strategiche.

L’enorme volume di dati distrutti (6 petabyte equivale a circa 6 milioni di gigabyte) suggerisce che gli attaccatori avevano accesso profondo alle infrastrutture di storage primarie e di backup, un indicativo di una lunga permanenza nei sistemi target senza essere rilevati. Il gruppo ha pubblicamente rivendicato l’operazione con comunicati dettagliati, indicando che l’obiettivo non era nascondere l’attacco bensì massimizzare l’impatto psicologico e geopolitico.

Attribution e legami con l’Iran


Sebbene Handala si presenta pubblicamente come collettivo di hacker hacktivist pro-resistenza, analisti di sicurezza e agenzie governative hanno stabilito con elevata confidenza il collegamento con il Ministero dell’Intelligence iraniano (MOIS). Il gruppo fa parte di quello che DomainTools Investigations ha descritto come “un ecosistema coordinato di cyber-influenza” che include anche i gruppi Karma/KarmaBelow80 e Homeland Justice.

Questa struttura a facciata permette all’Iran di mantenere una negazione plausibile mentre conduce operazioni cybernetiche offensive contro i nemici geopolitici e gli alleati regionali. La scelta di Dubai specificamente è significativa: gli EAU hanno in anni recenti normalizzato relazioni con Israele e hanno aumentato partnership strategiche con Stati Uniti e alleati occidentali, rendendoli un bersaglio prioritario per la rappresaglia iraniana.

Motivazione dichiarata e contesto geopolitico


Nel comunicato di rivendicazione, Handala ha caratterizzato l’operazione come risposta al “tradimento eclatante” dei leader degli Emirati, tracciando paralleli con figure storiche infami come Jeffrey Epstein. Questa retorica è coerente con la narrativa iraniana che dipinge gli EAU come traditori della causa palestinese per le relazioni normalizzate con Israele. Tuttavia, gli esperti di sicurezza sottolineano che la motivazione dichiarata funziona principalmente come cover narrativo per un’operazione principalmente geopolitica e economica.

Dati dell'Operazione:
- Data: 12 Aprile 2026
- Bersagli: 3 istituzioni critiche di Dubai
- Dati Rubati: 149 Terabyte (TB) di documenti classificati
- Dati Distrutti: 6 Petabyte (PB) = 6.000 Terabyte
- Attribution: MOIS Iran via Handala/Karma/Homeland Justice
- Reivindicazione: Pubblica tramite comunicati del gruppo

Implicazioni di sicurezza e defensive posture


L’attacco Handala rivela vulnerabilità critiche nelle infrastrutture di protezione dei dati dei servizi pubblici. La capacità di distruggere 6 petabyte di dati suggerisce che gli attaccatori avevano accesso non solo ai sistemi primari ma anche ai backup, compromettendo le fondamentali pratiche di business continuity e disaster recovery. I responsabili della sicurezza negli Emirati e nei governi alleati devono riconsiderare gli assunti di base sulla separazione geografica, logica e procedurale dei backup critici.

La scala dell’exfiltration (149 TB) suggerisce inoltre che l’attacco non è stato una penetrazione improvvisa ma il risultato di un accesso sostenuto nel tempo. Durante il dwell time (periodo di permanenza), gli attaccatori hanno avuto il tempo di identificare, localizzare e esfiltrare i dati di massimo valore geopolitico prima di eseguire le operazioni di wiper.

Raccomandazioni di difesa


  • Implementare una strategia di backup geograficamente distribuita con separazione logica e procedurale dai sistemi primari
  • Stabilire un sistema di detection comportamentale focalizzato su volume-based anomalies (movimentazione anomala di dati in massa)
  • Implementare encryption at-rest per tutti i backup critici, con gestione chiavi separata dai sistemi operativi
  • Eseguire un threat hunt specificamente focalizzato su indicatori di accesso persistente da attori iraniani
  • Aumentare la collaborazione tra agenzie governative regionali per identificare indicatori comuni di compromesso
  • Sviluppare incident response protocols specifici per scenari di wiper-plus-exfiltration

L’operazione Handala rappresenta un’ulteriore escalation nella campagna iraniana di cyberguerra regionale. Con la Corea del Nord che diversifica gli attacchi verso il settore DeFi e l’Iran che consolida la sua capacità offensiva contro lo stato regionale, il 2026 è emergendo come anno critico di ricalibramento della strategia di cyberwarfare a livello globale.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Motorola Razr 70: arriva il colore Bright White e la gamma pieghevole è al completo


La famiglia pieghevole Motorola per il 2026 si completa con l'arrivo di un nuovo colore: il Bright White. Con questa aggiunta, il Motorola Razr 70 sarà disponibile in quattro varianti cromatiche, tutte ispirate alla palette Pantone e ciascuna con una finitura distintiva. Quattro colori Pantone per il Razr 70 Il Motorola Razr 70 adotta una collaborazione con Pantone che va oltre la semplice scelta del colore: ogni variante ha una texture unica che la differenzia visivamente e al tatto. Ai […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

La famiglia pieghevole Motorola per il 2026 si completa con l’arrivo di un nuovo colore: il Bright White. Con questa aggiunta, il Motorola Razr 70 sarà disponibile in quattro varianti cromatiche, tutte ispirate alla palette Pantone e ciascuna con una finitura distintiva.

Quattro colori Pantone per il Razr 70


Il Motorola Razr 70 adotta una collaborazione con Pantone che va oltre la semplice scelta del colore: ogni variante ha una texture unica che la differenzia visivamente e al tatto. Ai tre colori già trapelati — Sporting Green, Hematite e Violet Ice — si aggiunge ora il Bright White. Motorola non si limita quindi a proporre colori diversi per uno stesso materiale, ma offre un’esperienza estetica differenziata per ciascuna scelta.

Design in continuità con il Razr 60


Dal punto di vista del form factor, il Razr 70 non rivoluziona il predecessore. Il display esterno misura circa 3,63 pollici (1.056×1.066 pixel), mentre quello interno si attesta su 6,9 pollici (1.080×2.640 pixel). Le dimensioni sono in linea con il segmento, puntando sulla praticità della forma clamshell.

Specifiche tecniche attese


Le specifiche complete non sono ancora state ufficializzate, ma le indiscrezioni indicano opzioni di memoria da 8, 12 e 16 GB con storage fino a 1 TB. Sul fronte fotografico, la principale novità rispetto al predecessore sarebbe la sostituzione dell’ultra-grandangolare con un teleobiettivo 3x, affiancato da un sensore principale da 50 MP. Il selfie-cam sarebbe da 32 MP.

Il lancio del Motorola Razr 70 è atteso nei prossimi mesi. Con la gamma cromatica ora definita, sembra che l’annuncio ufficiale sia sempre più vicino.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Motorola Edge 70 Pro su Geekbench: Dimensity 8500, 12 GB RAM e Android 16 a bordo


Il Motorola Edge 70 Pro continua a fare capolino sui database di benchmark prima del lancio ufficiale. L'ultima apparizione su Geekbench ha rivelato le prestazioni attese e confermato alcuni dati chiave sulla configurazione hardware del dispositivo. Prestazioni da fascia medio-alta I risultati Geekbench registrano un punteggio single-core di 1.727 e multi-core di 6.563, numeri in linea con la fascia medio-alta del mercato Android. Le prestazioni sono sufficienti per gestire agevolmente le […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Il Motorola Edge 70 Pro continua a fare capolino sui database di benchmark prima del lancio ufficiale. L’ultima apparizione su Geekbench ha rivelato le prestazioni attese e confermato alcuni dati chiave sulla configurazione hardware del dispositivo.

Prestazioni da fascia medio-alta


I risultati Geekbench registrano un punteggio single-core di 1.727 e multi-core di 6.563, numeri in linea con la fascia medio-alta del mercato Android. Le prestazioni sono sufficienti per gestire agevolmente le applicazioni quotidiane, lo streaming e anche qualche sessione di gaming non troppo impegnativa.

Il dispositivo monta 12 GB di RAM ed è equipaggiato con Android 16 già in fase di test, il che suggerisce un lancio previsto nella seconda metà del 2026.

MediaTek Dimensity 8500 al centro


Dall’architettura CPU rilevata — configurazione 1+3+4 con core principale a 3,40 GHz e GPU Mali-G720 MC8 — si deduce che il chip a bordo sia il MediaTek Dimensity 8500. Alcune fonti ipotizzano addirittura la variante Dimensity 8500 Extreme, una versione potenziata dello stesso chip, che potrebbe fare la sua comparsa nel modello finale.

Camera Sony e design ricercato


Sul fronte fotografico, le indiscrezioni puntano a un sensore Sony Lytia 710, particolarmente apprezzato per la resa in condizioni di scarsa illuminazione. Motorola avrebbe enfatizzato proprio le capacità di scatto notturno nei materiali di teaser già circolati online.

Per quanto riguarda l’estetica, l’Edge 70 Pro dovrebbe proporre tre colorazioni con finiture differenti: blu in stile fabric, verde oliva satinato e bianco con texture marmo. Un approccio che richiama la filosofia di Motorola di offrire non solo colori, ma vere e proprie esperienze materiche.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Galaxy S27: Samsung potrebbe montare Exynos 2700 su metà dei modelli per tagliare i costi


Samsung starebbe valutando un cambio di strategia importante per la gamma Galaxy S27: secondo le ultime indiscrezioni, il chip proprietario Exynos 2700 potrebbe essere adottato in circa la metà dei dispositivi prodotti, riducendo la dipendenza da Qualcomm e abbattendo i costi di produzione. Il problema: il Galaxy S25 era tutto Snapdragon Con il Galaxy S25, Samsung aveva fatto una scelta netta: Snapdragon 8 Elite per tutti i modelli, senza eccezioni geografiche. Risultato? Prestazioni […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Samsung starebbe valutando un cambio di strategia importante per la gamma Galaxy S27: secondo le ultime indiscrezioni, il chip proprietario Exynos 2700 potrebbe essere adottato in circa la metà dei dispositivi prodotti, riducendo la dipendenza da Qualcomm e abbattendo i costi di produzione.

Il problema: il Galaxy S25 era tutto Snapdragon


Con il Galaxy S25, Samsung aveva fatto una scelta netta: Snapdragon 8 Elite per tutti i modelli, senza eccezioni geografiche. Risultato? Prestazioni eccellenti e piena soddisfazione degli utenti, ma anche un aumento significativo dei costi per l’acquisto dei chip Qualcomm. Con i nuovi nodi produttivi sempre più costosi, la situazione è destinata a peggiorare ulteriormente.

Il piano per il Galaxy S27: Exynos al 50%


Per correre ai ripari, Samsung starebbe pianificando di adottare il proprio Exynos 2700 su circa il 50% della produzione del Galaxy S27. Si tratterebbe di un ritorno significativo alla strategia “doppio chip” che ha caratterizzato per anni i Galaxy S, con modelli Snapdragon per alcuni mercati (tipicamente USA e Cina) ed Exynos per Europa e altri.

Questa mossa permetterebbe a Samsung di ridurre la dipendenza da un unico fornitore e di abbattere i costi, reinvestendo il risparmio in altri settori o semplicemente migliorando i margini.

Il nodo Exynos: prestazioni all’altezza?


Il punto critico rimane la competitività dell’Exynos 2700. In passato, i chip Samsung hanno spesso sofferto di inefficienze energetiche rispetto alle controparti Qualcomm, con conseguenze negative sulla durata della batteria e sulla gestione della temperatura. Se l’Exynos 2700 non dovesse colmare questo divario, gli utenti europei potrebbero ritrovarsi con un’esperienza d’uso inferiore rispetto a chi ha acquistato la versione con Snapdragon.

Samsung è consapevole di questa criticità: la scelta di puntare nuovamente su Exynos sarà vincente solo se il chip riuscirà a reggere il confronto nella vita reale, non solo nei benchmark. L’annuncio del Galaxy S27 è atteso per l’inizio del 2027.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Agent Skills in .NET: tre paradigmi di composizione per gli agenti AI


I tre paradigmi di composizione per gli agent AI in .NET: skill basati su file, classe e inline. Scopri come comporre architetture flessibili con AgentSkillsProviderBuilder.
The media in this post is not displayed to visitors. To view it, please go to the original post.

Introduzione: L’evoluzione dei skill negli agent .NET


Gli agent AI richiedono un modo flessibile e modulare di estendere le loro capacità: questo è il ruolo dei skill. Con il framework Agent di Microsoft per .NET, gli sviluppatori dispongono di tre paradigmi complementari per definire e comporre skill, permettendo ai team di scegliere l’approccio più adatto al loro contesto.

I tre paradigmi per creare skill

1. Skill basati su file (File-Based Skills)


L’approccio più dichiarativo parte da una struttura di directory semplice. Ogni skill è organizzato come una cartella contenente:

  • Un file SKILL.md con metadati nel frontmatter YAML
  • Una sottocartella opzionale scripts/ con il codice eseguibile
  • Una sottocartella opzionale references/ con documentazione di supporto

Questo paradigma è particolarmente vantaggioso per i team che vogliono gestire i skill come assets indipendenti dentro un repository condiviso. Il caricamento è automatico: l’agent scopre e carica i skill quando l’utente ne fa richiesta.

Ecco come si registra un provider file-based:

var skillsProvider = new AgentSkillsProvider(
    Path.Combine(AppContext.BaseDirectory, "skills"),
    SubprocessScriptRunner.RunAsync);

Il vantaggio decisivo è la separazione tra definizione del skill e implementazione. Non è necessario riconfigurare il codice C# per aggiungere nuovi skill; basta creare una nuova directory.

2. Skill basati su classe (Class-Based Skills)


Per chi preferisce la sicurezza dei tipi e il supporto IDE completo, gli skill basati su classe offrono un’alternativa fortemente tipizzata. Si eredita da AgentClassSkill<T> e si usano attributi di reflection per marcare le risorse e gli script:

public sealed class BenefitsEnrollmentSkill : AgentClassSkill<BenefitsEnrollmentSkill>
{
    [AgentSkillResource("available-plans")]
    public string AvailablePlans => "Plan A, Plan B, Plan C...";
    
    [AgentSkillScript("enroll")]
    private static string Enroll(string employeeId, string planCode)
    {
        // Logica di iscrizione
        return $"Iscrizione di {employeeId} al piano {planCode} completata";
    }
}

Questo approccio è ideale per skill complessi che richiedono logica C# sofisticata. Gli attributi [AgentSkillResource] e [AgentSkillScript] permettono al framework di scoprire automaticamente quali metodi e proprietà esporre all’agent.

Un vantaggio cruciale: i team possono sviluppare e distribuire skill indipendentemente come pacchetti NuGet, mantenendo il proprio ciclo di rilascio e permettendo il riuso tra progetti.

3. Skill inline (Inline Code-Defined Skills)


Il terzo paradigma è il più flessibile: skill definiti a runtime usando AgentInlineSkill. Sono perfetti per bridge temporanei, skill generati dinamicamente o implementazioni condizionate dallo stato dell’applicazione:

var timeOffSkill = new AgentInlineSkill(
    name: "time-off-balance",
    description: "Calcola i giorni di ferie e malattia rimanenti per un dipendente...")
    .AddScript("calculate-balance", (employeeId, leaveType) => 
    {
        // Logica runtime
        return $"Giorni rimanenti: {remaining}";
    });

I skill inline supportano anche risorse dinamiche:
.AddResource("policies", () => PolicyRepository.GetActivePolicies());

Questa capacità di aggiungere risorse come delegate è cruciale: le politiche possono aggiornarsi senza ricompilare l’applicazione.

Composizione flessibile con AgentSkillsProviderBuilder


La vera potenza del design emerge quando si combinano tutti e tre i paradigmi in un’unica applicazione. Il builder pattern permette una composizione dichiarativa:

var skillsProvider = new AgentSkillsProviderBuilder()
    .UseFileSkill(Path.Combine(AppContext.BaseDirectory, "skills"))
    .UseSkill(new BenefitsEnrollmentSkill())
    .UseSkill(timeOffSkill)
    .UseFileScriptRunner(SubprocessScriptRunner.RunAsync)
    .Build();

In questa configurazione:
  • I skill nel filesystem vengono caricati e resi disponibili
  • La classe BenefitsEnrollmentSkill registra i suoi metodi annotati
  • Lo skill inline timeOffSkill aggiunge capacità runtime

Il framework astrae completamente il “come” carica ogni tipo di skill; l’agent li vede come una superficie unificata.

Funzionalità avanzate

Approvazione degli script


Per ambienti ad alto rischio, è possibile richiedere una revisione umana prima dell’esecuzione:

.UseScriptApproval(true)

In questo caso, l’agent formula il comando ma non lo esegue autonomamente; un operatore deve approvare.

Filtraggio di sicurezza


Quando si condividono directory di skill tra team, il filtraggio garantisce che solo gli skill approvati siano disponibili:

.UseFilter(skill => approvedSkills.Contains(skill.Frontmatter.Name))

Iniezione di dipendenze


I metodi degli skill possono ricevere IServiceProvider come parametro. Questo consente l’accesso a servizi registrati nel contenitore DI, indipendentemente dal paradigma di skill:

[AgentSkillScript("send-notification")]
private static string SendNotification(string userId, IServiceProvider services)
{
    var emailService = services.GetRequiredService<IEmailService>();
    return emailService.SendAsync(userId, "Notification");
}

Conclusione


Il design tripartito dei skill in .NET Agent Framework non è una complicazione: è un’architettura di composizione che rispetta gli usi diversi. Gli skill basati su file servono la semplicità e la dinamica; quelli basati su classe offrono sicurezza e riusabilità via NuGet; quelli inline forniscono agilità runtime.

Per i team che costruiscono sistemi agent complessi, questa flessibilità è fondamentale. Permette di iniziare in semplicità (skill inline), evolversi verso la modularità (skill basati su classe in NuGet) e mantenere agilità operativa (skill file-based per aggiustamenti dinamici) — tutto nello stesso agent, senza compromessi architetturali.

Fonte originale: Agent Skills in .NET: Three Ways to Author, One Provider to Run Them — Microsoft Agent Framework Blog

Questa voce è stata modificata (3 ore fa)

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Rilasciato OpenSSL 4.0: novità e miglioramenti


OpenSSL è una delle librerie crittografiche più importanti e utilizzate al mondo nel panorama del software libero. Si tratta di un progetto open source nato nel 1998 con l’obiettivo di fornire strumenti affidabili per...

🔗 Leggi il post completo

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Google Pixel 10: il linguaggio Rust protegge il modem dagli attacchi remoti


Google ha fatto un passo avanti importante nella sicurezza del Pixel 10: per la prima volta, il linguaggio di programmazione Rust è stato introdotto all'interno del firmware del modem, l'elemento più esposto agli attacchi via rete. Una mossa che rafforza la difesa contro exploit remoti particolarmente pericolosi. Perché il modem è un bersaglio critico Il modem (o baseband) di uno smartphone gestisce tutte le comunicazioni cellulari ed è spesso costruito su codice scritto decenni fa in […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Google ha fatto un passo avanti importante nella sicurezza del Pixel 10: per la prima volta, il linguaggio di programmazione Rust è stato introdotto all’interno del firmware del modem, l’elemento più esposto agli attacchi via rete. Una mossa che rafforza la difesa contro exploit remoti particolarmente pericolosi.

Perché il modem è un bersaglio critico


Il modem (o baseband) di uno smartphone gestisce tutte le comunicazioni cellulari ed è spesso costruito su codice scritto decenni fa in C e C++. Si tratta di software complesso, pieno di strati accumulati nel tempo, difficile da aggiornare e strutturalmente vulnerabile ai bug di gestione della memoria. Non a caso, il team Project Zero di Google ha dimostrato in passato che è possibile eseguire codice malevolo su Pixel da remoto, sfruttando proprio vulnerabilità nel modem, senza che l’utente faccia nulla.

Rust nel parser DNS: un intervento mirato


L’approccio di Google non è stato riscrivere l’intero modem — operazione irrealistica vista la complessità del codice e i diritti di proprietà intellettuale coinvolti — ma intervenire su un componente specifico: il parser DNS. Questa sezione elabora le risposte provenienti dall’esterno ed è quindi particolarmente esposta a input malevoli. Sostituendola con codice Rust, Google elimina alla radice una categoria intera di vulnerabilità legate alla memoria.

Perché proprio Rust?


Rust è un linguaggio moderno che garantisce la sicurezza della memoria a livello di compilazione, senza necessità di un garbage collector. Questo lo rende ideale per componenti critici come i modem, dove le prestazioni in tempo reale sono fondamentali. A differenza di C, Rust impedisce al programmatore di commettere certi tipi di errori che tipicamente aprono la porta agli exploit.

La mossa di Google con Pixel 10 segna una tendenza più ampia nell’industria tech: aziende come Microsoft, Amazon e Linux Foundation stanno tutte investendo in Rust per sostituire gradualmente il codice C legacy nei sistemi critici. Per gli utenti Pixel, questo si traduce in un dispositivo più difficile da compromettere anche da parte di attaccanti sofisticati.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Samsung aumenta i prezzi di Galaxy Z Flip 7, S25 Edge e Tab negli USA


Samsung ha alzato i prezzi di listino di diversi smartphone e tablet Galaxy sul mercato statunitense. Gli aumenti variano da poche decine di dollari per gli smartphone fino a quasi 300 dollari per i modelli top di gamma della linea tablet, con i modelli a maggiore capacità di archiviazione che subiscono i rincari più pesanti. Gli smartphone interessati dai rincari Tra gli smartphone, le modifiche riguardano principalmente il Galaxy Z Flip 7 da 512 GB, il cui prezzo sale da 1.220 a 1.300 […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Samsung ha alzato i prezzi di listino di diversi smartphone e tablet Galaxy sul mercato statunitense. Gli aumenti variano da poche decine di dollari per gli smartphone fino a quasi 300 dollari per i modelli top di gamma della linea tablet, con i modelli a maggiore capacità di archiviazione che subiscono i rincari più pesanti.

Gli smartphone interessati dai rincari


Tra gli smartphone, le modifiche riguardano principalmente il Galaxy Z Flip 7 da 512 GB, il cui prezzo sale da 1.220 a 1.300 dollari (+80 dollari), il Galaxy S25 FE da 256 GB che passa da 710 a 750 dollari (+40 dollari) e il Galaxy S25 Edge da 512 GB, anch’esso a 1.300 dollari dai precedenti 1.220 (+80 dollari). Quest’ultimo modello aveva già registrato vendite non brillanti, e la decisione di alzarne il prezzo sembra puntare più al recupero dei margini che all’espansione del mercato.

I tablet subiscono gli aumenti maggiori


È però sulla gamma Galaxy Tab che gli aumenti si fanno sentire di più. Il Tab S11 da 256 GB passa da 860 a 1.000 dollari (+140 dollari), la versione da 512 GB da 980 a 1.200 dollari (+220 dollari), mentre il Tab S11 Ultra da 1 TB arriva a 1.900 dollari, con un incremento di 280 dollari rispetto al precedente listino.

Dazi e costi di produzione alla base dei rincari


Sebbene Samsung non abbia comunicato ufficialmente le motivazioni, il contesto è chiaro: la politica tariffaria statunitense in vigore nel 2025-2026 ha aumentato i costi di importazione dei prodotti elettronici di consumo, e i produttori stanno scaricando almeno in parte questi oneri sui consumatori finali. Samsung non è l’unica: anche altri brand stanno rivedendo i prezzi sul mercato USA.

Per il momento non ci sono indicazioni che gli stessi aumenti vengano applicati sul mercato europeo, ma la situazione è in evoluzione e vale la pena monitorarla.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Pixel: il consumo anomalo della batteria persiste dopo il bug del marzo 2026


I possessori di smartphone Google Pixel stanno segnalando da settimane un problema di consumo anomalo della batteria che, nonostante l'attesa di una correzione ufficiale, non è ancora stato risolto completamente. Alcune ipotesi tecniche iniziano però a fare luce sulla possibile origine del bug. Il problema è comparso con l'aggiornamento di marzo La problematica ha iniziato a manifestarsi in modo diffuso dopo il rilascio dell'aggiornamento software di marzo 2026. Non tutti i dispositivi […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

I possessori di smartphone Google Pixel stanno segnalando da settimane un problema di consumo anomalo della batteria che, nonostante l’attesa di una correzione ufficiale, non è ancora stato risolto completamente. Alcune ipotesi tecniche iniziano però a fare luce sulla possibile origine del bug.

Il problema è comparso con l’aggiornamento di marzo


La problematica ha iniziato a manifestarsi in modo diffuso dopo il rilascio dell’aggiornamento software di marzo 2026. Non tutti i dispositivi Pixel sono stati colpiti, ma su diversi modelli gli utenti hanno notato un calo drastico dell’autonomia: smartphone che normalmente duravano un’intera giornata si scaricano già nel pomeriggio.

I forum ufficiali di supporto Google e i social network sono pieni di segnalazioni simili. Il denominatore comune è chiaro: dopo l’aggiornamento, il consumo energetico è aumentato in modo ingiustificato, senza variazioni nell’utilizzo quotidiano.

La causa potrebbe essere nel controllo della CPU


Un utente particolarmente attento ha identificato una possibile spiegazione tecnica: il problema potrebbe risiedere nel meccanismo di risparmio energetico del processore. In condizioni normali, quando lo smartphone è inattivo entra in uno stato di “Deep Doze”, riducendo drasticamente le attività in background. In questo caso, invece, tale modalità non si attiva correttamente.

Il risultato è che il dispositivo rimane in uno stato di elaborazione continua anche quando non viene utilizzato, con cicli brevi e ripetuti che consumano energia in modo costante. In sostanza, il software sarebbe intrappolato in un loop che impedisce al Pixel di “addormentarsi” davvero.

Cosa possono fare gli utenti colpiti


Al momento non esiste una soluzione definitiva lato utente per risolvere il problema alla radice. Alcuni hanno segnalato miglioramenti temporanei dopo un riavvio del dispositivo o il ripristino delle impostazioni di risparmio energetico, ma si tratta di rimedi parziali. La soluzione completa dovrà arrivare tramite un aggiornamento software da parte di Google.

Chi possiede un Pixel colpito dal bug è invitato a segnalare il problema attraverso i canali ufficiali per accelerare i tempi di correzione. Google non ha ancora rilasciato comunicazioni ufficiali sull’entità del problema né sui tempi previsti per il fix.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Samsung Galaxy Z Tri-Fold Wide: il pieghevole a tre sezioni emerge da un brevetto


Mentre il mercato degli smartphone pieghevoli si prepara all'arrivo del Galaxy Z Fold 8, Samsung guarda già oltre: un nuovo brevetto ha rivelato l'esistenza di un dispositivo chiamato Galaxy Z Tri-Fold Wide, con una struttura a tre pannelli e due cerniere. Prima il modello Wide, poi il Tri-Fold La strategia di Samsung sembra strutturata in due fasi. La prima prevede il lancio di un Galaxy Z Fold 8 Wide, una versione più larga del Fold tradizionale, che offrirebbe un display interno con […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Mentre il mercato degli smartphone pieghevoli si prepara all’arrivo del Galaxy Z Fold 8, Samsung guarda già oltre: un nuovo brevetto ha rivelato l’esistenza di un dispositivo chiamato Galaxy Z Tri-Fold Wide, con una struttura a tre pannelli e due cerniere.

Prima il modello Wide, poi il Tri-Fold


La strategia di Samsung sembra strutturata in due fasi. La prima prevede il lancio di un Galaxy Z Fold 8 Wide, una versione più larga del Fold tradizionale, che offrirebbe un display interno con proporzioni più simili a quelle di un tablet. Questo cambio renderebbe l’uso di app, video e multitasking molto più naturale rispetto all’attuale schermo allungato.

Solo successivamente arriverebbe il Galaxy Z Tri-Fold Wide, il modello tre volte pieghevole che rappresenta l’evoluzione più radicale. Al momento si tratta di un concept che esiste principalmente su carta — nei documenti brevettuali — ma la direzione è chiara.

Come funziona la struttura a tre pannelli


Dal brevetto emerge che il dispositivo è composto da tre schermi collegati da due cerniere. Completamente aperto, offre una superficie display che si avvicina a quella di un piccolo tablet orizzontale, decisamente più ampia di qualsiasi pieghevole attuale. Nella configurazione chiusa, una parte del display rimane visibile all’esterno come schermata di copertura.

Interessante anche la modalità “tent” (tenda): piegato a metà, il dispositivo può appoggiarsi da solo su una superficie e funzionare in autonomia, utile per videochiamate o fruizione di contenuti multimediali.

Un futuro ancora lontano, ma la direzione è tracciata


È importante sottolineare che un brevetto non garantisce affatto che il prodotto venga effettivamente lanciato sul mercato. Samsung protegge regolarmente le proprie idee innovative molto prima di decidere se trasformarle in prodotti reali. Tuttavia, questo brevetto conferma che il colosso coreano sta esplorando attivamente il segmento dei dispositivi a tre sezioni, potenzialmente in risposta all’interesse crescente per questa categoria.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Drift Protocol: il più grande furto DeFi del 2026 perpetrato da hacker nord-coreani con una campagna di social engineering durata 6 mesi


Il 1° aprile 2026, hacker nord-coreani hanno drenato 285 milioni di dollari da Drift Protocol attraverso una campagna di social engineering durata 6 mesi, sfruttando la durable nonce di Solana per ottenere il controllo amministrativo della piattaforma.
The media in this post is not displayed to visitors. To view it, please go to the original post.

Si parla di:
Toggle


Il 1° aprile 2026, gli hacker nord-coreani legati al gruppo UNC4736 hanno condotto uno dei più sofisticati attacchi di social engineering contro la piattaforma DeFi Drift Protocol, drenando ben 285 milioni di dollari e dimostrando la capacità dello stato-nazione di infiltrarsi negli ecosistemi finanziari decentralizzati. L’attacco, iniziato sei mesi prima in autunno del 2025, ha sfruttato le “durable nonces” di Solana per ottenere il controllo amministrativo della piattaforma.

La campagna di social engineering: una sofisticazione raramente vista


I threat actor nord-coreani hanno dimostrato una competenza tecnica straordinaria e una conoscenza approfondita del funzionamento di Drift Protocol. La campagna è iniziata con l’istituzione di un gruppo Telegram dove gli attaccanti hanno costruito una presenza operativa credibile all’interno dell’ecosistema. Per mesi, hanno intrattenuto conversazioni autentiche con i contributori di Drift riguardanti strategie di trading e integrazioni di vault, comportamenti indistinguibili da quelli di veri trader istituzionali. Gli attaccanti hanno depositato oltre 1 milione di dollari di propri fondi per aumentare la credibilità.

Questa fase preparatoria rappresenta un cambio fondamentale nelle tattiche di APT state-sponsored: da attacchi prevalentemente tecnici a operazioni ibride che combinano ingegneria sociale sofisticata con sfruttamento tecnico. Il gruppo, noto anche come AppleJeus, Citrine Sleet, Golden Chollima e Gleaming Pisces, ha dimostrato di comprendere a fondo i processi sociali interni alle organizzazioni target.

Il meccanismo di attacco: abuso della durable nonce


Una volta guadagnato l’accesso, gli attaccanti hanno sfruttato una caratteristica tecnica di Solana nota come “durable nonce” per indurre i membri del Drift Security Council a pre-firmare transazioni che avrebbero eventualmente loro trasferito il controllo amministrativo. Il passo successivo è stato cruciale: gli attaccatori hanno inserito nella whitelist un token artificiale e privo di valore (CVT) come collaterale valido. Hanno quindi depositato 500 milioni di token CVT e li hanno utilizzati per prelevare 285 milioni di dollari in asset reali inclusi USDC, SOL e ETH.

Timeline Attacco:
- Settembre 2025: Inizio social engineering
- Febbraio-Marzo 2026: Conversazioni integrate nel sistema
- 1 Aprile 2026: Esecuzione dell'attacco
- 12 minuti: Drenaggio di 285 milioni di dollari
- Poche ore: Bridging dei fondi verso Ethereum

Impatto geopolitico e implicazioni per la sicurezza DeFi


Questo attacco è il secondo più grande exploit nella storia di Solana, superato solo dal compromesso della Wormhole bridge di 326 milioni di dollari nel 2022. Rappresenta anche un’escalation allarmante nella strategia nord-coreana di acquisizione di valute estere per aggirare le sanzioni internazionali. La Corea del Nord è stata storicamente limitata nell’accesso al sistema finanziario globale, rendendo i furti da piattaforme DeFi un’alternativa redditizia per il finanziamento delle operazioni dello stato.

Gli esperti di sicurezza sono preoccupati dal precedente stabilito da questa operazione. Se gli attaccatori nord-coreani possono infiltrarsi con successo nelle più sofisticate piattaforme DeFi attraverso il social engineering, nessun ecosistema blockchain è completamente immune. Le implicazioni si estendono oltre la sicurezza tecnica: dimostrano come i processi umani rimangono il punto debole più critico anche nei sistemi decentralizzati progettati per eliminare la fiducia.

Raccomandazioni difensive


  • Implementare un rigoroso processo di due diligence multi-strato per nuovi partner commerciali, inclusa la verifica in-person di identità
  • Stabilire un team di analisti di minacce dediti a verificare la credibilità di nuove entità che richiedono accesso ai sistemi critici
  • Utilizzare sistemi di multisig con controlli temporali per qualsiasi transazione che comporti il trasferimento di controllo amministrativo
  • Implementare monitoraggio comportamentale per rilevare pattern anomali nelle transazioni pre-firmate
  • Condurre red team esercizi regolari focalizzati su vettori di social engineering contro il personale chiave

Il compromesso di Drift Protocol dimostra che la Corea del Nord ha costruito le capacità tecniche e le risorse per condurre sofisticate operazioni cyberfinanza, rappresentando una minaccia crescente non solo per il settore DeFi ma per l’intero ecosistema blockchain globale.

Questa voce è stata modificata (2 ore fa)

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Sovranità Digitale alla francese: addio Windows e benvenuto Linux nella PA: utopia o piano realistico?


Nella speranza che notizie come quella che stiamo raccontando diventino sempre più frequenti, oggi parliamo della scelta francese di abbandonare Microsoft Windows in favore di Linux all’interno delle postazioni di lavoro della pubblica amministrazione. L’attuazione dell’ambizioso piano sarà competenza del DINUM (Direzione interministeriale per il digitale) ed ovviamente il tutt...

🔗 Leggi il post completo

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Azure MCP Server 2.0: 276 strumenti per integrare Azure negli agenti AI


Microsoft rilascia la versione 2.0 stabile di Azure MCP Server con 276 tool su 57 servizi Azure, deployment remoto self-hosted, supporto al flusso OBO e sovereign cloud. Tutto quello che serve sapere per integrarlo nel proprio workflow AI.
The media in this post is not displayed to visitors. To view it, please go to the original post.

Il Model Context Protocol (MCP) sta rapidamente diventando lo standard de facto per consentire agli agenti AI di interagire con servizi e strumenti esterni. Microsoft ha appena rilasciato la versione 2.0 stabile di Azure MCP Server, un passo significativo che porta a 276 strumenti distribuiti su 57 servizi Azure direttamente accessibili da qualsiasi agente o IDE compatibile con MCP.

Cos’è Azure MCP Server?


Azure MCP Server è un’implementazione del Model Context Protocol che funge da ponte tra gli agenti AI e l’ecosistema Azure. Invece di dover scrivere codice di integrazione personalizzato per ogni servizio, un agente AI può semplicemente “scoprire” e utilizzare i tool messi a disposizione dal server MCP, che includono operazioni di provisioning, deployment, monitoraggio e diagnostica su decine di servizi Azure.

L’idea centrale è quella di rendere le operazioni su Azure talmente naturali per un agente AI quanto lo è per un programmatore umano navigare sul portale Azure o usare la CLI. La versione 2.0 segna la transizione da una release preview a un prodotto stabile e pronto per l’uso in produzione.

Le principali novità della versione 2.0

Deployment remoto self-hosted


La novità più significativa di questa release è il supporto al deployment remoto. Nelle versioni precedenti, il server MCP doveva girare localmente sulla macchina dello sviluppatore. Con la 2.0, è possibile distribuire Azure MCP Server come servizio centralizzato, accessibile da tutto il team o dall’intera organizzazione tramite trasporto HTTP.

Questo cambia radicalmente le possibilità di adozione enterprise: invece di configurare ogni sviluppatore individualmente, il team di platform engineering può mantenere un’istanza centralizzata con configurazione e governance coerenti. Meno deriva di configurazione, più sicurezza, un unico punto di aggiornamento.

Integrazione con Microsoft Foundry e flusso OBO


La versione 2.0 introduce il supporto per il flusso On-Behalf-Of (OBO), noto anche come OpenID Connect delegation. Questo meccanismo consente al server MCP di chiamare le API Azure usando il contesto dell’utente autenticato, mantenendo la separazione delle identità e rispettando i permessi RBAC assegnati al singolo utente.

L’integrazione con Microsoft Foundry consente di usare le managed identity direttamente, semplificando la gestione delle credenziali in ambienti cloud-native senza dover gestire segreti esplicitamente.

Security hardening


Con il passaggio a stable, Microsoft ha rafforzato significativamente la sicurezza del server:

  • Validazione endpoint più rigorosa
  • Protezioni contro pattern di injection nei tool di query
  • Controlli di isolamento più stringenti

Questi miglioramenti sono essenziali per l’adozione in contesti enterprise dove la superficie di attacco deve essere minimizzata.

Supporto sovereign cloud


Azure MCP Server 2.0 è ora configurabile per operare su Azure US Government e Azure operated by 21Vianet (il cloud sovrano cinese), ampliando notevolmente la portata per organizzazioni soggette a requisiti di sovranità dei dati.

Come installare e usare Azure MCP Server


Il server è disponibile attraverso diversi canali di distribuzione, adatti a scenari diversi:

Via IDE extension


La via più semplice per gli sviluppatori è attraverso le estensioni per i principali IDE:

  • Visual Studio Code
  • Visual Studio
  • IntelliJ / Eclipse
  • Cursor

Una volta installata l’estensione, il server MCP viene configurato automaticamente e i tool Azure diventano disponibili nell’assistente AI del tuo IDE.

Via GitHub Copilot CLI o Claude Code


Per chi lavora da terminale, Azure MCP Server si integra nativamente con GitHub Copilot CLI e Claude Code, consentendo di gestire risorse Azure direttamente dalla riga di comando con il supporto dell’AI.

Via Docker (deployment self-hosted)


Per il deployment remoto centralizzato, Microsoft fornisce un’immagine Docker ufficiale:

# Scarica l'immagine Docker
docker pull mcr.microsoft.com/azure-mcp-server:latest

# Esegui il server localmente
docker run -p 8080:8080 mcr.microsoft.com/azure-mcp-server:latest


La documentazione completa per il self-hosting è disponibile su aka.ms/azmcp/self-host.

Panoramica degli strumenti disponibili


Con 276 tool distribuiti su 57 servizi Azure, la copertura è notevolmente ampia. Gli strumenti coprono l’intero ciclo di vita delle risorse cloud:

  • Provisioning e deployment: creare e configurare risorse Azure (VM, App Service, AKS, ecc.)
  • Monitoraggio e diagnostica: interrogare Azure Monitor, Log Analytics, Application Insights
  • Gestione identità: interagire con Microsoft Entra ID, gestire service principal e managed identity
  • Storage e database: operazioni su Blob Storage, Cosmos DB, Azure SQL
  • Networking: configurazione di VNet, DNS, load balancer
  • Servizi AI: integrazione con Azure OpenAI, AI Foundry, Cognitive Services


Implicazioni per il workflow degli sviluppatori


L’arrivo di Azure MCP Server 2.0 stabile ha implicazioni concrete per i team di sviluppo che usano Azure:

Meno context switching: gli sviluppatori possono interrogare lo stato dei loro servizi Azure, diagnosticare problemi e persino deployare aggiornamenti senza uscire dall’IDE o passare al portale Azure.

Automazione conversazionale: invece di ricordare i comandi esatti della Azure CLI, è possibile descrivere in linguaggio naturale l’operazione desiderata e lasciare che l’agente AI formuli la chiamata corretta al tool MCP.

Governance centralizzata: con il deployment self-hosted, le organizzazioni possono controllare centralmente quali tool sono disponibili, chi può usarli e in che contesto, mantenendo audit trail completi.

Conclusione


Azure MCP Server 2.0 rappresenta un passo maturo verso l’integrazione dell’AI nei workflow operativi su cloud. Il supporto al deployment remoto e al flusso OBO erano i due tasselli mancanti per l’adozione enterprise, e la loro disponibilità in una release stabile apre scenari concreti di adozione su larga scala.

Per i team che già usano GitHub Copilot o altri agenti AI nel loro IDE, la barriera di ingresso è minima: basta installare l’estensione e il ricco catalogo di tool Azure diventa immediatamente disponibile. Per chi vuole andare oltre, il deployment self-hosted offre la flessibilità necessaria per integrarlo nei flussi platform engineering più sofisticati.

Fonte originale: Announcing Azure MCP Server 2.0 Stable Release — Sandeep Sen, Microsoft Azure SDK Blog

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Phishing SPID contro le Pubbliche Amministrazioni: CERT-AGID smonta la campagna che usa siti WordPress legittimi per rubare credenziali istituzionali


CERT-AGID ha rilevato una campagna di phishing che impersona l'Agenzia delle Entrate-Riscossione per sottrarre credenziali SPID a funzionari PA e aziende private. L'attacco sfrutta istanze WordPress compromesse come infrastruttura per eludere blacklist e filtri antispam, con link personalizzati che pre-compilano l'email della vittima per abbassare i sospetti.
The media in this post is not displayed to visitors. To view it, please go to the original post.

Un’istanza WordPress compromessa, loghi dell’Agenzia delle Entrate e del Sistema Pubblico d’Identità Digitale riprodotti con precisione millimetrica, link personalizzati con l’email della vittima pre-compilata: CERT-AGID ha rilevato una nuova campagna di phishing che prende di mira le Pubbliche Amministrazioni italiane, con l’obiettivo di sottrarre credenziali SPID e accessi istituzionali. L’analisi tecnica rivela un attacco che sfrutta l’infrastruttura legittima per eludere i filtri antispam e conquistare la fiducia delle vittime.

Il Vettore: un’infrastruttura legittima trasformata in arma


Il primo elemento che distingue questa campagna dalle operazioni di phishing più rudimentali è la scelta dell’infrastruttura. Gli attaccanti non hanno registrato domini malevoli evidenti — hanno invece compromesso un server WordPress legittimo (documentato all’indirizzo wp-dev.typhur.com/agenziaentrate/), sfruttandone la reputazione consolidata per eludere i filtri antispam e i sistemi di blacklist automatici.

Un sito web legittimo offre agli attaccanti tre vantaggi competitivi fondamentali: certificati HTTPS validi che mostrano il lucchetto verde nel browser delle vittime, una reputazione di dominio già stabilita che bypassa i filtri di sicurezza email, e la capacità di ospitare contenuto HTML arbitrario che replica fedelmente le interfacce istituzionali italiane. Il vettore di compromissione del WordPress è quasi certamente legato a plugin o temi non aggiornati — il vettore più comune per questo tipo di hijacking.

Anatomia dell’attacco: come funziona la truffa SPID


La catena di attacco documentata da CERT-AGID si articola in più fasi progettate per massimizzare la credibilità e minimizzare i campanelli d’allarme per la vittima:

  • Fase 1 — Email di spearphishing personalizzata: la vittima riceve una comunicazione che la invita ad accedere alla propria area riservata dell’Agenzia delle Entrate-Riscossione. Il link contenuto nell’email è personalizzato e include già l’indirizzo email del destinatario come parametro URL.
  • Fase 2 — Pagina di login pre-compilata: cliccando il link, la vittima atterra su una pagina che replica fedelmente il portale dell’Agenzia delle Entrate, completa di loghi ufficiali di AdE, SPID e AgID. La casella email è già compilata con il proprio indirizzo — un elemento che abbassa drasticamente il livello di sospetto e aumenta la probabilità di inserimento della password.
  • Fase 3 — Harvesting delle credenziali: al momento dell’invio, la password viene trasmessa ai server degli attaccanti. La vittima viene quindi reindirizzata al sito reale dell’Agenzia delle Entrate dove appare un messaggio di errore simulato — un “errore di sistema generico” che rende plausibile la necessità di reinserire le credenziali.
  • Fase 4 — Accesso istituzionale: con le credenziali SPID compromesse, gli attaccanti ottengono potenzialmente accesso a tutti i servizi della Pubblica Amministrazione collegati all’identità digitale: portali fiscali, documenti istituzionali, sistemi interni delle PA.


Target primario: Pubbliche Amministrazioni


L’aspetto più allarmante della campagna, come sottolineato da CERT-AGID, è la natura del target primario: non utenti consumer generici, ma dipendenti e funzionari delle Pubbliche Amministrazioni italiane. Questa scelta non è casuale. Le credenziali SPID di un funzionario PA offrono un accesso privilegiato a sistemi interni, documenti riservati e portali interistituzionali che un account privato non avrebbe. La compromissione di un account PA può diventare il punto di partenza per movimenti laterali all’interno dei sistemi governativi, attacchi BEC (Business Email Compromise) verso altre istituzioni, e persino accessi a dati sensibili di cittadini.

MITRE ATT&CK: mappatura delle tecniche


  • T1566.002 — Phishing: Spearphishing Link: link personalizzati con l’email della vittima pre-inserita per massimizzare la credibilità
  • T1078 — Valid Accounts: compromissione di account SPID legittimi per accesso a sistemi istituzionali
  • T1190 — Exploit Public-Facing Application: compromissione del server WordPress tramite vulnerabilità in plugin/temi per uso come infrastruttura di phishing
  • T1036 — Masquerading: replica accurata dell’interfaccia di portali governativi legittimi (AdE, SPID, AgID)
  • T1589.002 — Gather Victim Identity Information: Email Addresses: utilizzo di indirizzi email pre-identificati nei link personalizzati


Indicatori di Compromissione (IoC)

# Domini malevoli identificati
agenziadelleentrate.live          # Dominio typosquatting principale
wp-dev.typhur.com/agenziaentrate/ # WordPress compromesso usato come host
# Dominio mittente email
@propiski.com                     # Utilizzato come sender domain nelle email di phishing
# Dominio di reindirizzamento
sushicool.net                     # Usato come redirect dopo la sottrazione delle credenziali
# File IoC ufficiale CERT-AGID
phishing_AdE_10_04_26.json        # Disponibile tramite feed ufficiale CERT-AGID

Il contesto: una campagna seriale contro l’Identità Digitale italiana


Questa campagna non nasce dal nulla. L’Agenzia delle Entrate ha emesso un avviso ufficiale già il 30 marzo 2026, segnalando campagne attive che sfruttano impropriamente i loghi di AdE, SPID e AgID. La storia recente mostra un pattern ricorrente: gli attori malevoli hanno identificato nel sistema SPID un bersaglio appetibile perché rappresenta la chiave di accesso unificata ai servizi digitali della PA italiana. Compromettere uno SPID significa potenzialmente accedere a decine di portali governativi con un’unica credenziale.

La tecnica di compromissione di siti WordPress legittimi come piattaforma di phishing è altrettanto consolidata: consente di sfruttare la reputazione del dominio ospitante e i certificati TLS validi per superare i controlli automatici, scaricando il costo di mantenimento dell’infrastruttura sull’ignaro proprietario del sito compromesso.

Raccomandazioni per i difensori e le Pubbliche Amministrazioni


  • MFA obbligatoria su tutti gli account istituzionali: l’autenticazione a due fattori vanifica il phishing di credenziali anche quando la vittima inserisce username e password sulla pagina falsa
  • Formazione specifica sul phishing SPID: i dipendenti PA devono sapere che l’Agenzia delle Entrate non chiede mai credenziali via email; l’accesso ai portali fiscali va effettuato sempre digitando manualmente l’URL o utilizzando bookmark certificati
  • Monitoraggio del feed IoC CERT-AGID: l’integrazione automatica del feed JSON di CERT-AGID nei propri sistemi di sicurezza permette il blocco in tempo reale dei domini malevoli identificati
  • Verifica dell’URL nel browser: prima di inserire qualsiasi credenziale SPID, verificare che l’URL nella barra del browser corrisponda esattamente al dominio ufficiale (agenziaentrate.gov.it)
  • Audit CMS e aggiornamento plugin: le organizzazioni che gestiscono siti WordPress devono implementare processi di patch management rigorosi per evitare che le proprie infrastrutture vengano weaponizzate come piattaforme di phishing
  • Segnalazione a CERT-AGID: eventuali email sospette che impersonano l’Agenzia delle Entrate vanno segnalate immediatamente all’indirizzo dedicato di CERT-AGID per l’aggiornamento del feed IoC

Il CERT-AGID ha già avvisato le organizzazioni coinvolte e richiesto il takedown delle pagine di phishing identificate. Tuttavia, data la natura delle campagne di phishing — che spesso cambiano rapidamente infrastruttura per sopravvivere ai takedown — il monitoraggio continuo rimane essenziale.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Datafetch 2.0: panoramica di sistema e monitoraggio in tempo reale in un unico strumento


Nel 2024 avevamo già parlato di Datafetch, uno script Bash progettato per mostrare informazioni di sistema direttamente dal terminale.Chi desidera recuperare quella prima analisi può leggerla qui: Datafetch – Strumento avanzato per la rilevazione...

🔗 Leggi il post completo

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Motorola Edge 70 Pro: fotocamera con zoom 3,5x e sensore Sony Lytia, lancio ad aprile


Si intensificano le indiscrezioni sul Motorola Edge 70 Pro, lo smartphone di fascia media-alta di Motorola che potrebbe essere presentato entro la fine di aprile. Nuovi leak hanno svelato il comparto fotografico, che si preannuncia come il vero punto di forza del dispositivo. Tre fotocamere con grandangolo da 12mm e zoom 3,5x Il modulo fotografico posteriore ha un design squadrato con tre obiettivi. La specifica più interessante riguarda l'ultra-grandangolare da 12mm di focale equivalente, […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Si intensificano le indiscrezioni sul Motorola Edge 70 Pro, lo smartphone di fascia media-alta di Motorola che potrebbe essere presentato entro la fine di aprile. Nuovi leak hanno svelato il comparto fotografico, che si preannuncia come il vero punto di forza del dispositivo.

Tre fotocamere con grandangolo da 12mm e zoom 3,5x


Il modulo fotografico posteriore ha un design squadrato con tre obiettivi. La specifica più interessante riguarda l’ultra-grandangolare da 12mm di focale equivalente, una delle più ampie disponibili nella categoria — ideale per paesaggi, architettura e riprese in spazi ristretti. Il teleobiettivo offre invece uno zoom ottico 3,5x con stabilizzazione ottica (OIS).

Almeno uno dei sensori è prodotto da Sony (serie Lytia), una garanzia di qualità nella cattura dell’immagine grezza, specialmente in condizioni di scarsa illuminazione.

Design curato con più varianti di materiali


Motorola punterà su diversi materiali e colorazioni per differenziare le versioni. Il modello blu avrà una finitura tessuta anti-scivolo, mentre la variante marrone presenterà un effetto legno. Una scelta estetica originale che fa pensare a un prodotto con una certa attenzione al design.

Batteria da 6500mAh e ricarica da 90W


L’autonomia dovrebbe essere un punto di forza: il Motorola Edge 70 Pro è atteso con una batteria da 6500mAh, con ricarica rapida fino a 90W. Un’accoppiata che promette giornate di utilizzo intensivo senza preoccupazioni. Gli altri dettagli tecnici — processore, schermo, prezzo — saranno svelati al momento della presentazione ufficiale, attesa nelle prossime settimane.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

OPPO A6s Pro: con Super Rain Touch il touchscreen funziona anche sotto la pioggia battente


Uno degli eterni difetti degli smartphone — la scarsa reattività del touchscreen quando le mani o lo schermo sono bagnati — potrebbe trovare una risposta concreta con l'OPPO A6s Pro, annunciato ufficialmente per il 14 aprile 2026. Il protagonista è una nuova tecnologia chiamata Super Rain Touch. Super Rain Touch: cosa può fare La tecnologia Super Rain Touch promette di rendere il display pienamente funzionante anche in condizioni di pioggia intensa. OPPO afferma che il sistema è […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Uno degli eterni difetti degli smartphone — la scarsa reattività del touchscreen quando le mani o lo schermo sono bagnati — potrebbe trovare una risposta concreta con l’OPPO A6s Pro, annunciato ufficialmente per il 14 aprile 2026. Il protagonista è una nuova tecnologia chiamata Super Rain Touch.

Super Rain Touch: cosa può fare


La tecnologia Super Rain Touch promette di rendere il display pienamente funzionante anche in condizioni di pioggia intensa. OPPO afferma che il sistema è stato progettato per resistere persino al livello “Red Rain” della scala meteo cinese, ovvero precipitazioni equivalenti a un monsone. In pratica, secondo il produttore, si può tranquillamente rispondere ai messaggi anche con lo smartphone bagnato sotto un nubifragio.

IP69K e robustezza per uso outdoor


La resistenza all’acqua è certificata IP69K, il massimo grado di protezione disponibile. Il dispositivo è progettato anche per resistere alle cadute accidentali, incluse quelle in pozze d’acqua. Una proposta chiaramente orientata a chi usa lo smartphone in ambienti difficili o all’aperto.

Specifiche tecniche del dispositivo


L’OPPO A6s Pro è un mid-range con display da 6,57 pollici Full HD e chip MediaTek Dimensity 6300. La fotocamera principale è da 50MP affiancata da un sensore da 2MP, mentre il selfie è da 16MP. Il punto forte lato batteria è la capacità da 7000mAh, con uno spessore di soli 8,3mm e un peso di 193g: numeri davvero notevoli per una batteria di questo taglio.

Il prezzo non è ancora stato comunicato, ma la fascia media è quella di riferimento. Se la tecnologia Super Rain Touch funziona davvero come promesso, questo OPPO potrebbe diventare la scelta di riferimento per chi vive in zone piovose o pratica sport all’aperto.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Xiaomi 18 Pro: trapelano specifiche impressionanti con batteria oltre 7000mAh e chip 2nm


Lo Xiaomi 18 Pro non è ancora stato annunciato ufficialmente — la presentazione è attesa per settembre 2026 — ma il celebre leaker Digital Chat Station ha già condiviso alcune informazioni sul prossimo flagship di casa Xiaomi. Le aspettative sono altissime. Batteria oltre i 7000mAh con ricarica da 100W Il dato più sorprendente riguarda la batteria: lo Xiaomi 18 Pro monterà un accumulatore con capacità che inizia per "7", e secondo le indiscrezioni supererà i 7000mAh. Abbinato […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Lo Xiaomi 18 Pro non è ancora stato annunciato ufficialmente — la presentazione è attesa per settembre 2026 — ma il celebre leaker Digital Chat Station ha già condiviso alcune informazioni sul prossimo flagship di casa Xiaomi. Le aspettative sono altissime.

Batteria oltre i 7000mAh con ricarica da 100W


Il dato più sorprendente riguarda la batteria: lo Xiaomi 18 Pro monterà un accumulatore con capacità che inizia per “7”, e secondo le indiscrezioni supererà i 7000mAh. Abbinato alla ricarica rapida cablata da 100W e al supporto wireless, si prospetta uno smartphone capace di garantire un’autonomia eccellente senza rinunciare alla comodità della ricarica veloce.

Snapdragon 8 Elite Gen 6 a processo 2nm


Sotto la scocca batte il nuovo Snapdragon 8 Elite Gen 6, prodotto a 2nm — un salto generazionale rispetto ai chip attuali, con benefici attesi in termini di performance, efficienza energetica e capacità di elaborazione AI. Il chip dovrebbe essere presentato da Qualcomm intorno a settembre, rendendo lo Xiaomi 18 Pro uno dei primissimi smartphone ad adottarlo.

Doppia fotocamera da 200MP e display posteriore


Sul fronte fotografico, lo Xiaomi 18 Pro punterebbe su una configurazione con due sensori da 200 megapixel, più un obiettivo macro-teleobiettivo. Una configurazione ambiziosa che punta a coprire ogni scenario di scatto. Confermato anche il display posteriore, funzionalità già presente sui modelli precedenti, questa volta con funzioni ampliate rispetto al passato.

Il display principale frontale dovrebbe mantenersi intorno ai 6,4 pollici, in linea con la serie Xiaomi 18 standard. Mancano ancora molti mesi alla presentazione ufficiale, ma le premesse sono decisamente intriganti per chi cerca un top di gamma Android senza compromessi.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

REDMI K90 Max ufficiale il 21 aprile: touchscreen da 3500Hz per il gaming competitivo


Xiaomi ha confermato la data di lancio del REDMI K90 Max: il 21 aprile 2026 alle 19:00 (ora cinese). Si tratta di uno smartphone pensato interamente per il gaming mobile competitivo, con specifiche che mettono al centro la velocità di risposta del touchscreen e le prestazioni grafiche. Touchscreen da 3500Hz: che cosa significa davvero La specifica più impressionante del REDMI K90 Max è il sampling rate istantaneo del display: 3500Hz. In pratica, il pannello campiona la posizione delle […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Xiaomi ha confermato la data di lancio del REDMI K90 Max: il 21 aprile 2026 alle 19:00 (ora cinese). Si tratta di uno smartphone pensato interamente per il gaming mobile competitivo, con specifiche che mettono al centro la velocità di risposta del touchscreen e le prestazioni grafiche.

Touchscreen da 3500Hz: che cosa significa davvero


La specifica più impressionante del REDMI K90 Max è il sampling rate istantaneo del display: 3500Hz. In pratica, il pannello campiona la posizione delle dita a una frequenza estrema, riducendo al minimo la latenza percepita tra il tocco e la risposta su schermo. Per il gaming competitivo — soprattutto in titoli FPS o di combattimento — si traduce in un vantaggio reale. Il sampling rate continuo è di 480Hz, già superiore alla quasi totalità degli smartphone sul mercato.

Incluso anche un giroscopio a 6 assi che opera a 400Hz, per rilevare i movimenti fisici dello smartphone con altissima precisione — essenziale per i giochi che usano la mira giroscopica. Il pannello ha superato test di 1 milione di tocchi consecutivi per la durabilità.

Display da 6,83 pollici a 165Hz e raffreddamento attivo


Lo schermo da 6,83 pollici supporta un refresh rate di 165Hz e raggiunge una luminosità di picco di 3500 nit. Ottimo per l’utilizzo in esterni e per percepire ogni frame durante il gioco.

Una delle caratteristiche più peculiari è la presenza di una ventola di raffreddamento interna: una soluzione rara nel mondo Android, che punta a gestire il calore generato durante le sessioni di gioco prolungate. Il sistema utilizza un condotto d’aria sigillato e una struttura metallica per dissipare il calore in modo efficiente, con garanzia di 6 anni.

Protezione IP66/68/69 inclusa


Sorprendentemente per un gaming phone, il REDMI K90 Max vanta anche la certificazione IP66, IP68 e IP69: resistenza alla polvere e all’acqua a più livelli. Il 21 aprile conosceremo processore, prezzo e gli altri dettagli rimasti in sospeso.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Mercato smartphone in calo, ma Google Pixel cresce del 14%: l’AI fa la differenza


Il mercato globale degli smartphone ha registrato un calo del 6% nel primo trimestre del 2026, ma non tutti i produttori soffrono allo stesso modo. Google Pixel brilla in controtendenza con una crescita del 14%, confermando che la strategia fondata sull'intelligenza artificiale e sull'esperienza software sta pagando. Il mercato globale frena: Samsung e Xiaomi perdono terreno Secondo i dati di Counterpoint Research per il Q1 2026, il panorama non è incoraggiante. Apple mantiene la […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Il mercato globale degli smartphone ha registrato un calo del 6% nel primo trimestre del 2026, ma non tutti i produttori soffrono allo stesso modo. Google Pixel brilla in controtendenza con una crescita del 14%, confermando che la strategia fondata sull’intelligenza artificiale e sull’esperienza software sta pagando.

Il mercato globale frena: Samsung e Xiaomi perdono terreno


Secondo i dati di Counterpoint Research per il Q1 2026, il panorama non è incoraggiante. Apple mantiene la leadership con il 21% di market share e addirittura cresce del 5% grazie all’ottima performance della serie iPhone 17. Samsung resta seconda ma perde il 6% delle spedizioni, complice un lieve ritardo nel lancio della linea Galaxy S26. Xiaomi, terza nel ranking globale con il 12% di quota, subisce un calo ben più pesante: -19% rispetto allo stesso periodo dell’anno precedente.

Google Pixel e Nothing: le eccezioni positive


In questo scenario difficile, Google Pixel si distingue nettamente. Un +14% annuo dimostra che la proposta di valore del Pixel — fotografia computazionale, aggiornamenti tempestivi e funzionalità AI integrate — trova un pubblico in crescita. Non si tratta di numeri assoluti paragonabili ai colossi, ma la direzione è chiara.

Ancora più sorprendente la performance di Nothing, che registra addirittura un +25%. Il brand britannico punta su design originale, comunicazione diretta e un’identità forte, e i risultati sembrano premiarlo. I nuovi modelli lanciati di recente stanno aiutando a espandere la base utenti.

Cosa ci dice questo mercato


La lezione che emerge da questi dati è abbastanza netta: vincono i produttori che offrono qualcosa di distintivo. Non basta più un buono hardware; servono software di qualità, aggiornamenti costanti e funzionalità AI che migliorino concretamente la vita dell’utente. Google Pixel è forse il miglior esempio di questa formula. Le previsioni per il resto del 2026 restano conservative, con pressioni sul mercato che potrebbero durare almeno fino al 2027, ma chi ha una strategia software solida sembra poter navigare meglio la tempesta.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Motorola Razr 70 Ultra: batteria più capiente ma chip e design invariati


Il prossimo pieghevole di Motorola si avvicina. Il Razr 70 Ultra è stato al centro di diversi leak che ne hanno svelato le specifiche principali: un aggiornamento mirato, più che una rivoluzione, che punta sull'autonomia come principale novità. La novità principale: batteria da 5000mAh Il punto di forza del Razr 70 Ultra rispetto al predecessore è un incremento della batteria di circa il 6%, portando la capacità a 5000mAh. Per uno smartphone pieghevole — categoria storicamente […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Il prossimo pieghevole di Motorola si avvicina. Il Razr 70 Ultra è stato al centro di diversi leak che ne hanno svelato le specifiche principali: un aggiornamento mirato, più che una rivoluzione, che punta sull’autonomia come principale novità.

La novità principale: batteria da 5000mAh


Il punto di forza del Razr 70 Ultra rispetto al predecessore è un incremento della batteria di circa il 6%, portando la capacità a 5000mAh. Per uno smartphone pieghevole — categoria storicamente penalizzata dall’autonomia a causa degli spazi ridotti — si tratta di un risultato notevole. La ricarica rapida via cavo rimane a 68W.

Specifiche tecniche: continuità con il modello precedente


Per il resto, il Razr 70 Ultra non si discosta molto dal modello attuale. Il processore resta lo Snapdragon 8 Elite, con 16GB di RAM e 512GB di storage. Le dimensioni da aperto sono circa 171,5×74,0×7,2mm per un peso di 199g.

Il display è ancora il punto di forza: cover display da circa 4 pollici e schermo interno da circa 7 pollici, con risoluzioni 1080×1272 e 2992×1224 rispettivamente. Il comparto fotografico mantiene la configurazione triple 50MP (principale, ultragrandangolare e selfie).

Presentazione attesa ad aprile, disponibile come “Razr Ultra 2026” in USA


Motorola punta tipicamente ad aprile per il lancio della serie Razr, e quest’anno non dovrebbe fare eccezione. Negli Stati Uniti, il modello sarà commercializzato con il nome Razr Ultra 2026. Chi cercava un restyling radicale rimarrà forse deluso, ma chi vuole un pieghevole affidabile con buona autonomia troverà nel Razr 70 Ultra una proposta solida.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Sony Xperia: quale serie salvereste? L’Xperia 5 è più amato del previsto


Se Sony decidesse di ridurre la gamma Xperia a una sola serie, quale vorreste mantenere? Un sondaggio condotto da una testata giapponese ha posto questa domanda ai lettori, raccogliendo 206 risposte. Il risultato è interessante — e in parte sorprendente. La situazione attuale di Xperia Negli ultimi anni Sony ha ridotto progressivamente la sua gamma di smartphone. La serie Xperia 5 è stata di fatto interrotta, l'Xperia Ace non riceve nuovi modelli da anni, e oggi la lineup si concentra […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Se Sony decidesse di ridurre la gamma Xperia a una sola serie, quale vorreste mantenere? Un sondaggio condotto da una testata giapponese ha posto questa domanda ai lettori, raccogliendo 206 risposte. Il risultato è interessante — e in parte sorprendente.

La situazione attuale di Xperia


Negli ultimi anni Sony ha ridotto progressivamente la sua gamma di smartphone. La serie Xperia 5 è stata di fatto interrotta, l’Xperia Ace non riceve nuovi modelli da anni, e oggi la lineup si concentra su due linee: l’Xperia 1 (flagship) e l’Xperia 10 (fascia media). Un assestamento comprensibile dal punto di vista aziendale, ma non necessariamente allineato ai desideri degli utenti.

I risultati del sondaggio


Ecco come si sono distribuite le preferenze tra i partecipanti al sondaggio:

  • Xperia 1 Series: 48,1%
  • Xperia 5 Series: 38,3%
  • Xperia 10 Series: 8,7%
  • Xperia Ace Series: 4,9%


L’Xperia 5 è ancora nel cuore degli utenti


Il risultato più interessante non è la vittoria dell’Xperia 1 — abbastanza prevedibile per un flagship — ma il 38,3% raccolto dall’Xperia 5, una serie che non esiste più. Quasi quattro utenti su dieci vorrebbero vederla tornare.

L’Xperia 5 rappresentava una formula rara sul mercato: prestazioni top in un formato compatto. In un’epoca in cui gli smartphone diventano sempre più grandi, quella combinazione è oggi praticamente assente. Il dato del sondaggio suggerisce che la domanda esiste ancora, e che Sony avrebbe potenzialmente un mercato da servire — se solo volesse coglierlo.

Vale la pena notare, infine, che l’Xperia 10 — la serie attualmente in commercio — riceve solo l’8,7% delle preferenze, meno di una serie non più prodotta da anni. Un messaggio chiaro agli occhi di chi legge questi numeri.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Galaxy Watch: il consumo della batteria impazzisce, colpa dei Google Play Services?


I possessori di Samsung Galaxy Watch stanno segnalando un problema sempre più diffuso: il consumo anomalo della batteria. Dalle ultime settimane, molti utenti riferiscono un calo drastico dell'autonomia, e i dati puntano verso un'unica causa: i Google Play Services. Batteria dimezzata dopo un aggiornamento La maggior parte delle segnalazioni indica che il problema si è presentato improvvisamente, spesso dopo un recente aggiornamento. Gli screenshot condivisi sulle community online […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

I possessori di Samsung Galaxy Watch stanno segnalando un problema sempre più diffuso: il consumo anomalo della batteria. Dalle ultime settimane, molti utenti riferiscono un calo drastico dell’autonomia, e i dati puntano verso un’unica causa: i Google Play Services.

Batteria dimezzata dopo un aggiornamento


La maggior parte delle segnalazioni indica che il problema si è presentato improvvisamente, spesso dopo un recente aggiornamento. Gli screenshot condivisi sulle community online mostrano chiaramente i Google Play Services come principale responsabile del consumo energetico, con picchi del tutto anomali rispetto al normale utilizzo.

In molti casi, orologi che in precedenza duravano diversi giorni con una singola carica ora non riescono ad arrivare nemmeno a metà dell’autonomia abituale. Un impatto concreto e tangibile sull’esperienza d’uso quotidiana.

Il problema colpisce più modelli


Non si tratta di un difetto isolato su un modello specifico: le segnalazioni riguardano diverse generazioni di Galaxy Watch. Alcuni utenti che possiedono più smartwatch Samsung confermano di aver riscontrato lo stesso problema su tutti i modelli, indipendentemente dalla versione del software.

Curioso anche il fatto che alcuni utenti abbiano riportato il problema senza aver installato alcun aggiornamento manuale, il che suggerisce che potrebbe essere coinvolto un aggiornamento silenzioso lato server o un’app aggiornata automaticamente in background.

Possibili soluzioni temporanee


Nella community si stanno diffondendo alcune possibili contromisure, come la pulizia della cache dei Google Play Services o il riavvio forzato dello smartwatch. In alcuni casi, il ripristino alle impostazioni di fabbrica ha risolto temporaneamente il problema, ma non sembra una soluzione definitiva valida per tutti.

Samsung non ha ancora rilasciato comunicati ufficiali sulla questione. Gli utenti attendono un aggiornamento che risolva il problema alla radice, considerando quanto sia fastidioso un malfunzionamento della batteria su un dispositivo che si indossa ogni giorno.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Lenovo Legion Phone torna dopo 3 anni: il gaming phone si reinventa per l’era dell’AI


Lenovo ha ufficialmente annunciato il ritorno del brand Legion Phone nel mondo degli smartphone Android. Dopo quasi tre anni di assenza dal mercato, il marchio gaming di Lenovo è pronto a tornare con una nuova visione: trasformare lo smartphone da semplice strumento di intrattenimento a vera piattaforma AI per il gaming mobile. Un addio e un ritorno inaspettato Lenovo aveva lasciato il mercato degli smartphone gaming nel 2022, dopo il lancio della serie Legion Y70. Nel 2023, un portavoce […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Lenovo ha ufficialmente annunciato il ritorno del brand Legion Phone nel mondo degli smartphone Android. Dopo quasi tre anni di assenza dal mercato, il marchio gaming di Lenovo è pronto a tornare con una nuova visione: trasformare lo smartphone da semplice strumento di intrattenimento a vera piattaforma AI per il gaming mobile.

Un addio e un ritorno inaspettato


Lenovo aveva lasciato il mercato degli smartphone gaming nel 2022, dopo il lancio della serie Legion Y70. Nel 2023, un portavoce della società aveva confermato ufficialmente la chiusura di questo segmento. Eppure, a sorpresa, il brand è tornato sui propri passi: un account ufficiale su WeChat ha annunciato il ritorno del Legion Phone con un nuovo modello chiamato Legion Phone Y70 Next Generation.

Intelligenza artificiale al centro del progetto


Il nuovo Legion Phone non vuole essere semplicemente uno smartphone potente. Lenovo lo posiziona come un dispositivo pensato per l'”era dell’AI”, capace di ottimizzare in tempo reale le prestazioni durante il gaming, gestire le impostazioni di gioco e garantire un’esperienza fluida grazie all’integrazione con l’ecosistema Legion.

Il design del nuovo modello è già trapelato online: le immagini mostrano uno smartphone con il logo Legion ben visibile sul pannello posteriore, con un’estetica chiaramente orientata al gaming. I dettagli tecnici completi saranno svelati in occasione della presentazione ufficiale.

Presentazione prevista a maggio 2026


L’annuncio ufficiale del Legion Phone Y70 Next Generation è atteso per maggio 2026. Il mercato degli smartphone gaming si è ridimensionato rispetto al picco degli anni precedenti, con pochi grandi player rimasti attivi. Il ritorno di Lenovo potrebbe riscaldare un settore che sembrava in declino, soprattutto se la proposta AI si rivelerà concreta e non solo marketing.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Sony Xperia 1 VIII: ottenuta la certificazione FCC, lancio in anticipo rispetto al solito


Il prossimo flagship di Sony si avvicina. Un dispositivo identificato come probabile Xperia 1 VIII ha superato la certificazione FCC negli Stati Uniti, con settimane di anticipo rispetto alla tempistica del modello precedente. Un segnale chiaro che la presentazione potrebbe avvenire prima del solito. Il codice FCC conferma le origini Sony Il dispositivo è stato registrato con l'ID FCC "PY7-30515Z". Il prefisso PY7 è storicamente associato agli smartphone Sony, rendendo quasi certa […]
The media in this post is not displayed to visitors. To view it, please go to the original post.

Il prossimo flagship di Sony si avvicina. Un dispositivo identificato come probabile Xperia 1 VIII ha superato la certificazione FCC negli Stati Uniti, con settimane di anticipo rispetto alla tempistica del modello precedente. Un segnale chiaro che la presentazione potrebbe avvenire prima del solito.

Il codice FCC conferma le origini Sony


Il dispositivo è stato registrato con l’ID FCC “PY7-30515Z”. Il prefisso PY7 è storicamente associato agli smartphone Sony, rendendo quasi certa l’attribuzione al brand giapponese. Le informazioni pubblicamente disponibili nella certificazione offrono qualche indizio sulle specifiche tecniche del nuovo modello.

Wi-Fi 7 e FeliCa: caratteristiche confermate


Tra le specifiche emerse dall’FCC, spicca il supporto al Wi-Fi 7, la connettività wireless di ultima generazione, che conferma la natura flagship del dispositivo. È stata confermata anche la presenza della tecnologia FeliCa (NFC per pagamenti contactless tipico del mercato giapponese), il che suggerisce si tratti di un modello destinato principalmente al Giappone, eventualmente importabile.

Il jack per le cuffie da 3,5mm sembra confermato anche questa volta, una caratteristica distintiva della linea Xperia che molti utenti apprezzano. Le bande LTE supportate risultano limitate, un pattern tipico dei modelli giapponesi certificati per utilizzo in roaming negli USA.

Camera rinnovata e possibile lancio anticipato


Le immagini delle cover già circolate in rete mostrano un modulo fotocamera posteriore riprogettato. Secondo le indiscrezioni, il cambiamento sarebbe dovuto a un sensore zoom di dimensioni maggiorate, con un impatto concreto sulle prestazioni fotografiche e non solo sull’estetica.

L’anno scorso, l’Xperia 1 VII ottenne la certificazione FCC a fine aprile, mentre la presentazione avvenne a maggio. Stavolta la certificazione è arrivata ad aprile già nelle prime settimane: se il pattern si ripete, il lancio dell’Xperia 1 VIII potrebbe anticipare di 1-2 settimane rispetto al 2025.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

APT35 e la Cyber Guerra Parallela: come l’Iran aveva già compromesso ogni paese colpito nell’Operazione Epic Fury


Prima che i missili iraniani illuminassero il cielo di sette nazioni, i gruppi APT dell'IRGC avevano già compromesso silenziosamente le infrastrutture critiche di quei paesi. L'analisi delle operazioni cyber parallele all'Operazione Epic Fury rivela una dottrina di conflitto ibrido che cambia le regole del gioco per i difensori occidentali.
The media in this post is not displayed to visitors. To view it, please go to the original post.

Si parla di:
Toggle


Prima che i missili iraniani illuminassero il cielo di sette nazioni, un’altra guerra era già in corso nelle reti digitali di quei paesi. L’analisi della campagna condotta da APT35 rivela come il gruppo legato all’IRGC avesse sistematicamente compromesso le infrastrutture critiche di ogni paese successivamente colpito dall’Operazione Epic Fury, trasformando la cyber intelligence in un componente integrale della dottrina militare iraniana.

La notte del 28 Febbraio: quando la guerra digitale diventa fisica


Il 28 febbraio 2026, Stati Uniti e Israele hanno lanciato l’Operazione Epic Fury (denominata “Operazione Roaring Lion” dalla parte israeliana): oltre 1.250 obiettivi colpiti nelle prime 48 ore, infrastrutture nucleari iraniane distrutte, connettività internet dell’Iran ridotta all’1-4% dei livelli normali in quello che è stato definito il più grande cyberattacco della storia. Ma ciò che i rapporti di intelligence successivi hanno rivelato è ancora più preoccupante: l’Iran non si trovava impreparato. Per mesi, forse anni, i suoi gruppi APT affiliati all’IRGC e al MOIS avevano già mappato, compromesso e pre-posizionato capacità offensive nelle reti digitali di ogni paese che avrebbe poi colpito.

APT35 e la dottrina della Pre-Posizione


APT35 — conosciuto anche come Charming Kitten, Phosphorus, Magic Hound e Mint Sandstorm — è il gruppo cyber più rappresentativo dell’IRGC Intelligence Organisation (Unit 1500, Department 40), attivo almeno dal 2014. La sua caratteristica distintiva non è la sofisticazione tecnica delle singole operazioni, ma la pazienza strategica: operazioni di ricognizione prolungate, accesso silenzioso mantenuto per mesi o anni prima di un’attivazione.

Secondo le analisi di CloudSek e dei ricercatori di IT Nerd, APT35 aveva documentabilmente compromesso infrastrutture nei seguenti paesi prima dei bombardamenti:

  • Giordania: accesso ai dati dell’aviazione civile e al Ministero della Giustizia
  • Emirati Arabi Uniti: sistemi di aviazione e asset governativi a Dubai
  • Arabia Saudita: documenti governativi e infrastrutture energetiche; il malware Shamoon ha distrutto circa 15.000 workstation nel settore energetico saudita prima delle operazioni cinetiche
  • Kuwait, Bahrain, Qatar: attività di ricognizione e targeting operativo
  • Israele: sistemi industriali e infrastrutture civili


Il modello di conflitto a tre fasi


L’analisi degli eventi suggerisce un modello di conflitto ibrido strutturato in tre fasi sequenziali, ormai consolidato nella dottrina iraniana:

  • Fase 1 — Ricognizione estesa e silenziosa: compromissione di sistemi internet-facing (Exchange Server, VPN, Fortinet FortiOS), installazione di webshell, tunneling nascosto, raccolta di intelligence su reti, persone e infrastrutture critiche
  • Fase 2 — Degradazione pre-cinetica: attivazione di malware wiper (come Shamoon) per distruggere workstation, esfiltrazione di documenti strategici, interruzione di servizi prima degli attacchi fisici
  • Fase 3 — Coordinamento post-attacco: entro 24 ore dall’avvio delle operazioni militari, creazione di un “Electronic Operations Room” che ha coordinato oltre 60 gruppi hacktivist per colpire contemporaneamente infrastrutture governative, finanziarie e critiche


L’ecosistema APT iraniano: non solo APT35


APT35 non ha operato in isolamento. Il Tenable Research ha identificato 12 gruppi APT iraniani attivi nelle settimane e mesi precedenti l’Operazione Epic Fury, coordinati attraverso strutture parallele:

Gruppi IRGC-affiliati: Pioneer Kitten (Fox Kitten, UNC757), Imperial Kitten (Tortoiseshell, TA456), CyberAv3ngers — quest’ultimo specializzato nel targeting di sistemi OT e PLC nei sistemi idrici. Gruppi MOIS-affiliati: APT34/OilRig (nuova infrastruttura per attacchi ed esfiltrazione), MuddyWater/Mango Sandstorm (picco di attività nella rete nel settembre 2025, con server distribuiti in Russia, Estonia e UK), Banished Kitten/Void Manticore (usa la persona Handala, wiper-focused). Gruppi IRGC-IO: APT42 (credential harvesting tramite social engineering). Gruppi IRGC-CEC: Cotton Sandstorm (revival della persona Altoufan Team).

Infrastruttura di attacco: offuscamento multi-livello


Particolarmente sofisticata è stata l’architettura di infrastruttura impiegata per mascherare l’attribuzione. Netcrook ha documentato uno schema di offuscamento a tre livelli:

  • Livello base: ISP iraniani (Sefroyek Pardaz Engineering) come punto di origine
  • Bulletproof hosting: ALEXHOST in Moldova e RouterHosting LLC nel Wyoming (USA) come nodi intermedi
  • Shell company layer: società fittizie come Cloudblast (registrata negli USA, operativa a Dubai) e UltaHost (registrazioni UK/USA) per la gestione dell’infrastruttura front-end

Questa architettura ha reso estremamente complessa l’attribuzione rapida e le azioni legali di takedown durante le operazioni.

Vulnerabilità sfruttate: un catalogo di CVE note


Il documento Tenable elenca 67 CVE sfruttate dai gruppi iraniani, incluse vulnerabilità ben note mai patchate da molte organizzazioni. Tra le più critiche:

# CVE sfruttate dai gruppi APT iraniani (selezione)
CVE-2021-26855  # Microsoft Exchange Server - ProxyLogon SSRF
CVE-2021-26858  # Microsoft Exchange - post-auth arbitrary file write
CVE-2021-26857  # Microsoft Exchange - insecure deserialization
CVE-2021-27065  # Microsoft Exchange - post-auth arbitrary file write
CVE-2021-44228  # Apache Log4j2 - Log4Shell RCE
CVE-2022-40684  # Fortinet FortiOS/FortiProxy - authentication bypass
CVE-2020-3153   # Cisco ASA - path traversal
# Malware famiglie associate
BellaCiao        # RAT/implant IRGC (codice sorgente esposto in leak)
Sagheb RAT       # Remote Access Trojan IRGC
Shamoon          # Wiper distruttivo (energia, Arabia Saudita)
# Malware ICS/OT
Custom PLC malware targeting Rockwell Automation (CyberAv3ngers)

Il significato strategico: un nuovo standard di conflitto ibrido


La vicenda dell’Operazione Epic Fury e della sua dimensione cyber non è semplicemente la cronaca di un conflitto mediorientale. È la dimostrazione concreta di come le operazioni cyber siano diventate componenti integrali — non accessorie — della dottrina militare degli stati autoritari. Il pre-posizionamento di APT35 nelle reti dei paesi bersaglio anni prima delle operazioni fisiche stabilisce un precedente: in futuri conflitti, qualsiasi attore statale disporrà presumibilmente di “porte di accesso” già aperte nelle infrastrutture avversarie.

Per i difensori occidentali, la lezione è chiara: la minaccia non inizia il giorno in cui i missili vengono lanciati. Inizia quando un webshell silenzioso viene installato su un server Exchange non patchato da sei mesi.

Indicazioni per i difensori


  • Patch immediata dei sistemi internet-facing: Exchange, FortiOS, Cisco ASA, Log4j sono ancora vettori attivi
  • Audit degli accessi amministrativi: verificare account privilegiati, in particolare su sistemi OT/ICS
  • Webshell hunting: scansione proattiva per webshell su server web esposti, soprattutto su CMS e sistemi legacy
  • Validazione della copertura di detection: testare le soluzioni EDR/XDR contro BellaCiao, Sagheb RAT e le tecniche di tunneling documentate
  • Monitoraggio per nuova infrastruttura hacktivist: i gruppi come Handala e CyberAv3ngers si riorganizzano rapidamente dopo le operazioni
Questa voce è stata modificata (1 giorno fa)

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Il Pattern Saga in .NET con Wolverine: gestire workflow distribuiti a lungo termine


Come implementare il Pattern Saga in .NET con Wolverine per gestire workflow distribuiti a lungo termine, con gestione automatica di persistenza, timeout e logica di compensazione.
The media in this post is not displayed to visitors. To view it, please go to the original post.

Nei sistemi distribuiti, la gestione di processi di business che si estendono su più servizi e nel tempo rappresenta una delle sfide più complesse. Il Pattern Saga nasce proprio per risolvere questo problema: coordinare una sequenza di operazioni distribuite in modo affidabile, garantendo la consistenza dei dati anche in caso di errori parziali.

In questo articolo esploriamo come implementare il Pattern Saga in .NET utilizzando Wolverine, un framework moderno che semplifica notevolmente la gestione di messaggi e workflow complessi grazie al suo approccio convention-driven.

Cos’è il Pattern Saga?


Il Pattern Saga è un meccanismo di gestione delle transazioni distribuite che sostituisce le transazioni ACID tradizionali nei sistemi a microservizi. Invece di eseguire una sequenza di operazioni come un’unica transazione atomica, la saga suddivide il processo in una serie di passi indipendenti, ciascuno con la propria logica di compensazione in caso di fallimento.

Il principio fondamentale è semplice: se un passo fallisce o va in timeout, la saga esegue la logica di compensazione invece di lasciare il sistema in uno stato inconsistente. Questo approccio è particolarmente utile per processi di lunga durata come:

  • Onboarding di nuovi utenti con email di verifica
  • Processi di ordine e pagamento in e-commerce
  • Workflow di approvazione multi-step
  • Processi di provisioning di risorse cloud


Perché Wolverine?


Wolverine è un framework per .NET che adotta un approccio convention-driven alla messaggistica e ai workflow. A differenza di soluzioni come MassTransit o Rebus, Wolverine gestisce automaticamente routing dei messaggi, persistenza dello stato e correlazione, senza richiedere un’estesa configurazione tramite DSL per state machine.

Le principali dipendenze per iniziare sono:

WolverineFx (5.16.2)
WolverineFx.Postgresql (5.16.2)
WolverineFx.RabbitMQ (5.16.2)

Configurazione del progetto


La configurazione di Wolverine richiede pochi passaggi. Nell’entry point dell’applicazione, si configura il framework per utilizzare RabbitMQ come message broker e PostgreSQL per la persistenza dello stato:

builder.Host.UseWolverine(options =>
{
    options.UseRabbitMqUsingNamedConnection("rmq")
        .AutoProvision()
        .UseConventionalRouting();

    options.Policies.DisableConventionalLocalRouting();
    options.PersistMessagesWithPostgresql(connectionString!);
});

Dettagli importanti di questa configurazione:
  • AutoProvision(): crea automaticamente exchange e code in RabbitMQ
  • UseConventionalRouting(): instrada i messaggi in base ai nomi dei tipi
  • DisableConventionalLocalRouting(): forza tutti i messaggi attraverso RabbitMQ
  • PersistMessagesWithPostgresql(): archivia stato della saga e messaggi; crea una tabella per saga con serializzazione JSON


Definizione dei messaggi


Ogni passo della saga è rappresentato da un messaggio. Definiamo tutti i tipi di messaggio per un processo di onboarding utente:

public record SendVerificationEmail(Guid UserId, string Email);
public record VerificationEmailSent(Guid Id);
public record VerifyUserEmail(Guid Id);
public record SendWelcomeEmail(Guid UserId, string Email, string FirstName);
public record WelcomeEmailSent(Guid Id);
public record OnboardingTimedOut(Guid Id) : TimeoutMessage(5.Minutes());

Il record OnboardingTimedOut estende TimeoutMessage di Wolverine: questo fa sì che il messaggio venga consegnato automaticamente dopo 5 minuti, eliminando la necessità di scheduler esterni per gestire i timeout.

Implementazione della classe Saga


La saga viene implementata come una classe che estende Saga. Lo stato viene mantenuto come proprietà della classe:

public class UserOnboardingSaga : Saga
{
    public Guid Id { get; set; }
    public string Email { get; set; } = string.Empty;
    public string FirstName { get; set; } = string.Empty;
    public string LastName { get; set; } = string.Empty;
    public bool IsVerificationEmailSent { get; set; }
    public bool IsEmailVerified { get; set; }
    public bool IsWelcomeEmailSent { get; set; }
}

Il metodo Start: avvio della saga


Il metodo statico Start è il factory method che inizia la saga. Restituisce una tupla contenente l’istanza della saga, il comando iniziale e il messaggio di timeout pianificato:

public static (
    UserOnboardingSaga,
    SendVerificationEmail,
    OnboardingTimedOut) Start(
        UserRegistered @event,
        ILogger<UserOnboardingSaga> logger)
{
    var saga = new UserOnboardingSaga
    {
        Id = @event.Id,
        Email = @event.Email,
        FirstName = @event.FirstName,
        LastName = @event.LastName,
    };

    return (
        saga,
        new SendVerificationEmail(saga.Id, saga.Email),
        new OnboardingTimedOut(saga.Id));
}

Wolverine persiste automaticamente la saga e consegna tutti i messaggi restituiti. Elegante e senza boilerplate.

Metodi Handle: gestione degli eventi


I metodi Handle elaborano i messaggi in arrivo. Se restituiscono void, aggiornano solo lo stato; se restituiscono un messaggio, causano l’invio del passo successivo:

public void Handle(VerificationEmailSent @event, ILogger<UserOnboardingSaga> logger)
{
    logger.LogInformation("Email di verifica inviata per l'utente {UserId}", Id);
    IsVerificationEmailSent = true;
}

public SendWelcomeEmail Handle(VerifyUserEmail command, ILogger<UserOnboardingSaga> logger)
{
    logger.LogInformation("Email verificata per l'utente {UserId}", Id);
    IsEmailVerified = true;
    return new SendWelcomeEmail(Id, Email, FirstName);
}

public void Handle(WelcomeEmailSent @event, ILogger<UserOnboardingSaga> logger)
{
    logger.LogInformation("Onboarding completato per l'utente {UserId}", Id);
    IsWelcomeEmailSent = true;
    MarkCompleted(); // Elimina lo stato dal database
}

Gestione del timeout e compensazione


Il timeout è un cittadino di prima classe in Wolverine. Se l’utente non verifica l’email entro 5 minuti, il handler del timeout gestisce la compensazione:

public void Handle(OnboardingTimedOut timeout, ILogger<UserOnboardingSaga> logger)
{
    if (IsEmailVerified)
    {
        logger.LogInformation(
            "Timeout ignorato - email già verificata per {UserId}", Id);
        return;
    }

    logger.LogWarning(
        "Onboarding scaduto per {UserId} - email non verificata", Id);
    MarkCompleted();
}

Gestione dei messaggi “orfani” con NotFound


Wolverine richiede la gestione esplicita del caso in cui arrivi un messaggio per una saga già terminata, tramite metodi statici NotFound:

public static void NotFound(VerifyUserEmail command, ILogger<UserOnboardingSaga> logger)
{
    logger.LogWarning("VerifyEmail ricevuto ma la saga {Id} non esiste più", command.Id);
}

public static void NotFound(OnboardingTimedOut timeout, ILogger<UserOnboardingSaga> logger)
{
    logger.LogInformation("Timeout per la saga già completata {Id}", timeout.Id);
}

Correlazione dei messaggi e gestione della concorrenza


Wolverine correla automaticamente i messaggi alle istanze della saga cercando nell’ordine: attributo [SagaIdentity], proprietà {SagaTypeName}Id, oppure proprietà Id. Non è necessaria alcuna configurazione esplicita per i casi standard.

Per la concorrenza, Wolverine applica di default il controllo di concorrenza ottimistico: quando più messaggi per la stessa saga arrivano contemporaneamente, uno riesce mentre gli altri vengono ritentati automaticamente. Attenzione: non invocare IMessageBus.InvokeAsync() all’interno dei handler della stessa saga, ma usare sempre i messaggi in cascata (valori di ritorno) per evitare problemi con dati obsoleti.

Opzioni di persistenza


Wolverine supporta tre strategie per la persistenza dello stato della saga:

  • Lightweight Storage: serializza lo stato come JSON in tabelle dedicate per saga, zero configurazione ORM
  • Marten: archivia le saghe come documenti con concorrenza ottimistica e ID fortemente tipizzati
  • Entity Framework Core: mappa le saghe su tabelle queryabili, abilitando commit in singola transazione con altri dati


Il flusso completo


Il percorso “happy path” dell’onboarding segue questi passi:

  1. L’evento UserRegistered attiva il metodo Start()
  2. Viene creata l’istanza della saga, inviato SendVerificationEmail e pianificato OnboardingTimedOut
  3. VerificationEmailSent aggiorna lo stato della saga
  4. VerifyUserEmail ricevuto, viene inviato in cascata SendWelcomeEmail
  5. WelcomeEmailSent completa il workflow, la saga viene eliminata

Se VerifyUserEmail non arriva entro 5 minuti, OnboardingTimedOut gestisce la compensazione e termina la saga.

Conclusione


Wolverine offre un approccio sorprendentemente pulito all’implementazione del Pattern Saga in .NET. La scelta convention-driven elimina gran parte del boilerplate tipico di altri framework, consentendo di concentrarsi sulla logica di business. La gestione automatica di persistenza, routing e correlazione dei messaggi, unita al supporto nativo per timeout e compensazione, lo rende una scelta solida per workflow distribuiti complessi.

Per i team che lavorano con architetture a microservizi in .NET, Wolverine merita certamente una valutazione approfondita come alternativa moderna ai pattern tradizionali di orchestrazione.

Fonte originale: Implementing the Saga Pattern With Wolverine — Milan Jovanović

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Ma dichiarare Copilot “solo per intrattenimento” è uno scudo legale o una presa in giro?


Nascosta nei termini di servizio di Microsoft per Copilot c’è una frase (sottolineata per giunta in grassetto) che farebbe sorridere un avvocato ma anche impallidire molti utilizzatori: “Copilot è solo per intrattenimento“. La clausola completa avverte che lo strumento può fare errori, potrebbe non funzionare come previsto e che gli utenti non dovrebbero affidarsi a...

🔗 Leggi il post completo

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Guida a Krita programma professionale di disegno open source e gratuito: Trasformazioni, Motore del pennello Deforma e maschere


Trasformazioni Le Trasformazioni sono delle specie di filtri, nel senso che sono operazioni fatte sui pixel di un’immagine. Abbiamo un’immagine regolare, trasformazioni su tutti i livelli nell’immagine e menu in alto sui livelli, in modo che tu possa ridimensionare, ribaltare e ruotare l’intera immagine. Esiste anche lo Strumento Ritaglio, che riguarda solo la dimensione della tela, e lo...

🔗 Leggi il post completo

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

Rilasciato il kernel GNU Linux-libre 7.0: il kernel libero per la massima libertà digitale


Il kernel GNU Linux-libre è una versione del kernel Linux appositamente modificata per garantire la massima libertà del software a chi desidera utilizzare un sistema operativo completamente privo di componenti proprietari. L’obiettivo centrale è offrire un ambiente interamente libero, in cui...

🔗 Leggi il post completo

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

La catena di fornitura software colpita: come CPUID è stata compromessa per distribuire il RAT stealer STX


Nel mese di aprile 2026, gli attaccanti hanno compromesso i server CPUID e reindirizzato i download di CPU-Z e HWMonitor verso versioni trojanizzate contenenti STX RAT. Per sei ore, oltre 150 utenti hanno scaricato malware dai siti ufficiali, evidenziando i rischi critici della supply chain software.
The media in this post is not displayed to visitors. To view it, please go to the original post.

Nel mese di aprile 2026, i ricercatori di sicurezza hanno identificato un attacco di supply chain sofisticato ai danni di CPUID, l’azienda dietro i popolarissimi tool di monitoraggio hardware CPU-Z e HWMonitor. Gli attaccanti hanno compromesso i server dell’azienda e reindirizzato i download ufficiali verso versioni malware. Per il corso di sei ore, gli utenti che scaricavano CPU-Z e HWMonitor dai siti ufficiali ricevevano un Remote Access Trojan precedentemente non documentato denominato STX RAT.

Questo incidente exemplifica una tendenza crescente nel panorama delle minacce informatiche: gli attaccanti hanno capito che il modo più efficace per ottenere una penetrazione di massa non è attaccare i singoli utenti, ma compromettere i software publisher e i loro canali di distribuzione. Se il software che stai scaricando oggi da un sito ufficiale contiene malware, la fiducia nella sicurezza della catena di distribuzione software crolla completamente.

Anatomia dell’attacco: come gli attaccanti hanno compromesso CPUID


A differenza di molti attacchi di supply chain che richiedono il compromesso dei sistemi di build e signing di un’azienda, gli attaccanti dietro questo incidente hanno adottato un approccio più mirato. Invece di cercare di infettare i binari finali di CPU-Z o HWMonitor (che sono firmati digitalmente), gli attaccanti hanno compromesso un’API secondaria utilizzata da CPUID per servire i link di download sul proprio sito web.

Modificando questa API, gli attaccanti hanno reindirizzato le richieste degli utenti verso file malevoli ospitati su Cloudflare R2. Le vittime pensavano di scaricare il software legittimo direttamente dal sito CPUID, ma ricevevano invece il malware. Non è stata trovata alcuna evidenza che gli attaccanti abbiano compromesso il processo di compilazione, il sistema di signing dei binari, o i server di controllo della versione di CPUID.

Il malware: STX RAT e le sue capacità


STX RAT è stato nominato da eSentire per la sua caratteristica firma tecnica: l’utilizzo consistente del byte STX come magic byte per prefisso nei messaggi diretti al command-and-control (C2).

Capacità di infostealer


Browser e credenziali web:

  • Estrazione di password, cookie, e dati di autofill da Firefox, SeaMonkey, e browser basati su Chromium (Chrome, Edge, Brave, ecc.)
  • Bypass potenziale di Application-Bound Encryption (ABE) sulle credenziali crittografate di Windows

Portafogli di criptovalute:

  • Furto di chiavi private da Litecoin-Qt, Electrum, e altri wallet desktop
  • Accesso a file di configurazione che contengono seed phrase o wallet backup

Credenziali client FTP:

  • Estrazione di dati di accesso da FileZilla, WinSCP, e altri client FTP


Remote Desktop nascosto (HVNC)


Una capacità particolarmente insidiosa di STX RAT è il supporto per hidden VNC (Virtual Network Computing). Questo permette all’attaccante di:

  • Avviare una sessione desktop virtuale nascosta che non è visibile agli utenti locali
  • Controllare il mouse e la tastiera tramite l’API SendInput di Windows
  • Eseguire applicazioni e navigare nel filesystem senza alcun indicatore visibile all’utente locale
  • Accedere ai dati sensibili mentre l’utente legittimo è offline

I comandi supportati includono “starthvnc”, “keypress”, “mouseinput”, “mousewheel”, e “switchdesktop”, fornendo una suite completa di controllo remoto.

Tattica di delivery: DLL Sideloading


Il vettore di consegna del malware utilizza una tecnica classica pero ancora efficace: DLL sideloading (also known as DLL hijacking). Quando un utente scaricava il file trojanizzato da HWMonitor, conteneva:

  • HWMonitor_x64.exe – Un file con nome legittimo (il binario vero di HWMonitor)
  • CRYPTBASE.dll – Una DLL malevola che l’eseguibile legittimo carica automaticamente

Poiché Windows segue un ordine di ricerca delle DLL specifico, quando HWMonitor_x64.exe cerca di caricare CRYPTBASE.dll, trova prima la versione malevola nella stessa directory. Questo causa l’esecuzione del codice dell’attaccante con gli stessi privilegi dell’applicazione legittima.

Indicatori tecnici e infrastruttura C2

C2 Server: 95.216.51.236
Malware: STX RAT
Compromesso: 9-10 aprile 2026
Download malevoli: CPU-Z, HWMonitor versioni x64 e x86
DLL sideload: CRYPTBASE.dll

Il malware STX RAT è configurato per contattare il C2 all’indirizzo IP 95.216.51.236. Al primo contatto, il malware invia un messaggio di “introduzione” contenente: nome dell’host, nome utente, versione OS, status amministrativo, RAM disponibile, e elenco antivirus installati.

Inoltre, eSentire ha documentato che STX RAT supporta il routing del traffico C2 attraverso Tor per garantire anonimato, rendendo la tracciatura della comunicazione estremamente difficile.

Impatto e distribuzione


Kaspersky ha identificato oltre 150 vittime dirette dell’incidente CPUID. La distribuzione geografica mostra una concentrazione in Brasile, Russia, e Cina, con settori colpiti che includono: retail e e-commerce, manufacturing, consulting, telecomunicazioni, e agricoltura.

Il fatto che utenti in settori critici siano stati infetti suggerisce che STX RAT potrebbe essere utilizzato sia per cyber-spionaggio che per estorsione, poiché il malware combina capacità di reconnaissance (infostealing) con accesso remoto completo (HVNC).

Timeline dell’incidente


  • 9 aprile 2026, ~15:00 UTC: Gli attaccanti modificano l’API di CPUID, reindirizzando i download
  • 10 aprile 2026, ~10:00 UTC: CPUID scopre l’anomalia e ripristina l’API
  • 10 aprile 2026: eSentire pubblica analisi tecnica del malware
  • 13 aprile 2026: Kaspersky fornisce dati sulla distribuzione geografica


Raccomandazioni per le organizzazioni


  • Verifica dell’integrità: Implementare processi di verifica dell’hash per tutti i software scaricati, anche da fonti ufficiali.
  • Sandboxing: Eseguire software appena scaricati in ambienti virtuali isolati prima dell’installazione.
  • Monitoraggio DLL loading: Implementare EDR in grado di rilevare il caricamento inusuale di DLL.
  • Blocco C2: Aggiungere 95.216.51.236 alle blocklists firewall immediate.
  • Credential rotation: Ruotare credenziali per chi ha scaricato HWMonitor/CPU-Z tra 9-10 aprile.
  • Threat intelligence: Adottare YARA rules da eSentire per rilevare STX RAT in memoria.


Conclusione


L’incidente CPUID dimostra che la sicurezza della catena di distribuzione software non è negoziabile. Anche i siti ufficiali di società legittime possono essere compromessi. I defender devono adottare un mindset di “zero trust” verso qualsiasi software e implementare verifiche multi-strato di integrità e autenticità prima dell’esecuzione.

Dario Fadda reshared this.

Dario Fadda ha ricondiviso questo.

.NET Aspire 13.2: la modalità isolata risolve i conflitti di porta nello sviluppo parallelo


Aspire 13.2 introduce la modalità isolata (--isolated) che permette di eseguire più istanze dello stesso AppHost in parallelo senza conflitti di porta. Analizziamo anche il TypeScript AppHost in preview, i nuovi comandi CLI e i miglioramenti alla dashboard.
The media in this post is not displayed to visitors. To view it, please go to the original post.

Chiunque abbia lavorato con .NET Aspire su progetti reali si è prima o poi scontrato con il classico errore: “Port 17370 is already in use”. Capita quando si prova ad avviare una seconda istanza dell’AppHost — magari su un altro branch, o in un altro terminale — e le porte predefinite sono già occupate dalla prima istanza in esecuzione. Con Aspire 13.2, questo problema ha finalmente una soluzione elegante: la modalità isolata (--isolated).

In questo articolo vediamo nel dettaglio come funziona questa nuova funzionalità, i casi d’uso pratici, e le altre novità rilevanti di questa release.

Il problema: conflitti di porta nello sviluppo parallelo


In un tipico progetto .NET Aspire, l’AppHost configura i binding delle porte per tutti i servizi nell’orchestrazione: la dashboard su una porta, l’API su un’altra, il database su un’altra ancora. Questi binding sono statici per default, e questo crea problemi immediati quando si vuole eseguire due istanze dello stesso AppHost contemporaneamente:

  • Sviluppo su due branch in parallelo con git worktrees
  • Test di integrazione che richiedono un AppHost “live” mentre si continua a sviluppare
  • Agenti AI che creano automaticamente worktree separati per task paralleli
  • Pipeline CI/CD locali che eseguono più istanze dello stesso progetto

La soluzione tradizionale era modificare manualmente i port binding nella configurazione — un approccio fragile, soggetto a errori e difficile da gestire in team.

La soluzione: la flag --isolated


Aspire 13.2 introduce la flag --isolated che risolve il problema alla radice. L’utilizzo è semplicissimo:

aspire run --isolated
# oppure
aspire start --isolated

Quando si passa --isolated, la CLI genera un identificativo univoco per l’istanza corrente, e questo ID guida due comportamenti fondamentali:

1. Randomizzazione automatica delle porte


Invece di usare le porte definite staticamente nell’AppHost, ogni istanza isolata riceve un range di porte casuali disponibili. Dove un run normale potrebbe bindare i servizi su 8080, 8081, 8082, due istanze isolate potrebbero usare rispettivamente:

  • Istanza 1: 15234, 15235, 15236
  • Istanza 2: 22891, 22892, 22893

La cosa notevole è che il codice dell’applicazione non necessita alcuna modifica: il service discovery di Aspire risolve gli endpoint dinamicamente a runtime, quindi i servizi si “trovano” a prescindere dalle porte assegnate.

2. Isolamento dei user secrets


La configurazione rimane completamente separata per ogni istanza. Connection string, chiavi API e altre variabili d’ambiente non si “contaminano” tra run diversi, anche quando puntano a risorse Azure o database con nomi diversi. Questo è particolarmente importante in scenari di test dove ogni istanza deve operare in modo completamente autonomo.

Casi d’uso pratici

Git worktrees multipli


Il caso d’uso più comune: sviluppo su due branch in parallelo.

# Terminale 1 - branch principale
cd ~/projects/myapp-main
aspire run --isolated

# Terminale 2 - feature branch
cd ~/projects/myapp-feature-xyz
aspire run --isolated

Entrambe le istanze partono senza conflitti, con porte diverse assegnate automaticamente. La dashboard di Aspire di ciascuna istanza è accessibile su porte diverse, e i servizi di ciascuna istanza sono completamente separati.

Test di integrazione con AppHost live


Un pattern molto utile: eseguire test di integrazione contro un AppHost “live” mentre si continua a sviluppare sull’AppHost principale.

# AppHost per sviluppo interattivo
aspire run --isolated

# In un altro terminale: avvia i test che usano il loro AppHost dedicato
dotnet test --isolated-apphost

Con la modalità isolata, i test non interferiscono con l’ambiente di sviluppo e viceversa.

Sviluppo agentico


Questo è il caso d’uso che ha spinto direttamente lo sviluppo di questa feature. Gli agenti AI in VS Code Copilot possono creare automaticamente git worktree separati per task paralleli. Con --isolated, ogni agente può avviare il proprio AppHost nella sua directory di lavoro senza conflitti con la sessione principale dello sviluppatore.

Aspire 13.2 include anche il comando aspire agent init (rinominato da aspire mcp init) che configura automaticamente gli agenti per usare --isolated con i worktree git.

Nuovi comandi CLI in Aspire 13.2


La modalità isolata non è l’unica novità della CLI. Aspire 13.2 introduce una serie di nuovi comandi operativi che rendono la gestione delle istanze molto più potente:

aspire ps — lista delle istanze attive


Elenca tutti gli AppHost Aspire in esecuzione sulla macchina, con le relative informazioni (porte, stato, ID istanza). Utile specialmente quando si hanno più istanze isolate attive contemporaneamente e si vuole sapere cosa sta girando.

aspire ps
# Output:
# ID           PROJECT          STATUS    DASHBOARD
# abc123       myapp-main       Running   http://localhost:15234
# def456       myapp-feature    Running   http://localhost:22891

aspire describe — dettagli sulle risorse


Accede ai dettagli di una risorsa specifica direttamente dal terminale, senza dover aprire la dashboard:

aspire describe api
# Mostra endpoint, variabili d'ambiente, stato health, ecc.

aspire doctor — diagnostica dell’ambiente


Esegue un controllo completo dell’ambiente di sviluppo: verifica che tutte le dipendenze siano installate correttamente (Docker, .NET SDK, ecc.) e segnala eventuali problemi di configurazione.

aspire wait — attesa su uno stato specifico


Blocca l’esecuzione in script di automazione finché una risorsa non raggiunge uno stato specifico. Utile in pipeline CI/CD o in script di startup:

aspire run --isolated &
aspire wait --resource api --state Running
# Ora l'API è sicuramente up, posso eseguire i test

aspire export — export di telemetria e dati


Cattura telemetria e dati delle risorse in formato JSON per analisi offline o per integrazione con altri strumenti.

TypeScript AppHost in preview


Una delle novità più interessanti di Aspire 13.2 è il supporto preview per scrivere l’AppHost in TypeScript. Fino ad ora, l’AppHost era necessariamente un progetto C#. Con questa release, è possibile usare TypeScript con una sintassi idiomatica:

import { createBuilder } from '@aspire/hosting';

const builder = await createBuilder();

// Aggiunge Redis come risorsa
const cache = await builder.addRedis("cache");

// Aggiunge un servizio Node.js con dipendenza da Redis
const api = await builder.addNpmApp("api", "../api")
    .withReference(cache);

await builder.build().run();

Il TypeScript AppHost funziona come un processo guest che comunica tramite JSON-RPC con l’orchestrator .NET sottostante. La CLI gestisce automaticamente la generazione degli SDK TypeScript quando si esegue aspire add, e aspire restore li rigenera se necessario.

Questa funzionalità è ancora in preview e non è raccomandata per produzione, ma è un segnale chiaro della direzione che sta prendendo Aspire: abbracciare anche gli sviluppatori TypeScript/Node.js, non solo quelli .NET.

Miglioramenti alla dashboard


La nuova dashboard di Aspire 13.2 con il dialog di gestione telemetria

Export e import di telemetria


La dashboard introduce un dialog centralizzato “Manage logs and telemetry” che permette di:

  • Esportare risorse e telemetria come JSON
  • Esportare variabili d’ambiente come file .env
  • Importare dati da sessioni precedenti


API HTTP per telemetria


Nuovo endpoint /api/telemetry sulla dashboard che permette query programmatiche dei dati di telemetria con supporto streaming NDJSON. Utile per integrare la telemetria di Aspire con strumenti di monitoring esterni o script di analisi.

Impostazione parametri dalla UI


È ora possibile impostare i parametri delle risorse direttamente dalla dashboard, con opzione di salvataggio nei user secrets. Questo elimina la necessità di modificare manualmente i file di configurazione per cambiare un parametro durante il debug.

Miglioramenti al visualizzatore GenAI


Chi usa Aspire con workload AI troverà utili i miglioramenti al GenAI visualizer: migliore gestione di schemi complessi, payload troncati, testo non-ASCII e navigazione tra definizioni di tool.

Altre novità rilevanti


Resource graph in Aspire 13.2

Endpoint MCP per i servizi


È possibile dichiarare server Model Context Protocol (MCP) direttamente nell’AppHost con il nuovo metodo WithMcpServer():

var api = builder.AddProject<Projects.MyApi>("api")
    .WithMcpServer("/mcp");

Aspire gestirà automaticamente la discovery dell’endpoint MCP, rendendolo disponibile agli agenti AI che operano nell’ambiente.

Docker Compose publishing stabile


L’integrazione con Docker Compose passa da prerelease a stabile. È ora possibile generare un docker-compose.yaml completo direttamente dal modello di app Aspire con aspire publish --format docker-compose.

Azure Virtual Network


Nuovo pacchetto Aspire.Hosting.Azure.Network per la gestione di reti virtuali Azure:

var vnet = builder.AddAzureVirtualNetwork("vnet");
var subnet = vnet.AddSubnet("web", "10.0.1.0/24");
var natGateway = vnet.AddNatGateway("nat");


Breaking changes da tenere a mente


Se stai aggiornando un progetto Aspire esistente a 13.2, ci sono alcune breaking changes da considerare:

  1. Variabili Service Discovery: usano ora lo schema endpoint invece del nome endpoint
  2. File di configurazione: preferenza per aspire.config.json unificato (migrazione automatica al primo run)
  3. Comandi risorse: resource-startstart, resource-stopstop
  4. Dashboard API: ora opt-in per dashboard standalone
  5. Pacchetto AIFoundry: Aspire.Hosting.Azure.AIFoundryAspire.Hosting.Foundry
  6. WithSecretBuildArg: rinominato in WithBuildSecret

Per aggiornare, usa:

aspire update --self   # aggiorna la CLI
aspire update          # aggiorna i pacchetti del progetto

Conclusione


Aspire 13.2 è una release sostanziosa che affronta problemi concreti del workflow di sviluppo. La modalità --isolated è probabilmente la novità più impattante per il day-to-day: risolve un pain point reale in modo elegante, senza richiedere modifiche al codice dell’applicazione.

L’aggiunta del TypeScript AppHost in preview è un segnale importante della direzione di Aspire verso un ecosistema più inclusivo, mentre i nuovi comandi CLI (ps, describe, doctor, wait) rendono Aspire molto più adatto a workflow di automazione e sviluppo agentico.

Chi lavora già con Aspire troverà questo aggiornamento decisamente consigliato. Chi non lo ha ancora provato, potrebbe essere il momento giusto per iniziare — soprattutto se lavora con architetture microservizi in .NET.

Fonti: Running Multiple Instances of an Aspire AppHost Without Port Conflicts · What’s new in Aspire 13.2

Dario Fadda reshared this.