Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

dalle rivelazioni sulla #guerraIRAN al #riarmo a #ICE a #Minetti, #FattoQuotidiano si conferma vero cane da guardia del Potere.
Complimenti a #ThomasMackinson !
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

AI locale in un’estensione Chrome con Transformers.js e Manifest V3: architettura pratica
#tech
spcnet.it/ai-locale-in-unesten…
@informatica


AI locale in un’estensione Chrome con Transformers.js e Manifest V3: architettura pratica


Hugging Face ha pubblicato una guida dettagliata su come costruire un’estensione Chrome che esegue modelli AI direttamente nel browser, senza server esterni, usando Transformers.js e Manifest V3 (MV3). Il progetto di riferimento è una browser assistant basata su Gemma 4 E2B, open source e già disponibile sul Chrome Web Store. Vediamo in dettaglio l’architettura e le scelte tecniche che rendono fattibile questo approccio.

Perché AI locale in un’estensione?


L’inferenza locale porta vantaggi concreti: nessun dato dell’utente inviato a server esterni, latenza ridotta dopo il download iniziale del modello, funzionamento offline. Il limite storico era la complessità di integrare modelli ONNX direttamente in un’estensione browser. Transformers.js risolve questo problema esponendo un’API familiare (ispirata alla libreria Python di HuggingFace) che gira interamente nel browser tramite WebAssembly e WebGPU.

Architettura MV3: tre contesti, tre ruoli


Manifest V3 impone un’architettura a contesti separati, ognuno con accesso e ciclo di vita differenti. Il progetto usa tre entry point distinti:

  • Background service worker (background.ts): il piano di controllo. Gestisce il ciclo di vita dell’agente, l’inizializzazione dei modelli, l’esecuzione dei tool e i servizi condivisi come feature extraction. I modelli Transformers.js vengono caricati e mantenuti qui.
  • Side panel (sidebar/): il layer di interazione con l’utente. Chat input/output, streaming degli aggiornamenti, controlli di setup.
  • Content script (content.ts): il bridge con la pagina web. Estrae contenuto dal DOM e gestisce l’evidenziazione di elementi.

La regola di design è chiara: orchestrazione pesante nel background, UI e logica di pagina leggeri. Questo evita di caricare il modello più volte, mantiene l’interfaccia reattiva e rispetta i confini di sicurezza di Chrome.

Contratto di messaggistica tipato


Con contesti separati, la comunicazione avviene tramite messaggi. Il progetto li tipizza con enum in src/shared/types.ts:

// Side panel verso background
enum BackgroundTasks {
  CHECK_MODELS,
  INITIALIZE_MODELS,
  AGENT_GENERATE_TEXT,
  AGENT_GET_MESSAGES,
  AGENT_CLEAR,
  EXTRACT_FEATURES
}

// Background verso side panel
enum BackgroundMessages {
  DOWNLOAD_PROGRESS,
  MESSAGES_UPDATE
}

// Background verso content script
enum ContentTasks {
  EXTRACT_PAGE_DATA,
  HIGHLIGHT_ELEMENTS,
  CLEAR_HIGHLIGHTS
}

Il flusso tipico è: la side panel invia AGENT_GENERATE_TEXT, il background aggiunge il messaggio alla conversazione, esegue l’inferenza, poi emette MESSAGES_UPDATE alla side panel che ri-renderizza.

Integrazione di Transformers.js: dove gira l’inferenza


L’estensione usa due modelli con ruoli distinti, definiti in src/shared/constants.ts:

  • Text generation (LLM): onnx-community/gemma-4-E2B-it-ONNX, formato q4f16 – responsabile delle risposte chat e dell’esecuzione dell’agente.
  • Feature extraction (embedding): un modello separato per estrarre vettori da testi di pagina, usato per operazioni semantiche.

Entrambi i modelli vengono inizializzati e cachati nel background service worker. Il download avviene al primo avvio e i pesi rimangono nella cache del browser (via Cache API), così le sessioni successive partono istantaneamente. Il progresso del download viene trasmesso alla side panel tramite l’evento DOWNLOAD_PROGRESS.

Agent loop e tool calling


L’estensione implementa un loop agente completo. La classe Agent gestisce la cronologia dei messaggi e il ciclo di ragionamento:

// Flusso semplificato di Agent.runAgent
while (true) {
  const response = await model.generate(chatMessages);

  if (response.hasToolCall) {
    const toolResult = await executeTool(response.toolCall);
    chatMessages.push({ role: "tool", content: toolResult });
  } else {
    // Risposta finale
    break;
  }
}

I tool disponibili includono EXTRACT_PAGE_DATA (estrae il testo dalla pagina corrente via content script) e HIGHLIGHT_ELEMENTS (evidenzia elementi nel DOM). L’interfaccia dei tool è definita con schema JSON per permettere al modello di invocarli correttamente.

Build e packaging: Vite e MV3


Il progetto usa Vite per il build, con configurazione custom per generare entry point separati per background, side panel e content script. I modelli ONNX non sono inclusi nel bundle dell’estensione (sarebbero troppo grandi), ma vengono scaricati da Hugging Face Hub al primo avvio.

Un dettaglio pratico importante: i service worker MV3 possono essere terminati dal browser in qualsiasi momento quando inattivi. Bisogna gestire la persistenza dello stato (conversazione, modelli inizializzati) in modo da riprendere correttamente al risveglio del worker. Il progetto usa chrome.storage.session per lo stato effimero e chrome.storage.local per i dati persistenti tra sessioni.

Considerazioni pratiche prima di adottare questo approccio


Prima di replicare questa architettura in un progetto reale, vale la pena considerare alcune limitazioni:

  • Dimensione modello: Gemma 4 E2B in q4f16 pesa diversi gigabyte. Il download iniziale richiede una connessione affidabile e spazio disco significativo nel profilo Chrome.
  • Compatibilità hardware: le prestazioni variano molto tra macchine. Su hardware senza GPU decente, l’inferenza può essere lenta anche con quantizzazione aggressiva.
  • Ciclo di vita service worker: Chrome può terminare il background worker dopo 5 minuti di inattività. Gestire il riavvio e la reinizializzazione del modello è parte non banale dell’implementazione.
  • Review del Chrome Web Store: le estensioni con funzionalità AI vengono esaminate più attentamente; documentare chiaramente cosa fa il modello e dove girano i dati accelera il processo di approvazione.


Conclusione


L’architettura descritta da HuggingFace è solida e dimostra che eseguire AI locale in un’estensione Chrome è fattibile oggi con Transformers.js. Il codice sorgente dell’estensione Gemma 4 Browser Assistant è disponibile su GitHub come riferimento completo, con implementazione reale di tool calling, streaming e gestione del ciclo di vita MV3. Per chi vuole portare funzionalità AI nelle proprie estensioni senza dipendere da API esterne, questo progetto è un ottimo punto di partenza.


Fonte: How to Use Transformers.js in a Chrome Extension – Hugging Face Blog, 23 aprile 2026


Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Microsoft Defender “RedSun” Zero-Day (CVE-2026-33825): Unpatched Exploit Grants Full SYSTEM Access
#CyberSecurity
securebulletin.com/microsoft-d…
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Pack2TheRoot: Critical Linux Privilege Escalation Flaw in PackageKit Affects 12+ Years of Releases (CVE-2026-41651)
#CyberSecurity
securebulletin.com/pack2theroo…
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Bitwarden CLI npm Package Compromised in Sophisticated GitHub Actions Supply Chain Attack
#CyberSecurity
securebulletin.com/bitwarden-c…
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

ShinyHunters Claims Udemy Data Breach: 1.4 Million User Records at Risk as Ransom Deadline Expires
#CyberSecurity
securebulletin.com/shinyhunter…
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Critical CVSS 9.8 Flaw in CrowdStrike LogScale Lets Unauthenticated Attackers Read Server Files
#CyberSecurity
securebulletin.com/critical-cv…
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

servizi editoriali


a Roma (Monteverde e Trastevere) in presenza, e ovunque online: servizi di editing di testi in poesia e prosa breve, valutazioni, laboratori e altre attività editoriali. serietà assoluta.

> servizi editoriali: slowforward.net/servizi/
> biografia: slowforward.net/bio/
> contatti: slowforward.net/contact/

#editing #curatela #ufficiostampa #laboratori #laboratoridiscrittura #valutazionieditoriali #poesia #prosa #servizieditoriali

reshared this

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

IL QUIRINALE E LA SUPPOSTA FALSITÀ

@news
*La stampa nazionale dedica intere pagine alla cocente vicenda della lettera che la Presidenza della Repubblica ha indirizzato al Ministero della Giustizia per chiedere verifiche e successivi chiarimenti sulla supposta falsità nelle comunicazioni che hanno portato ad un già parecchio discusso provvedimento di grazia.
L'articolo IL QUIRINALE E LA SUPPOSTA FALSITÀ

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

PC per gaming


So che sto facendo una domanda che apre un mondo e che non si può rispondere nello spazio di un commento, però proviamoci.

Mio figlio vorrebbe cambiare il PC, è un appassionato di #videogiochi, e mi ha chiesto aiuto. Non è esperto di informatica né un appassionato della materia.

Sistema operativo: io uso Linux ma ovviamente non gliel'ho neanche proposto, qui non abbiamo nessun grado di libertà, dev'essere Windows.

Hardware: fino a una ventina di anni fa mi montavo i PC pezzo a pezzo, dall'alimentatore in su, poi i PC sono diventati così potenti che adesso, per quello che ci faccio io, mi va bene il PC più scarso di tutta Mediaworld quindi in genere ne compro uno non troppo costoso, tolgo Windows, metto Linux e sono a posto.

Per un #gamer, che non deve diventare campione del mondo, deve solo divertirsi un po' con gli amici, come devo comportarmi? Ne prendiamo uno già assemblato o conviene assemblarselo?

Potete consigliarmi qualche sito/tutorial on line per capirci qualcosa di più sui videogiochi? Vorrei capire meglio quali sono i requisiti di base, quanto pesa la CPU, quanto la RAM, quanto la scheda grafica, ecc. e cercare di fare una configurazione decente. Anche suggerimenti su una configurazione decente sono ben accetti.

Certo, dovrei almeno dirvi quanto vogliamo spendere però non ho neanche la più pallida idea di quanto potrebbe costare un PC del genere. So solo che i prezzisono aumentati molto 😬

Grazie.

reshared this

in reply to Max - Poliverso 🇪🇺🇮🇹

per quanto posso capire, quello è un gioco per Android che può girare su pc. In questo caso non serve un pc da gaming, basta un pc da ufficio con grafica integrata decente. Quello che hai postato tu, di mediaworld, direi che non è il massimo. La Gpu è sovradimensionata di tanto, mentre tutto il resto va bene, ma tieni presente che la AM4 è a fine vita. Quindi tra qualche anno devi ricomprare mobo, cpu e ram almeno.
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

metodo per suonare il pianoforte / giuseppe chiari. 1964


[youtube=youtube.com/watch?v=nXVgaNFeis…]

Al pianoforte: Chiara Saccone
Reggio Emilia 20 dicembre 2019
Chiostri di S. Pietro
Direzione artistica Paolo Aralla
video editing Fausto Pizzocchero

DIALOGHI SUL COMPORRE #6
Concerti, workshop, seminari, conversazioni lungo le vie della nuova musica
Reggio Emilia 19 . 20 . 21 dicembre 2019
Chiostri di S. Pietro, Istituto Musicale Peri, Teatro Ariosto
#ChiaraSaccone #ChiostriDiSPietro #concerti #conversazioni #experimentalMusic #FaustoPizzocchero #IstitutoMusicalePeri #music #musica #musicaDiRicerca #musicaSperimentale #PaoloAralla #seminari #TeatroAriosto #workshop

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

I dati di Checkmarx sono sul dark web...

L'azienda li collega a una violazione del repository GitHub derivante dal suo attacco alla supply chain di marzo. L'ambito è ancora in fase di revisione, nessun dato dei clienti è stato confermato.
thehackernews.com/2026/04/chec…

@informatica

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

oggi, 28 aprile, a roma, biblioteca pagliarani: reading di elisa davoglio


Martedì 28 aprile 2026 alle ore 17:30, Elisa Davoglio alla Biblioteca Elio Pagliarani (Via Marcantonio Bragadin 122b) in colloquio con Massimo Palma

Elisa Davoglio 28 aprile 2026 alla Biblioteca Pagliarani
#BibliotecaElioPagliarani #BibliotecaPagliarani #ElisaDavoglio #lettura #MassioPalma #poesia #prosa #reading

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

🔬 The latest issue of #EBPH, the official journal of the Italian Society of Medical Statistics and Clinical Epidemiology #SISMEC, is now fully online

A multidisciplinary journal that places key #PublicHealth challenges at its core, featuring original studies, systematic reviews, meta-analyses, and research protocols on #HealthPolicies, #HealthcareManagement, and #healtheconomics

⬇️ In #openaccess here:
riviste.unimi.it/index.php/ebp…

#newissue #healthcare #academia

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Maturità 2026, cosa ripassare tra il favorito Manzoni e le ipotetiche tracce

@scuola

corriereuniv.it/maturita-2026-…

L’esame di Maturità 2026 è sempre più vicino e il toto-tracce punta verso i grandi nomi della letteratura italiana per la prima prova scritta. Tra gli autori da tenere d’occhio c’è

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

On AI and the future of scientific journals (fully revised version)
"The editor’s signature: a proposal for AI-born journals"
Freely available at papers.ssrn.com/sol3/papers.cf…
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

The media in this post is not displayed to visitors. To view it, please go to the original post.

LockBit 5.0 in Escalation: dalla Banca delle Banche Centrali Latinoamericane alle logistiche Europee
#CyberSecurity
insicurezzadigitale.com/lockbi…


LockBit 5.0 in Escalation: dalla Banca delle Banche Centrali Latinoamericane alle logistiche Europee


LockBit 5.0 — nome in codice ChuongDong — non è la resurrezione di un brand cybercriminale: è la prova che i ransomware-as-a-service più organizzati si evolvono più velocemente delle operazioni delle forze dell’ordine che li contrastano. Nell’ultima settimana di aprile 2026, la gang ha rivendicato colpi su un istituto finanziario fondato dalle banche centrali latinoamericane, su società di logistica tedesche e su numerose altre vittime in Europa, Asia e nelle Americhe. Un’analisi tecnica e operativa della minaccia più attiva del momento.

Storia e resurrezione: da Operation Cronos a LockBit 5.0


Nel febbraio 2024, la joint task force internazionale Operation Cronos — guidata dall’NCA britannica con la partecipazione di Europol, FBI e polizie di altri dieci paesi — aveva inflitto quello che sembrava un colpo definitivo all’ecosistema LockBit: server sequestrati, chiavi di decryption pubblicate, affiliati arrestati in Polonia e Ucraina, e il volto del presunto admin “LockBitSupp” esposto pubblicamente.

La risposta del gruppo è arrivata con una certa prevedibilità: già nel settembre 2025, LockBit ha annunciato sul forum dark web RAMP la versione 5.0, coincidendo con il sesto anniversario dell’operazione. A distanza di circa sette mesi dal lancio, il quadro è chiaro: il gruppo ha ripreso la sua cadenza operativa, con oltre 100 vittime rivendicate sulla nuova data leak site (DLS) e attività in costante escalation nel 2026.

Architettura tecnica: cosa c’è di nuovo in LockBit 5.0


LockBit 5.0 è costruito su un’architettura a due componenti principali, un Loader e un modulo Ransomware, con una separazione netta tra funzioni di delivery e payload di cifratura.

Il Loader decifra il payload ransomware usando XOR combinato con compressione LZ e lo esegue direttamente in memoria, senza mai scrivere il binario cifrato su disco — una tecnica che complica notevolmente l’analisi forense e il rilevamento da parte degli antivirus tradizionali.

Sul fronte cifratura, la versione 5.0 introduce significativi miglioramenti rispetto alla 4.0:

  • Cifratura differenziale basata sulla dimensione dei file: per i file più grandi viene cifrata solo una porzione, massimizzando la velocità dell’attacco e comprimendo la finestra di risposta per i difensori.
  • Modulo di cancellazione delle Shadow Copy aggiornato: basato su codice derivato da Conti, ora utilizza le VSS API native di Windows invece degli strumenti da riga di comando, riducendo le tracce nel log degli eventi.
  • Patching di EtwEventWrite: disabilita in memoria il Windows Event Tracing for Windows (ETW), cieco di fatto i sistemi di SIEM e EDR che si affidano ai provider nativi.
  • Controlli di geolocalizzazione e locale: i campioni escludono automaticamente i sistemi nei paesi della CIS (Comunità degli Stati Indipendenti), un pattern tipico degli operatori ransomware di madrelingua russa.
  • Estensioni randomizzate a 16 caratteri: i file cifrati ricevono un’estensione generata casualmente per ogni campagna, impedendo il rilevamento basato su signature statiche.


Multi-piattaforma: Windows, Linux e VMware ESXi nel mirino


Una delle novità più significative di LockBit 5.0 è l’espansione cross-platform. Il gruppo ha sviluppato tre varianti distinte — per Windows, Linux e VMware ESXi — che possono essere deployate in modo coordinato su tutta l’infrastruttura di una vittima.

La variante ESXi è progettata specificamente per cifrare i datastore delle macchine virtuali, paralizzando interi ambienti virtualizzati in un singolo passaggio. Per un’organizzazione enterprise che fa affidamento su VMware, questo significa che server, applicazioni critiche e database possono essere resi inaccessibili simultaneamente, moltiplicando la pressione a pagare il riscatto.

Le vittime di aprile 2026: da Bladex alle logistiche europee


La settimana del 26-27 aprile 2026 ha visto LockBit 5.0 rivendicare una serie di attacchi di profilo elevato, in particolare:

  • Bladex (Panama): istituto finanziario multinazionale fondato direttamente dalle banche centrali dei paesi latinoamericani e caraibici. LockBit ha annunciato la pubblicazione dei dati entro 14-15 giorni. Un attacco a un istituto con questo profilo istituzionale ha implicazioni che vanno ben oltre il singolo incidente.
  • Merlo Teleskoplader (Germania): produttore tedesco di macchinari industriali; la rivendicazione include potenziale esfiltrazione di dati tecnici e commerciali.
  • D. Heinrichs Logistic GmbH (Bremerhaven, Germania): provider logistico nel porto di Bremerhaven, nodo strategico per il commercio europeo.

La concentrazione di vittime tedesche nel settore logistico/industriale suggerisce una campagna mirata, o quantomeno che gli affiliati di LockBit 5.0 stiano attivamente prendendo di mira la filiera produttiva e logistica europea.

Indicatori di compromissione e pattern di attacco

# File system indicators (Windows)
%TEMP%\ReadMeForDecrypt.txt         # Ransom note (naming convention LockBit 5.0)
*.{16-char random extension}         # File cifrati con estensione randomizzata
# Processi sospetti (behavior indicators)
vssadmin.exe (chiamate VSS API native invece di CLI)
wevtutil.exe (possibile log clearing pre-cifratura)
wmic.exe shadowcopy delete
# ETW patching (in-memory)
EtwEventWrite patched -> NOP sled   # Disabilita event tracing Windows
# Geolocation check (CIS exclusion)
GetUserDefaultLCID() / GetLocaleInfoW()  # Controllo locale pre-esecuzione
# Network indicators
Comunicazioni C2 su infrastrutture TOR
Data exfiltration pre-cifratura via tool personalizzato (data theft stage)
# Loader behavior
XOR + LZ decompression in memoria
Nessuna scrittura del payload cifrato su disco (fileless execution)

Il modello RaaS e la resilienza di LockBit


La sopravvivenza di LockBit alle operazioni delle forze dell’ordine non è un caso: è il risultato di un modello RaaS (Ransomware-as-a-Service) progettato con ridondanza in mente. Gli affiliati — decine di gruppi criminali indipendenti che noleggiano il malware in cambio di una percentuale dei riscatti — possono continuare a operare anche quando l’infrastruttura centrale viene sequestrata. Quando il codice e le build vengono trapelate o ricostruite, il lancio di una nuova versione diventa relativamente rapido.

LockBit 5.0 dimostra anche una capacità di adattamento tecnico reale: il patching in memoria di ETW, l’uso delle VSS API invece dei comandi shell, e l’architettura modulare cross-platform non sono aggiornamenti cosmetici ma miglioramenti mirati a sopravvivere agli EDR e ai SIEM di nuova generazione.

Raccomandazioni per i difensori


  • Proteggere i backup offline e immutabili: la strategia più efficace contro LockBit rimane avere copie fuori dalla portata del ransomware. I backup connessi alla rete sono sempre stati l’obiettivo primario degli operatori.
  • Monitorare le API di Volume Shadow Copy: rilevare chiamate anomale alle VSS API da processi inusuali, non solo l’esecuzione di vssadmin.
  • EDR con visibilità sulle patch in-memory: i provider che monitorano l’integrità del codice in memoria (PatchGuard bypass, EtwEventWrite tampering) hanno significativamente più chance di rilevare LockBit 5.0 prima dell’esecuzione del payload.
  • Segmentazione rigorosa degli ambienti VMware: i datastore ESXi non devono essere accessibili da host che non abbiano una necessità operativa diretta.
  • Threat hunting basato su estensioni randomizzate: configurare alert su mass-rename di file con estensioni sconosciute nei file server critici.
  • Verifica della geolocation check: se in un ambiente vengono rilevati controlli di locale da processi inusuali, potrebbe indicare una fase di reconnaissance pre-attivazione del payload.

LockBit 5.0 non è un fantasma del passato. È una minaccia attiva, tecnicamente evoluta e operativamente resiliente. L’attacco a Bladex — un’istituzione finanziaria nata per volontà delle banche centrali di un’intera regione del mondo — è il segnale che nessun settore, nessuna dimensione aziendale e nessuna geografia è fuori dal mirino del gruppo più prolifico del ransomware mondiale.


Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Che cosa sarebbe successo se fosse stato in vigore il #ddlRomeo?

Il DDL è scritto così male che porterà ad una giurisprudenza friabile, contestabile e vaga. Immaginatevi gli organizzatori di un corteo condannati per antisemitismo nonostante sfilassero liberamente e in sicurezza degli ebrei. Ecco questa è la contraddizione o forse lo scopo del DDL Romeo: un clima di tale incertezza che si determina un’intimidazione ambientale per cui “ci penso due volte prima di criticare Israele”.


Quanto detto sugli organizzatori vale anche, e a maggior ragione, per i ricercatori che pubblicano testi.

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Il #Tg3 apre su #NicoleMinetti. Che anno è? Sto scrivendo su Diaspora o su Indymedia?

#sonoconfuso

Questa voce è stata modificata (2 settimane fa)
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

"Un racconto a più voci, un viaggio tra memoria, #scienza, informazione e psicologia non solo per ricordare cos'è stato il #terremotoDelFriuli ma anche cosa ha fatto nascere tra scienza, #ricerca, prevenzione e gestioni dei disastri."

#FriuliVeneziaGiulia #27aprile

ilbolive.unipd.it/it/news/soci…

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Venere, la foschia dalle stelle cadenti l MEDIA INAF

media.inaf.it/2026/04/27/polve…

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Il convegno conclusivo del progetto di ricerca Clinical trial data between privatization of knowledge and Open Science, patrocinato da AISA, si svolgerà l’8 maggio a Lecce.

Programma e locandina della conferenza sono visibili qui. Tutti i testi riconducibili al progetto sono disponibili su Zenodo.
- The post’s content. aisa.sp.unipi.it/privatizzazio…

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

New study: "In over 80% of cases the [tested] #LLMs claimed that a retracted article had not been retracted…LLMs have little ability to distinguish between valid and retracted studies, unless they are allowed to, and do, check online."
arxiv.org/abs/2604.16872

#AI #Retractions #ScholComm

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

"Massive budget cuts for US science proposed again by Trump administration."
nature.com/articles/d41586-026…

"For the second year in a row, US President Donald Trump has proposed significant cuts to the budgets of major US science agencies…[The plan] includes a ban on using federal funds for subscriptions and publishing fees for some academic journals…Some of the steepest cuts would be made to the National Science Foundation (#NSF) and the Environmental Protection Agency (#EPA): the budgets of both would fall more than 50% in 2027 compared to their current levels…The budget for the US National Institutes of Health [#NIH] would drop 13%…The budget would increase funding for…the military, which would receive US $1.5 trillion, a 44% increase."

#DefendResearch #Funding #Trump #TrumpVResearch #USPol #USPolitics

Questa voce è stata modificata (1 mese fa)
in reply to petersuber

Update. Here's the key passage from the new #Trump budget proposing a "Government-Wide Prohibition on Publishing and Subscription Fees." See p. 17.
whitehouse.gov/wp-content/uplo…

"The Budget ends the diversion of research dollars to high priced publishers across the Government. The Budget prohibits the use of Federal funds for expensive subscriptions to academic journals and prohibitively high publishing costs unless required by Federal statute or approved in advance by a Federal agency. Research funded by taxpayers should be publicly accessible; yet many publications charge the Government to both publish and to access the same research study. There are numerous low-cost outlets to make federally-funded research publicly available."

h/t Jim O'Donnell

#APCs #DoubleDipping #OpenAccess #Publishing #ScholComm #Subscriptions

Questa voce è stata modificata (1 mese fa)
in reply to petersuber

Update. The passage in the #Trump budget criticizing expensive #subscriptions and #APCs (previous post, this thread) triggered a debate in the House of Representatives.

"US lawmakers intensify scrutiny of scientific-publishing practices."
nature.com/articles/d41586-026…

"From ‘paper mills’ that sell authorships on fake or low-quality research papers to the costs associated with open-access publishing, US lawmakers are paying increasing attention to widely debated issues in scientific publishing. In a rare show of unity, members of the US House of Representatives from both sides of the political aisle agreed at a hearing that these issues deserve more attention from government — but there was less unity on what the solutions should be."

#OpenAccess #Publishing #ScholComm

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Sign it, sign it, sign it!

Demand Justice for a great truthteller who has exposed #Israel's genocide: sign #CourageFoundation's petition to demand justice for #FrancescaAlbanese:

petition.qomon.org/0b54a0b8-de…

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Il nuovo post di universita-it: San Siro apre le porte al futuro: arriva Campus Graduate

Qui il post completo: universita.it/san-siro-apre-le…

@universitaly

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

CodeAct e Hyperlight: agenti AI piu veloci con meno chiamate al modello nel .NET Agent Framework
#tech
spcnet.it/codeact-e-hyperlight…
@informatica


CodeAct e Hyperlight: agenti AI piu veloci con meno chiamate al modello nel .NET Agent Framework


Chi lavora con agenti AI su basi .NET sa bene che il vero collo di bottiglia non è spesso la qualità del modello, ma il numero di round trip tra il modello stesso e i tool. Un agente che deve recuperare dati, filtrarli, fare calcoli e assemblare un risultato finisce tipicamente per eseguire cinque o sei chiamate separate al modello, ognuna con la propria latenza e il proprio costo in token. Microsoft ha presentato una soluzione concreta a questo problema: CodeAct, ora disponibile nel pacchetto alpha agent-framework-hyperlight.

Il problema: troppi turni, troppa latenza


Nel flusso tradizionale, un agente ragiona come segue: chiede al modello quale tool usare, esegue quel tool, rimanda il risultato al modello, il quale decide il prossimo tool, e così via. Questo schema modello → tool → modello → tool moltiplica la latenza e il consumo di token con ogni step aggiuntivo. Su task composti da tre, quattro o cinque operazioni concatenate (tipico nelle pipeline di data wrangling, elaborazione report, lookup incrociati), il costo diventa significativo.

CodeAct risolve il problema in modo elegante: invece di chiedere al modello di scegliere un tool alla volta, gli viene offerto un singolo tool speciale chiamato execute_code. Il modello esprime l’intero piano come un breve programma Python, che viene eseguito una volta sola in un ambiente sandbox. Il risultato? Latenza ridotta del ~50% e consumo di token calato di oltre il 60% su workload rappresentativi, secondo i dati pubblicati da Microsoft.

Hyperlight: sandbox micro-VM per sicurezza senza compromessi


La parte che rende CodeAct praticabile in produzione è Hyperlight: una tecnologia Microsoft che avvia una micro-VM isolata per ogni esecuzione di codice generato dal modello. Il codice Python prodotto dall’LLM gira dentro questa sandbox, senza accesso al filesystem host, alla rete o a qualsiasi risorsa non esplicitamente autorizzata. I tool reali invece continuano a girare nel runtime dell’applicazione, con tutti i permessi necessari.

Il bridge tra sandbox e tool avviene tramite la funzione call_tool(...): quando il codice nella sandbox chiama call_tool("nome_tool", ...), Hyperlight instrada la chiamata verso il tool nel processo principale, ne ritorna il risultato nella sandbox, e il programma continua. Il codice generato dall’AI rimane isolato; solo i tool verificati e distribuiti dallo sviluppatore hanno accesso reale alle risorse.

Come si integra CodeAct nel proprio agente


Il setup è sorprendentemente compatto. Dopo aver installato i pacchetti agent-framework e agent-framework-hyperlight:

from agent_framework import Agent, tool
from agent_framework_hyperlight import HyperlightCodeActProvider

@tool
def get_weather(city: str) -> dict:
    # Restituisce il meteo corrente per una citta
    return {"city": city, "temperature_c": 21.5, "conditions": "partly cloudy"}

codeact = HyperlightCodeActProvider(
    tools=[get_weather],
    approval_mode="never_require",
)

agent = Agent(
    client=client,
    name="CodeActAgent",
    instructions="Sei un assistente utile.",
    context_providers=[codeact],
)

result = await agent.run(
    "Ottieni il meteo di Seattle e Amsterdam e confrontali."
)


HyperlightCodeActProvider si occupa di due cose in automatico: registra il tool execute_code ad ogni run dell’agente, e inietta nel system prompt le istruzioni sulla sandbox e sui tool disponibili via call_tool(...).

Gestione delle approvazioni: chi controlla cosa


Agent Framework distingue due modalità di approvazione per i tool:

  • never_require: il framework invoca il tool automaticamente.
  • always_require: ogni chiamata viene sospesa in attesa di un’approvazione human-in-the-loop.

Con CodeAct, la logica cambia leggermente. I tool registrati su HyperlightCodeActProvider non vengono esposti direttamente al modello come tool di primo livello: il modello vede solo execute_code e raggiunge gli altri tool scrivendo call_tool("nome", ...) nel programma Python. L’approvazione, se richiesta, si applica all’intero blocco di codice, non alle singole chiamate interne.

La regola pratica è chiara: i tool puri e sicuri (lookup dati, calcoli, chiamate read-only) vanno passati al provider, così il modello li può comporre in un unico turno. I tool con side effect (invio email, scrittura su sistemi in produzione, transazioni economiche) vanno tenuti sull’agente direttamente con approval_mode="always_require", così il modello li deve invocare esplicitamente uno per uno.

Quando conviene usare CodeAct


CodeAct non è la soluzione giusta per ogni agente. I benefici massimi si ottengono con task che coinvolgono molte operazioni concatenate e chainabili: data wrangling, generazione report, lookup multipli, calcoli intermedi. Se il task dell’agente si risolve quasi sempre con una o due chiamate a tool, il guadagno è marginale.

È anche importante considerare che il codice Python generato dal modello deve essere revisionabile: uno dei vantaggi collaterali di CodeAct è che l’intero piano dell’agente è concentrato in un singolo blocco di codice leggibile e auditabile, invece di essere distribuito su una catena di messaggi di tool-call.

Conclusione


CodeAct con Hyperlight rappresenta un’evoluzione pragmatica nell’architettura degli agenti AI su .NET: meno turni, meno token, stessa qualità. Il pattern è disponibile oggi nel pacchetto alpha agent-framework-hyperlight, pronto per essere sperimentato su workload interni prima di adottarlo in produzione. Chi sta già usando Agent Framework e si trova a costruire pipeline di tool-calling complesse troverà probabilmente il guadagno di latenza immediato e concreto.


Fonte: CodeAct in Agent Framework: Faster Agents with Fewer Model Turns – Microsoft Dev Blogs, 23 aprile 2026


Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Il nuovo post di universita-it: Studiare in Irlanda: costi, requisiti e cosa aspettarsi

Qui il post completo: universita.it/category/studiar…

@universitaly

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

LangChain.js per sviluppatori JavaScript: corso gratuito per costruire agenti AI
#tech
spcnet.it/langchain-js-per-svi…
@informatica


LangChain.js per sviluppatori JavaScript: corso gratuito per costruire agenti AI


Volete costruire agenti AI con JavaScript che vadano oltre le semplici chat? Agenti che ragionano, chiamano strumenti esterni e interrogano knowledge base in modo autonomo? Microsoft ha pubblicato un corso gratuito e open source per fare esattamente questo: LangChain.js for Beginners, 8 capitoli con oltre 70 esempi TypeScript eseguibili.

Se già conoscete Node.js, npm, TypeScript e async/await, non avete bisogno di passare a Python per sviluppare applicazioni AI. LangChain.js vi mette a disposizione i componenti necessari — chat model, tool, agenti, retrieval e molto altro — senza dover cablare tutto da zero.

Perché LangChain.js?


LangChain.js è come avere un negozio di ferramenta completamente fornito a portata di mano. Invece di fabbricare ogni strumento dal metallo grezzo, prendete quello che serve dallo scaffale e iniziate a costruire. La libreria astrae l’integrazione con vari LLM (OpenAI, Azure OpenAI, Anthropic e altri), standardizza l’interfaccia per tool e agenti, e fornisce primitive per la costruzione di pipeline RAG.

Il vantaggio rispetto a Python? Zero friction per chi già lavora nell’ecosistema JavaScript/TypeScript. Stessi strumenti di build, stesso toolchain CI/CD, stessa base di codice.

Struttura del corso: un approccio agent-first


La maggior parte dei tutorial su LangChain inizia con document loader ed embedding. Questo corso arriva agli agenti e ai tool presto, perché è lì che si trovano i sistemi AI in produzione. Gli agenti decidono cosa fare, quando usare strumenti, e se hanno bisogno di cercare dati.

Capitoli 1-3: fondamenta


La prima chiamata a un LLM, chat model, streaming, prompt template e output strutturati con schemi Zod. Contenuto classico, ma necessario prima che le cose si facciano interessanti.

Capitolo 4: Function Calling e Tool


Qui l’AI smette di parlare e inizia a fare. Si insegna al modello a chiamare funzioni personalizzate, e lui ragiona su quando usarle. Esempio pratico:

import { ChatOpenAI } from "@langchain/openai";
import { tool } from "@langchain/core/tools";
import { z } from "zod";

const weatherTool = tool(
  async ({ city }) => {
    // chiamata a una API meteo reale
    return `Il meteo a ${city} è soleggiato, 22°C`;
  },
  {
    name: "get_weather",
    description: "Ottieni le condizioni meteo correnti per una città",
    schema: z.object({
      city: z.string().describe("Il nome della città"),
    }),
  }
);

const model = new ChatOpenAI({ model: "gpt-4o" });
const modelWithTools = model.bindTools([weatherTool]);

const result = await modelWithTools.invoke(
  "Che tempo fa a Milano?"
);
console.log(result.tool_calls);

Capitolo 5: Agenti con pattern ReAct


Un LLM risponde a domande. Un agente ragiona attraverso i problemi, sceglie i tool giusti ed esegue piani multi-step. Il capitolo 5 mostra come costruire agenti con il pattern ReAct (Reason + Act): il modello alterna tra pensiero esplicito e azioni concrete fino a raggiungere la risposta finale.

import { createReactAgent } from "@langchain/langgraph/prebuilt";
import { ChatOpenAI } from "@langchain/openai";

const agent = createReactAgent({
  llm: new ChatOpenAI({ model: "gpt-4o" }),
  tools: [weatherTool, searchTool, calculatorTool],
});

const response = await agent.invoke({
  messages: [{ role: "user", content: "Pianifica un itinerario a Roma per domani" }],
});
console.log(response.messages.at(-1)?.content);

Capitolo 6: MCP — Model Context Protocol


Il Model Context Protocol sta diventando lo standard per connettere l’AI a servizi esterni. Il capitolo guida alla costruzione di server MCP e al collegamento degli agenti tramite trasporti HTTP e stdio. È un’abilità sempre più richiesta man mano che l’ecosistema AI aziendale matura.

Capitoli 7 e 8: RAG agentivo


I capitoli finali portano documenti, embedding e ricerca semantica, poi combinano tutto in Agentic RAG. L’agente decide quando cercare nella knowledge base e quando rispondere direttamente da ciò che già conosce.

È una distinzione importante. Il RAG tradizionale è come lo studente che sfoglia il libro di testo per ogni domanda, anche “Quanto fa 2+2?”. Il RAG agentivo è lo studente intelligente che risponde alle domande semplici a memoria e apre il libro solo quando ne ha davvero bisogno. Il risultato: risposte più veloci, costi inferiori (meno ricerche di embedding non necessarie) e un’esperienza complessivamente migliore.

Come iniziare


Il corso è open source su GitHub. Per iniziare bastano tre comandi:

# Clona il repository
git clone https://github.com/microsoft/generative-ai-with-javascript

# Installa le dipendenze
cd generative-ai-with-javascript/lessons/08-langchain/
npm install

# Configura la chiave API
cp .env.example .env
# Aggiungi AZURE_OPENAI_API_KEY o OPENAI_API_KEY nel file .env

# Esegui il primo esempio
npx ts-node chapter1/01-first-llm-call.ts

Ogni capitolo include spiegazioni concettuali con analogie concrete, esempi di codice eseguibili immediatamente, sfide pratiche per testare la comprensione e punti chiave per consolidare l’apprendimento.

A chi è rivolto


Il corso si rivolge a sviluppatori JavaScript/TypeScript che conoscono npm install e async/await. Non è richiesta esperienza precedente in AI o machine learning. Ogni capitolo inizia con un’analogia del mondo reale per ancorare il concetto prima di qualsiasi codice.

Per chi già lavora su applicazioni .NET o backend e vuole esplorare il lato AI senza cambiare linguaggio, questo corso rappresenta il punto di ingresso ideale: nessun boilerplate Python, nessun ambiente virtuale da gestire, solo TypeScript e strumenti già familiari.

Considerazioni finali


LangChain.js ha raggiunto una maturità che lo rende adatto a progetti di produzione. Il corso di Microsoft colma un gap reale: la maggior parte della documentazione e dei tutorial sull’AI generativa è orientata a Python. Avere un percorso strutturato, gratuito e orientato agli agenti per l’ecosistema JavaScript è un vantaggio concreto per chi già lavora in questo stack.

Se state valutando come integrare capacità AI nelle vostre applicazioni Node.js o Deno, o se volete costruire un copilota interno per il vostro team, questo è il punto di partenza più pragmatico disponibile oggi.


Fonte originale: LangChain.js for Beginners: A Free Course to Build Agentic AI Apps with JavaScript — Microsoft for Developers


Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

The media in this post is not displayed to visitors. To view it, please go to the original post.

UNC6692 usa Microsoft Teams per distribuire SNOW: email bombing, impersonazione helpdesk e compromissione del dominio Active Directory
#CyberSecurity
insicurezzadigitale.com/unc669…


UNC6692 usa Microsoft Teams per distribuire SNOW: email bombing, impersonazione helpdesk e compromissione del dominio Active Directory


Si parla di:
Toggle

Non serve uno zero-day quando si puo’ semplicemente telefonare. O meglio: mandare un messaggio su Microsoft Teams fingendo di essere il supporto IT aziendale. E’ questa la filosofia operativa di UNC6692, un gruppo di minaccia documentato da Google Threat Intelligence Group (GTIG) e Mandiant il 22 aprile 2026, che ha sviluppato una delle catene di intrusione piu’ efficaci osservate di recente: zero vulnerabilita’ software sfruttate, impatto devastante.

La catena di attacco: dalla casella di posta al dominio compromesso


La campagna di UNC6692 si articola in piu’ fasi con una logica narrativa precisa, progettata per sfruttare i processi cognitivi delle vittime anziche’ le vulnerabilita’ del software. Tutto inizia tra fine dicembre 2025 e i mesi successivi con un’operazione di email bombing: le vittime — prevalentemente dipendenti senior (77% dei casi rilevati) — si trovano improvvisamente sommerse da migliaia di email spam, un’inondazione che paralizza l’attivita’ lavorativa e genera panico.

Nel momento di massima confusione, arriva il soccorso: un messaggio su Microsoft Teams da un account che si presenta come tecnico del supporto IT interno. L’attaccante offre assistenza per il problema email e guida la vittima attraverso una sequenza di azioni apparentemente legittime. Il punto critico e’ il click su un link che porta a una pagina di phishing ospitata su un bucket Amazon S3 — presentata come “Mailbox Repair and Sync Utility v2.1.5”. L’URL su S3 non e’ in lista di blocco di quasi nessun proxy aziendale, e il dominio amazonaws.com gode di alta reputazione nei sistemi di URL filtering.

La suite SNOW: tre strumenti, un’unica operazione


Il download dalla pagina di phishing avvia l’esecuzione di un binario AutoHotKey (RegSrvc.exe) che funge da dropper per l’ecosistema SNOW, una suite malware modulare composta da tre componenti distinti, ciascuno con un ruolo specializzato nella catena di compromissione.

SNOWBELT e’ un backdoor basato su JavaScript, distribuito come estensione Chromium (directory: SysEvents). Viene installato in modalita’ non-supervised attraverso policy forzate, non tramite il Chrome Web Store. Si maschera sotto nomi come “MS Heartbeat” o “System Heartbeat”. Una volta attivo nel browser della vittima, intercetta sessioni autenticate, cookie, token OAuth e qualsiasi credenziale inserita nelle form web. Comunica con il C2 tramite richieste verso bucket S3 in us-east-2, usando un VAPID key fisso come identificatore.

SNOWGLAZE e’ un tunneler Python compatibile con Windows e Linux. La sua funzione primaria e’ creare un tunnel WebSocket autenticato tra il sistema della vittima e l’infrastruttura C2 dell’attaccante, tipicamente un sottodominio Heroku. Questo tunnel permette all’attaccante di instradare traffico RDP, PsExec e altri protocolli attraverso una connessione apparentemente legittima verso Heroku, eludendo i controlli firewall.

SNOWBASIN e’ il backdoor persistente per il controllo remoto completo: esecuzione di comandi via cmd.exe o PowerShell, cattura di screenshot, upload/download di file e auto-terminazione. E’ SNOWBASIN che gestisce la fase di post-exploitation, una volta che il foothold iniziale e’ stabilito.

Post-exploitation: dal PC della vittima al domain controller


L’analisi di Mandiant descrive una sequenza di post-exploitation metodica e aggressiva. Dopo l’installazione della suite SNOW, l’attaccante utilizza SNOWGLAZE per stabilire una sessione PsExec verso il sistema compromesso, poi avvia una scansione della rete locale alla ricerca di sistemi raggiungibili su porte 135 (RPC), 445 (SMB) e 3389 (RDP). Una volta identificato un server di backup, SNOWGLAZE viene usato per instradare una sessione RDP verso di esso.

Sul server di backup avviene la fase critica: l’attaccante usa Windows Task Manager per eseguire il dump del processo LSASS (Local Security Authority Subsystem Service), catturando in chiaro tutti gli hash delle password degli account autenticati sul sistema, inclusi account privilegiati con accesso al dominio Active Directory. Il file di dump viene esfiltrato via LimeWire attraverso il tunnel SNOWGLAZE. Con gli hash estratti, e’ possibile effettuare attacchi pass-the-hash per autenticarsi come qualsiasi account del dominio, portando alla compromissione completa dell’infrastruttura AD.

Indicatori di compromissione (IoC)

# URL phishing (pattern)
https://service-page-[ID]-outlook.s3.us-west-2.amazonaws.com/update.html?email=

# C2 SNOWGLAZE (WebSocket)
wss://sad4w7h913-b4a57f9c36eb[.]herokuapp[.]com:443/ws

# C2 SNOWBELT (pattern URL S3)
https://[a-f0-9]{24}-[0-9]{6,7}-[0-9]{1}.s3.us-east-2.amazonaws[.]com

# SNOWBELT VAPID Key
BJkWCT45mL0uvV3AssRaq9Gn7iE2N7Lx38ZmWDFCjwhz0zv0QSVhKuZBLTTgAijB12cgzMzqyiJZr5tokRzSJu0

# File sospetti (dropper)
RegSrvc.exe    # binario AutoHotKey rinominato
Protected.ahk  # script AHK malevolo

# Directory estensione Chrome malevola
SysEvents/  # in %LOCALAPPDATA%\Google\Chrome\User Data\Default\Extensions

# Hash SHA256
SNOWGLAZE: 2fa987b9ed6ec6d09c7451abd994249dfaba1c5a7da1c22b8407c461e62f7e49
SNOWBELT background.js: 7f1d71e1e079f3244a69205588d504ed830d4c473747bb1b5c520634cc5a2477

Attribuzione e contesto


UNC6692 e’ classificato da Google/Mandiant come UNC (Uncategorized): non e’ ancora stata stabilita un’attribuzione definitiva a un paese o gruppo noto. Il profilo operativo mostra tuttavia caratteristiche interessanti: capacita’ di sviluppo malware custom elevate, pazienza tattica (la campagna di email bombing precede l’attacco di settimane) e una chiara preferenza per obiettivi aziendali con accesso privilegiato a infrastrutture IT. L’assenza di exploit zero-day puo’ indicare sia un operatore esperto che preferisce metodi OPSEC-sicuri, sia un gruppo finanziariamente motivato che ha ottimizzato il rapporto costo/impatto delle proprie operazioni.

Consigli per i difensori


La campagna UNC6692 mette in evidenza lacune difensive comuni negli ambienti enterprise. Sul fronte delle policy Microsoft Teams, e’ fondamentale limitare la possibilita’ per utenti esterni di contattare dipendenti interni tramite Teams: configurare una allowlist dei tenant esterni autorizzati e’ il primo passo. Sul fronte della protezione da email bombing, implementare rate limiting e filtri anti-spam aggressivi con alert su aumenti anomali di volume per singolo account. Per la protezione del browser, deployare policy Group Policy che blocchino l’installazione di estensioni Chrome non approvate e monitorare la creazione di nuove directory in %LOCALAPPDATA%. Monitorare il traffico verso sottodomini Heroku e bucket S3 non registrati come legittimi nel proprio inventario cloud. Infine, proteggere LSASS con Credential Guard su tutti i sistemi Windows 10/11 e Server 2019+: questa misura da sola avrebbe bloccato la fase piu’ critica dell’attacco documentato.

La campagna UNC6692/SNOW e’ un esempio paradigmatico di come il perimetro piu’ difficile da difendere non sia tecnico, ma umano: un dipendente stressato da un’inondazione di spam e “soccorso” da un collega del supporto IT e’ una vittima quasi inevitabile, indipendentemente dalla sofisticazione dell’infrastruttura di sicurezza aziendale.


Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Antartide: 14 laboratori europei svelano i segreti del clima di 1,2 milioni di anni fa

@scuola

corriereuniv.it/antartide-14-l…

Il progetto Beyond EPICA ha completato una missione senza precedenti a Little Dome C. Grazie a una carota di ghiaccio lunga 2,8 km e al prelievo di rocce

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

GlassWorm Escalates: 73 New “Sleeper” Extensions Discovered on Open VSX Marketplace
#CyberSecurity
securebulletin.com/glassworm-e…
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

dal 30 aprile: “voci / voices” – xiii edizione di “giovane fotografia italiana” / premio luigi ghirri


Dal 30 aprile al 14 giugno 2026, il Palazzo dei Musei di Reggio Emilia ospita Voci / Voices, mostra collettiva della XIII edizione di Giovane Fotografia Italiana | Premio Luigi Ghirri, parte di Fotografia Europea. L’iniziativa, promossa dal Comune e curata da Ilaria Campioli e Daniele De Luigi, seleziona sette giovani fotografi under 35 tra oltre 300 candidati, offrendo uno sguardo sulla fotografia emergente italiana.

La mostra esplora il tema delle “voci” come strumento per dare forma a ciò che è invisibile o inascoltato, attraverso progetti che affrontano temi contemporanei come ambiente, migrazioni, memoria e identità. Le opere propongono una narrazione polifonica che unisce dimensioni personali e collettive.

Oltre al Premio Luigi Ghirri sono previste altre opportunità internazionali, tra cui residenze e partecipazioni a festival. Il 3 maggio si terranno visita guidata e cerimonia di premiazione.

Info: gfi.comune.re.it/2026-voci-voi…
#DanieleDeLuigi #fotografia #GiovaneFotografiaItaliana #IlariaCampioli #PalazzoDeiMuseiDiReggioEmilia #PremioLuigiGhirri #VociVoices

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

aremu rindineddha


una delle più belle musiche pensabili
slowforward.net/2024/11/30/alk…


alkyone: “aremu rindineddha” (two versions)


youtu.be/9pcFEIW4T4Y?si=aIDgLy…

youtu.be/odHfd0UYS2g?si=wxTkXL…

#Alkyone #AremuRindineddha #cantoPopolare #music #musicA_


reshared this

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

L’INTELLIGENZA ARTIFICIALE “RESUSCITA” UN FIGLIO MORTO IN UN INCIDENTE STRADALE

@news
*La prematura scomparsa di un figlio unico è un dolore insostenibile e una famiglia cinese ha deciso di tenere nascosta alla madre ottantenne la terribile notizia e di ricorrere ad un clone virtuale per ingannare a fin di bene la povera donna.
L'articolo L’INTELLIGENZA ARTIFICIALE