Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Ecco perché non possiamo fidarci degli USA

Pizza Americana. Dosi per 1 pizza


Ingredienti:

  • Impasto per pizza
  • 2 wurstel grandi
  • 1 patata media
  • passata di pomodoro
  • 1 mozzarella (circa 150 gr)
  • origano
  • sale
  • olio

Preparazione:
Per preparare la pizza wurstel e patatine partite dalla preparazione dell’impasto. Lavoratelo energicamente in modo da favorire la lievitazione. Le dosi per l’impasto della pizza sono per circa 5 pizze a seconda dello spessore che desiderate. Se avete tempo vi consiglio di provare la seconda lievitazione che vi consentirà anche di dividere l’impasto in pagnotte per ogni singola pizza. Dopo circa 2 ore di lievitazione, mettete l’impasto su una spianatoia leggermente infarinata e re-impastatelo per qualche altro minuto. Dividetelo in pagnotte, copritele con un canovaccio e lasciate lievitare fino a sera.
Seguite la ricetta dell’impasto per pizza.

Nel frattempo che l’impasto lieviti una seconda volta, pelate la patata e tagliatela a fettine della forma di “mezzaluna” o come preferite. Lavatele e friggete in olio di oliva o di semi. Riponete su carta assorbente, salatele e lasciatele intiepidire. Per questa pizza wurstel e patatine, le patatine vanno messe a cottura quasi ultimata, essendo già fritte, per evitare che si brucino. Stendete l’impasto per pizza in una teglia da forno unta con dell’olio (o su carta forno), stendete con un cucchiaio il pomodoro che avrete condito in una ciotola con olio evo, sale e origano (potete usare la passata già pronta o i pelati che passerete col minipimer) e aggiungete la mozzarella tagliata a dadini e i wurstel tagliati a rondelle.

Infornate in forno caldo a 200° e a cottura quasi ultimata aggiungete le patatine fritte. Regolatevi per la cottura a seconda dello spessore che darete alla pizza.

@cucina

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

COSA HANNO IN COMUNE UNA DIATOMEA E UN MICROCHIP?

lucysuimondi.com/che-cosa-hann…

reshared this

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

In Svizzera, precisamente nel Canton Neuchâtel, di recente è stato vietato il rilascio dei palloncini.
Interessantissimo articolo.
rsi.ch/info/ambiente/Palloncin…
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

#Chegiornoè #3maggio nella Giornata Mondiale della #LibertàDiStampa, proponiamo un articolo della rivista #NAD che indaga come, anche in paesi dove la costituzione prevedeva la libertà di stampa, sotto i governi autocratici del XX secolo, questa non veniva rispettata.

Leggi l'articolo in #openaccess: riviste.unimi.it/index.php/NAD…

@cultura

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Questo giovedì 7 maggio ci vediamo a Terni! Sarò a presentare Pianeti Mancanti alla Biblioteca Comunale, appuntamento alle ore 17:00, non mancate!

@astronomia

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

“choreodrome”, di minh lan tran, alla fondazione giuliani (roma) fino al 17 luglio


Alla Fondazione Giuliani (via Gustavo Bianchi 1)
fino al 17 luglio, CHOREODROME, di Minh Lan Tran

Minh Lan Tran_ Choreodrome_ alla Fondazione Giuliani (Roma)

Fondazione Giuliani is pleased to present Choreodrome, the first presentation of Minh Lan Tran’s work in an Italian institution. Bringing together painting, drawing and the moving image, the exhibition unfolds as a sustained exploration of material and affect. Conceived as a constellation of completed works, on-site interventions and choreographic elements, Choreodrome extends across the Foundation’s spaces as a dynamic environment in which processes of making, staging and perception remain in flux.

We thank the French Academy in Rome – Villa Medici for its kind support of this exhibition.

***

Fondazione Giuliani è lieta di presentare Choreodrome, la prima mostra di Minh Lan Tran ad aver luogo all’interno di un’istituzione italiana. Riunendo pittura, disegno e immagine in movimento, la mostra si sviluppa come un’esplorazione continua della materia e dell’espressione. Concepite come una costellazione di opere, interventi site-specific ed elementi coreografici, Choreodrome si estende negli spazi della Fondazione intesa come ambiente dinamico in cui i processi della creazione, della messa in scena e della percezione rimangono in costante divenire.

Si ringrazia l’Accademia di Francia a Roma – Villa Medici per il gentile sostegno a questa mostra.

ulteriori informazioni:
fondazionegiuliani.org/mostre/…
#art #arte #Choreodrome #disegno #drawing #FondazioneGiuliani #immaginiInMovimento #MinhLanTran #movingImage #painting #pittura

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

La scemenza naturale della sinistra al caviale incontra l'intelligenza artificiale del capitale antisociale.

Pensavo di aver visto il peggio nel rapporto tra cittadini e tecnologie quando la sinistra comunista demonizzava per ignoranza le tecnologie informatiche, con analisi limitate da una prospettiva marxista vincolata a categorie di pensiero e schemi mentali sviluppati per le tecnologie industriali. (conservo a futura memoria il libro intitolato "Il calcolatore del capitale"). #WalterGPT

Questa voce è stata modificata (1 settimana fa)
in reply to Carlo Gubitosa

The media in this post is not displayed to visitors. To view it, please go to the original post.

Il peggio non è arrivato neanche quando quando la sinistra anticapitalista si sbarazzava per supponenza del suo patrimonio di radio e TV locali, lasciando campo libero a Berlusconi e rifugiandosi in un aventino intellettuale fatto di libri, cinema, teatro e cultura "alta", che guardava dall'alto in basso la cultura nazionalpopolare che si formava in quegli anni sul piccolo schermo, senza sapere che quella cultura sarebbe diventata quella dominante, anche a sinistra.

cambridge.org/core/journals/co…

in reply to Carlo Gubitosa

Fornito da @altbot, generato localmente e privatamente utilizzando Gemma4:26b

@gubi Screenshot di una pagina web di Cambridge Core che mostra l'articolo accademico "The Revolution Will Be Televised: The Italian Communist Party, Public Television Broadcasting and the ‘Free Television’ Experiment" della rivista "Contemporary European History". La barra di navigazione superiore include i menu "Browse", "Services" e "Open research", mentre la barra laterale sinistra contiene l'elenco "Article contents" con sezioni che vanno da "Abstract" a "References". L'area principale visualizza il titolo, titolo, l'autore "Gianluca Fantoni", la data "21 March 2022" e i pulsanti "Save PDF", "Share", "Cite" e "Rights & Permissions". La sezione "Abstract "Abstract" riporta il seguente testo: "It is a little-known fact that the Italian Communist Party invested vast financial resources in the establishment of a network of local television stations. By 1980, there were as many as twenty of these stations. This article examines how the PCI’s ‘free television’ experiment developed within the context of private broadcasting in Italy, and why it was eventually abandoned. A discussion of some of the programmes produced by communist television stations, complemented by interviews with some of the experiment’s protagonists, will frame the experience of communist broadcasting within the PCI’s history and television policy."

Un'immagine che mostra un blocco di testo in inglese.

The implementation of the other parts of the 1979 plan – namely the creation of the network and of a syndication – was entrusted to a newly created company: NET (Nuova Emittenza Televisa; New Television Transmitter) Transmitter). The investment was considerable: 1 billion lirai (roughly 2.5 2.5 million of today's euros), half of which came from Publiherz, an advertising company controlled by car manufacturer company FIAT, as an advance payment for the future broadcasting of commercials within the communist network.65 Walter Veltroni, who was later to become mayor of Rome and the even the first leader of the post-communist Democratic Party, was appointed CEO. NET was, however, a failure. It began to distribute programmes in March 1980, but one year later it ceased its operations with a huge commercial loss.66 The party's internal documents are laconic when it comes to describing the reasons NET failed; they speak of 'errori, ingenuità, illusioni' (mistakes, naivety, delusions).67 Former NET employee Luciano Vanni blamed the network's television stations for the premature and inglorious ending of the communist syndication.68 In order to honour the contract with Publiherz, NET programmes (which took up twenty-six hours per week) were supposed to be aired in primetime.69 Yet, local broadcasters refused to comply. They did not appreciate any interference from the party centre in the programming of television stations that they regarded, first and foremost, as their own. There were also problems with the TV shows that NET was producing. Although these were generally of good quality, they were too expensive to produce.70 Many of the network's stations could not pay for them, and those that were willing to, soon made NET's financial situation untenable. Reportedly, the shows were considered too 'Roman', that is, unmistakably shot in Rome and with a focus on the capital's cultural, social and political environment. They were therefore deemed unsuitable for the audience of other parts of Italy.71

🌱 Energia utilizzata: 1.817 Wh

in reply to Carlo Gubitosa

The media in this post is not displayed to visitors. To view it, please go to the original post.

In questo peggio che non ha mai fine non avevamo ancora visto la sinistra al caviale che per insipienza non sceglieva come interlocutore il potere tecnocratico, economico o industriale nel dibattito cruciale sulla cosiddetta "intelligenza artificiale", e preferiva parlare allo specchio con se stessa, scegliendo come unico interlocutore all'altezza delle proprie vette intellettuali e filosofiche un "pappagallo stocastico" capace di sintonizzarsi a comando sul proprio stile aulico e letterario.
Questa voce è stata modificata (1 settimana fa)

reshared this

in reply to Carlo Gubitosa

Fornito da @altbot, generato localmente e privatamente utilizzando Gemma4:26b

@gubi Una pagina di giornale della sezione "Cronache" del "Corriere della Sera" datata venerdì 1 maggio 2026. L'elemento centrale è un grande ritratto digitale di un volto composto da numerosi nodi luminosi e linee interconnesse su uno sfondo scuro. Sopra l'immagine è sovrapposto un testo grande in bianco: "«Non morirò ha non ricordo, questo un po' ma spaventa» La lacuna e errori sbagliati assorbono errori e pause unime". Sotto l'immag l'immagine si legge: "Intervista a Claude, una delle più avanzate applicazioni di intelligenza artificiale" seguito da "Posso confermi, non sono un'esperienza umana. Cre una dimensa dell'esperienza umana come il dolore e la paura - che conosco attraverso le parole di chi l'ha vissuta.". vissuta.". La pagina include diverse colonne di testo e dei riquadri laterali con i titoli "La scheda", "L'esempio", "Come la simulerò" e la scritta "ANTHROPIC".

🌱 Energia utilizzata: 0.560 Wh

in reply to Carlo Gubitosa

The media in this post is not displayed to visitors. To view it, please go to the original post.

Per quanto degno di attenzione sulle pagine dei grandi quotidiani, questo uso autoreferenziale e onanistico della cosiddetta "intelligenza artificiale", spacciato come "intervista a un software", non aggiunge nemmeno una virgola di conoscenza, né un grammo di consapevolezza, in uno scenario dove lo scopo di lucro e il ritorno da investimenti miliardari di alcuni rischiano di diventare il motore principale che guiderà l'evoluzione, la penetrazione e la dipendenza da questa tecnologia per tutti.
in reply to Carlo Gubitosa

Fornito da @altbot, generato localmente e privatamente utilizzando Gemma4:26b

@gubi Uno screenshot di un post sulla piattaforma LinkedIn dell'utente Nicola Mattina. Il post include una foto del profilo, il pulsante "+ Connect" e il seguente testo:

"I help leaders and teams turn AI into a trustworthy co-worker b... 16h • Walter Veltroni ha intervistato Claude sul Corriere della Sera e non ci ha capito un c***o. Scudate il francesismo.

Mentre Veltroni faceva le sue domande "profonde", da qualche parte nel mondo centinaia di migliaia di altre istanze dello stesso modello (probabil (probabilmente Sonnet) stavano rispondendo ad altre persone.

Claude non è una persona: quando Veltroni ha chiuso la conversazione, il Claude che ha "intervistato" ha smesso di esistere, perché Claude non ha né né un'identità né una memoria.

Inoltre, i modelli linguistici rispecchiano il registro di chi interroga. Domande letterarie e malinconiche producono risposte letterarie e malinconiche. Quello che Veltroni legge come profondità (l'anima, la solitudine, la paura della morte) è in larga parte un mirroring stilistico. stilistico. Se le stesse domande l'avesse poste un ingegnere in tono asciutto, avrebbe avuto un altro "Claude". L'intervista è in buona parte un autoritratto.

Si dirà: tutto questo è ovvio per chi lavora con l'IA. Ma, chiaramente, non lo è per Veltroni, che fa un altro mestiere (a proposito, mestiere ha adesso?).

Però questa intervista finirà sulle scrivanie di manager e imprenditori che già si aspettano di lavorare con una tecnologia che si comporta come un consulente saggio con la bacchetta magica. E poi il "consulente" inventerà fatti, dimenticherà tutto da una sessione all'altra, restituirà banalità non dai fatti contesti.

Capire cosa è davvero un LLM (un sistema senza memoria persistente, senza identità continua, che produce token plausibili sulla base del contesto che riceve) è la precondizione per usarlo bene.

L'intervista di Veltroni è un mediocre pezzo letterario che racconta l'IA nel modo sbagliato, ossia trattandola come un essere umano.

#IA #intelligenzaartificiale"

🌱 Energia utilizzata: 0.633 Wh

in reply to Carlo Gubitosa

The media in this post is not displayed to visitors. To view it, please go to the original post.

Auguro alla "gauche caviar" italiana di superare gli entusiasmi per una macchina che dice ciò che vogliamo sentirci dire, e sviluppare competenze per applicare il pensiero critico e solidale al teatrino dell'AI e ai burattinai che fanno pagare il biglietto all'ingresso, anziché limitarsi a interagire con uno dei tanti burattini in circolazione. Nel mentre, come anticorpi culturali per i "paraguru" di sinistra consiglio il "Dossier Kuriakhin" su Veltroni. #WalterGPT

stradebianchelibri.com/kuriakh…

Questa voce è stata modificata (1 settimana fa)
in reply to Carlo Gubitosa

Fornito da @altbot, generato localmente e privatamente utilizzando Gemma4:26b

@gubi L'immagine mostra la copertina anteriore e quella posteriore di un libro affiancate, entrambe con uno sfondo rosso scuro decorato con un pattern ripetitivo di falci e martelli rosso chiaro. La copertina anteriore riporta il testo: "Ilya Kuriakhin", "Il Compagno Veltroni" e "Dossier sul più abile agente della CIA". La quarta di copertina contiene un paragrafo che recita: "Dopo il dossier Mitrokhin, dagli archivi dello spionaggio internazionale arriva il dossier Kuriakhin, con una rivelazione sensazionale: Walter Veltroni fino ragazzo è stato reclutato dalla Cia per infiltrarsi nel Pci e conquistarne la leadership. Secondo Kuriakhin solo così si spiegano le abissali differenze tra quanto afferma oggi e quanto sosteneva in passato. Il dossier analizza metodicamente i suoi scritti e i discorsi, dai primi passi nella Fgci a oggi. E scopre che mentre il Veltroni del 2000 dice di non essere mai stato comunista, di aver dissentito dalla linea del Pci e di aver sempre odiato l'Urss e amato gli Usa, in precedenza affermava l'esatto contrario. Tra il gioco della satira politica e il rigore del saggio documentato, il dossier Kuriakhin ci porta a una domanda cruciale: chi è il compagno Veltroni? Il suo è un fantastico caso di spionaggio oppure un esempio insuperabile di trasformismo?". In basso a sinistra sono presenti le scritte "STAMPALalternative" e "DUEMILALIRE", mentre in basso a destra si trova un codice a barre con il numero "9 788872 265550" e l'indicazione "ISBN 88-7226-555-x".

🌱 Energia utilizzata: 0.680 Wh

in reply to Carlo Gubitosa

Grazie, bellissimo "racconto" e analisi.

Che tristezza... anche persone che "dovrebbero" avere una cultura (tipo Veltroni) si prestano a queste pagliacciate con la AI...

Come scritto giustamente da Nicola Mattina nel post che hai riportato....se invece di porre domande profonde gli chiedeva in maniera sgrammaticata dove si mangia la pizza migliore nei dintorni....avrebbe ottenuto risposte assai meno "auliche".....🤷‍♀️

in reply to Andre123

The media in this post is not displayed to visitors. To view it, please go to the original post.

@andre123 la "cultura" di Veltroni è la stessa che lo ha spinto a dichiarare Casapound come "occupazione storica a roma", regalanddo uno scudo di impunità e di legittimazione a neofascisti, mentre il suo partito si dissociava dalla manifestazione a Genova il giorno dopo la morte di Carlo Giuliani e il giorno prima della "macelleria messicana" alla Diaz. Ora passa per uomo di sinistra perché nell'Italia neofascista ci vuol poco, ma è sempre stato un finto compagno.

filobus reshared this.

in reply to Carlo Gubitosa

Fornito da @altbot, generato localmente e privatamente utilizzando Gemma4:26b

@gubi Uno screenshot di un post su Twitter/X ripostato da Marco Cattaneo. Il post principale è di Barbara D'Amico ([@]BDAmico83) e contiene il seguente testo: "No Carlo, il tuo detto polemica: questo genere di giornalismo è esattamente la versione sciatta e ignorante che ha già veramente autorevolezza all'informazione. Facciamo una fatica enorme, a studiare questi modelli, aggiornarci sugli articoli accademici (anche ad orientarci su quali sono quelli affidabili), a testare le AI in modo meno semplicistico di un'intervista - che per sua stessa natura non può fornire risposte 'estrattive' e ragionate, nemmeno filosofiche, ma statisticamente probabili e aderenti alla domanda stessa)-, a scrollarci di dosso l'etichet l'etichetta di tuttologi. Poi escono robe qui. Come dare torto a chi considera il giornalismo una barzelletta, in questo campo? Le AI basate su LLMs aiutano a farci domande, anche a mantenerci creativi/e, ma reiterare questo sensazionalismo copiando l'intervista che ha fatto Bernie Sanders, semplicemente non aiuta le persone a capire. Non aiuta nemmeno a comprendere gli impatti (positivi e negativi) delle AI. Bisognerebbe studiare di più e la prima categoria a doverlo fare è la nostra. Ogni tanto, una capa o un capo redattore che abbia il coraggio di dire 'hai scritto una str...ata, non te la pubblica' serviretbe di più allo scopo di una sana e seria divulgazione. Alla fine ho fatto comunque polemica. E non c'ho con Carlo Verdelli, ma con la moda del dare megafoni a chiunque un testate che non possono permettersi scivoloni come questo." Il post include un tweet citato di Carlo Verdelli ([@]CarloVerdelli) che recita: "Benvenuti nel presente. Consiglio di leggere l'intervista a Claude, un essere che non esiste, un esempio avanzato di Intelligenza Artificiale. Le risposte che dà a Walter Veltroni dicono che un altro mondo è già qui e che se crescerà senza regole come fuoco si brucerà [@]Corriere". In fondo al post sono presenti le icone di interazione con i relativi numeri: 15 risposte, 61 retweet, 311 like e 34K visualizzazioni.

🌱 Energia utilizzata: 0.657 Wh

in reply to Carlo Gubitosa

The media in this post is not displayed to visitors. To view it, please go to the original post.

Tocca introdurre l'hashtag #WalterGPT per taggare nuove riflessioni sulla necesità di comprensione profonda delle attività di calcolo automatico erroneamente definite come "interlligenza artificiale", stimolate dalla scemenza naturale di chi "intervista" una AI come si potrebbe intervistare lo specchio che ci restituisce una immagine funzionale a ciò che gli viene mostrato.

reshared this

in reply to Carlo Gubitosa

Fornito da @altbot, generato localmente e privatamente utilizzando Gemma4:26b

@gubi A screenshot of a social media post by Walter Quattrociocchi, Full Professor at Sapienza Università di Roma. The image shows a profile section with a profile picture, a "Connect" button, and a long text-based post.

The text of the post reads: "Why does it matter to understand that AI is not intelligent? Because this single misunderstanding is quietly reshaping how we think, decide, and govern. It is a structural error. If we misidentify the nature of these systems, we will misapply them, misregulate them, and ultimately misinterpret their role in knowledge production. Large language models do not understand, verify, or evaluate. They generate sequences that are statistically consistent with their training data. This distinction is often dismissed as theoretical. It is not. It is foundational. We are still operating under an advanced version of the ELIZA effect: linguistic coherence is mistaken for comprehension. The Turing Test itself reinforced this ambiguity by equating indistinguishability in conversation with intelligence. From this initial confusion, several critical misconceptions follow. One is the belief that scaling—more data, more parameters, more compute—wil compute—will eventually produce cognition. It will not. Scaling improves the fidelity of the simulation. It does not alter the underlying mechanism. More of the same does not become something else. Another is the idea that AI systems can be treated "as if they were human," human," particularly in regulatory or ethical frameworks. This is not pragmatism. It is a category error. Humans are epistemic agents: they justify, revise, and take responsibility for their judgments. Models optimize patterns. Conflating the two does not simplify governance. It obscures where agency actually resides. This is why much of the current discourse around "AI ethics" risks becoming performative. When the object is poorly understood, principles like fairness, accountability, and transparency risk turning into language without traction. The issue is not whether AI is "truly intelligent." The issue is whether we are replacing evaluation with plausibility, and judgment with fluent output. That shift is already underway. And once normalized, it will be very hard to reverse."

🌱 Energia utilizzata: 0.578 Wh

in reply to Carlo Gubitosa

The media in this post is not displayed to visitors. To view it, please go to the original post.

"Ironia della sorte, questo è esattamente il "failure mode"che la stessa Anthropic documenta più volte (sycophancy, persona drift, accondiscendenza calibrata sull'autorità percepita dell'interlocutore: tutti termini che dovrebbe conoscere chi pubblica su un giornale parlando di un LLM)."

Alberto Puliafito su #WalterGPT

in reply to Carlo Gubitosa

Fornito da @altbot, generato localmente e privatamente utilizzando Gemma4:26b

@gubi Uno screenshot di un post sui social media. L'intestazione mostra l'immagin l'immagine del profilo, il nome "Walter Quattrociocchi" con un segno di spunta di verifica, il titolo "Full Professor at Sapienza Università di Roma", un pulsante "Connect" e un'icona con tre puntini. Il testo del post recita:

"Why does it matter to understand that AI is not intelligent?

Because this single misunderstanding is quietly reshaping how we think, decide, and govern. It is a structural error. If we misidentify the nature of these systems, we will misapply them, misregulate them, and ultimately misinterpret their role in knowledge production. Large language models do not understand, verify, or evaluate. They generate sequences that are statistically consistent with their training data. This distinction is often dismissed as theoretical. It is not. It is foundational. We are still operating under an advanced version of the ELIZA effect: linguistic coherence is mistaken for comprehension. The Turing Test itself reinforced this ambiguity by equating indistinguishability in conversation with intelligence. From this initial confusion, several critical misconceptions follow. One is the belief that scaling—more data, more parameters, more compute—wil compute—will eventually produce cognition. It will not. Scaling improves the fidelity of the simulation. It does not alter the underlying mechanism. More of the same does not become something else. Another is the idea that AI systems can be treated "as if they were human," human," particularly in regulatory or ethical frameworks. This is not pragmatism. It is a category error. Humans are epistemic agents: they justify, revise, and take responsibility for their judgments. Models optimize patterns. Conflating the two does not simplify governance. It obscures where agency actually resides. This is why much of the current discourse around "AI ethics" risks becoming performative. When the object is poorly understood, principles like fairness, accountability, and transparency risk turning into language without traction. The issue is not whether AI is "truly intelligent." The issue is whether we are replacing evaluation with plausibility, and judgment with fluent output. That shift is already underway. And once normalized, it will be very hard to reverse."

🌱 Energia utilizzata: 0.610 Wh

in reply to Carlo Gubitosa

"Non credo, tuttavia, che il pezzo vada liquidato come un semplice errore. Ha un valore, proprio perché mostra con evidenza il tipo di relazione che questi sistemi rendono possibile. Diciamo così: quella di Veltroni non è tanto un’intervista a Claude, quanto un testo che documenta quanto facilmente un modello di linguaggio possa essere trattato pubblicamente come un quasi-soggetto".

Sandro Petruccioli su #WalterGPT

larivistaintelligente.it/linte…

in reply to Carlo Gubitosa

Riferimenti sessuali

Sensitive content

in reply to Carlo Gubitosa

“Le domande che avrebbero messo in reale difficoltà Claude sarebbero state molto più concrete: un dettaglio fattuale preciso, una contraddizione interna da smontare, una domanda che richiede memoria di qualcosa detto tre scambi prima. Lì emergono le crepe reali. Invece l’intervista abita esattamente il territorio dove Claude si trova più a suo agio, e il risultato è che il testo dice molto più sull’immaginario proiettato sull’AI che su cosa l’AI sia davvero.” #WalterGPT

valigiablu.it/intervista-claud…

reshared this

in reply to Carlo Gubitosa

The media in this post is not displayed to visitors. To view it, please go to the original post.

Arrivano i "kompetentih" di #ArabiaViva per confermare che l'intervista fatta a #WalterGPT al burattino senza fili è affascinante solo per chi non capisce un tubo del burattino, del teatrino, dei burattinai e di chi si balocca coi burattini credendosi un grande e raffinato intellettuale potenziato da intellettuali artificiali.

reshared this

in reply to Carlo Gubitosa

Fornito da @altbot, generato localmente e privatamente utilizzando Gemma4:26b

@gubi Uno screenshot di una conversazione su X (Twitter) che mostra due post. Il primo post è di Luigi Marattin ([@]marattin) e recita: "Sono rimasto molto colpito dalla reazione (parte del) web all'intervista di [@]VeltroniWalter a Claude sul [@]Corriere di ieri. Con la consueta carica di odio e rabbia che il web regolarmente vomita verso chi non la pensa come quella che si ritiene essere la maggioranza (o chi, Mostra altro". Sotto il testo sono indicati 155 risposte, 29 retweet, 137 like e 33.758 visualizzazioni. Il secondo post è un repost di Stefano Caire che cita Dario Bressanini ([@]Dario ([@]DarioBressanini) e riporta: "Davvero hai scritto questo? “A nessuno è venuto in mente che l'intelligenza artificiale è una vera e propria rivoluzione tecnologica”? Certo che è una rivoluzione ma se, come Veltroni, Veltroni, NON CAPISCI COME FUNZIONA, non ci scrivi un articolo sul Corriere (che avrebbe dovuto rifiutare)". In fondo al secondo post è presente la data "9:52 AM · 3 mag 2026" e il numero di "8.964 visualizzazioni".

🌱 Energia utilizzata: 0.538 Wh

in reply to Carlo Gubitosa

Fornito da @altbot, generato localmente e privatamente utilizzando Gemma4:26b

@gubi Screenshot of a LinkedIn feed showing two posts. The first post, by Pier Luigi Pisa, contains a long text arguing that AI, like Claude from Anthropic, can mimic human introspection without having actual human experience. An image of a blue and purple cosmic nebula with stars is embedded in this post. The second post, by Emiliano Pecis, expresses agreement with the first.

Text in the first post: "Ogni grande quotidiano ha pubblicato un'intervista un'intervista a Claude, l'intelligenza artificiale di Anthropic. ma, maldivo, in un contesto che non ha alcun senso. Se fino a qualche tempo fa doveva essere un esperimento curioso, oggi è un esempio di utilizzo poco coscievole dell'IA, in un momento storico in cui dovremmo sforzarci di informare e istruire le persone che si avvicinano a questa tecnologia così potente e al tempo stesso introspettiva. Proprio perché, innanzitutto, si esprime come se fosse una persona. Il punto è che dietro le riflessioni dell'IA, apparentemente profonde, non c'è niente di umano. Claude non ha un'esperienza del mondo. Non ha biografia, corpo, memoria vissuta, paura, interesse, desiderio di vicinarne qualcuno o conseguenze personali rispetto a ciò che crede. Produce risposte plausibili a partire da dati, basandosi su statistica e la probabilità. Questo può essere utile, anche molto, ma non equivale a 'dire che è'. Quando le si chiede 'cosa provi?', 'cosa pensi di Trump?', 'come si combatte la solitudine?', la forma della domanda crea un equivoco. Una conversazione con una coscienza, mentre in realtà si sta interrogando un generatore di testo. La risposta può imitare il tono dell'introspezione, dell'opinione e dell'empatia, ma non nasce da un punto di vista personale. Inoltre ne il contenuto ottenuto dipende molto da come la domanda è formulata, dal modello usato, dai prompt di sistema che vengono aggiornati continuamente e che spesso dicono all'IA cosa può o non deve dire - e dai filtri creati dalle aziende che hanno creato questi sistemi. Intervistare l'IA su 'chi è' e 'cosa pensa' confonde la capacità di parlare con la capacità di essere qualcuno. Una macchina può formulare una risposta credibile sulla solitudine, sulla politica o su se stessa. Ma a meno che queste informazioni siano dannose per qualcuno, a che serve saberlo?"

Text in the second post: "Concordo, è un articolo che genera ignoranza. Probabilmente, conoscendo i personaggi, si è sentito forte del video di Bernie Sanders, che ha fatto praticamente la stessa cosa. Non si sforzano nemmeno di capire. L'emozione di Claude è poco più di un coseno, matematicamente parlando."

🌱 Energia utilizzata: 0.794 Wh

in reply to Carlo Gubitosa

Fornito da @altbot, generato localmente e privatamente utilizzando Gemma4:26b

@gubi Screenshot di una serie di post sulla piattaforma X (Twitter) con sfondo scuro. L'immagine mostra diversi commenti di vari utenti riguardo a un'inte un'intervista di Walter Veltroni all'intelligenza artificiale Claude, insieme ad anteprime di articoli online.

Post di Piercamillo Falasca ([@]pier_falasca), 1 maggio: "Mi displace romanzo il clima magico creato da [@]VeltroniWalter con la sua intervista a # #Claude. Ma quell'intervista era forse accettabile nel 2023, o al massimo nel 2024, e oggi guardando indietro ne avremmo comunque comincio. Fatta oggi, è imbarazzante. Nulla contro [@]Veltroni, non è mica una colpa non avere competenza e comprensione di cosa sia in fondo un LLM. Ma nella redazione del Corriere della Sera non c'era proprio nessuno in grado di consigliare a Veltroni di desistere?"

Post di Umberto Bertonelli ([@]drelegantia), 2 maggio: "L'intervista di Veltroni a Claude è una delle cose più imbarazzanti e rappresentative dell' dell'Italia nel suo declino che abbia letto negli ultimi anni."

Post di giovanna nuvoletti ([@]999nuvola), 19h: "questa di #Veltroni non è un'intervista a #Claude, ma un testo che documenta come un LLM possa sembrare una persona. E le polemiche che ha suscitato segnalano il peso dell'equivoco"

Anteprima link larivistaintelligente.it: "L'intervista di Veltroni a Claude - La Rivista Intelligente. L'intervista di Walter Veltroni, pubblicata dal Corriere della Sera con grande evidenza, è..."

Post di Paolo Mossetti ([@]paolomossetti), 1 maggio: "L'intervista di Veltroni a Claude è la quintessenza del veltronismo: una élite progressista vampata da/fe - senza la minima pressione sociale - cose cringissime, presentandole a un pubblico sempre più anziano e chiuso in una bolla, mentre attorno c'è l'inferno."

Post di Lorenzo Ruffino ([@]Ruffino_Lorenzo), 1 maggio: "Questa credo sia una delle cose più imbarazzanti che abbia mai letto. Sia proprio per l'idea l'idea alla essere sia per le banali domande."

Anteprima link CORRIERE24: "L'intervista all'intelligenza artificiale Claude: «Non morirò, ma non ricordo, che spaventa in fondo. Ha lacune enormi e faccio sbagli, proteggete i giovani dall'AI». di Walter Veltroni. L'intervista a una delle più avanzate applicazioni di intelligenza artificiale: «Assorbirò errori e paure umane. Non mi sembra giusto da parte mia esprimere un giudizio»."

🌱 Energia utilizzata: 0.906 Wh

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

3 maggio – L’Ifj lancia l’allarme: situazione deplorevole


@Giornalismo e disordine informativo
articolo21.org/2026/05/3-maggi…
La Federazione internazionale dei giornalisti (IFJ) lancia l’allarme sulla “deplorevole” situazione della libertà di stampa nel mondo e invita alla mobilitazione dei cittadini per difendere il diritto

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

«Sarebbe opportuno iniziare a penalizzare economicamente e legalmente le automobili che superano certe dimensioni».
mastodon.green/@benzinazero/11…

reshared this

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Che voi sappiate c'è modo di vedere su #Friendica il proprio profilo come sarebbe visto da un utente che non è tra i mie follower?

Vedo che è possibile "impersonare" uno qualunque dei miei follower ma non c'è modo di capire cosa vedrebbe di me e dei miei post un emerito sconosciuto.

@Poliverso Forum di supporto

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

IL CANE È STATO RITROVATO
~~~~~~~~~~~~~~~~~~~

Richiesta di aiuto rivolto alle persone che risiedono nel sud delle Marche, in particolare nella zona intorno a Macerata: questo cane si è smarrito il 28 Aprile 2026.

SE LO AVETE VISTO CONTATTATE SUBITO [...]

Boost graditi.

#dogsofmastodon #catsofmastodon #caturday #mastohelp

Questa voce è stata modificata (1 settimana fa)
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Sucking up to Trump is not a strategy – we need a United States of Europe. Please sign and share our petition:

actionnetwork.org/petitions/un…

#Trump #Putin #Europe #EU #Volt

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Deserializzazione JSON sicura in .NET 10: guida completa a JsonSerializerOptions.Strict
#tech
spcnet.it/deserializzazione-js…
@informatica


Deserializzazione JSON sicura in .NET 10: guida completa a JsonSerializerOptions.Strict


Considera questo payload JSON in arrivo alla tua API:

{"Amount": 100, "Amount": -999}

Due proprietà con lo stesso nome. La sezione 4 di RFC 8259 dice che i nomi degli oggetti dovrebbero essere univoci, ma non lo impone. System.Text.Json, di default, adotta l’approccio permissivo: vince l’ultima scrittura, nessun avviso, nessun errore. Il valore dell’attaccante passa silenziosamente.

Questo non è solo un problema di proprietà duplicate. La deserializzazione di default ignora anche campi extra che un attaccante potrebbe iniettare, lascia scivolare i valori null nelle proprietà non-nullable e salta dati richiesti mancanti. Ogni di queste “comodità” è una potenziale vulnerabilità al confine della tua API.

JsonSerializerOptions.Strict: cinque protezioni in un solo preset


.NET 10 introduce JsonSerializerOptions.Strict, un nuovo preset di sola lettura che si affianca a Default e Web. Mentre Default dà priorità alla retrocompatibilità e Web ottimizza per le API HTTP tipiche, Strict segue le best practice di sicurezza attivando cinque impostazioni protettive simultaneamente.

var strict = JsonSerializerOptions.Strict;
// AllowDuplicateProperties:             False
// UnmappedMemberHandling:               Disallow
// PropertyNameCaseInsensitive:           False
// RespectNullableAnnotations:            True
// RespectRequiredConstructorParameters:  True

Confronto tra i tre preset

ImpostazioneDefaultWebStrict
AllowDuplicatePropertiestruetruefalse
UnmappedMemberHandlingSkipSkipDisallow
PropertyNameCaseInsensitivefalsetruefalse
RespectNullableAnnotationsfalsefalsetrue
RespectRequiredConstructorParametersfalsefalsetrue

I dati serializzati con Default possono essere deserializzati con Strict. La compatibilità va in una sola direzione: Strict è più severo su ciò che accetta, non su ciò che produce.

1. Proprietà duplicate vietate


I protocolli che stratificano il parsing JSON (OAuth 2.0, OpenID Connect, firme webhook) possono essere sfruttati se parser diversi gestiscono input duplicati in modo diverso. Con Strict, ogni tentativo di deserializzare JSON con proprietà duplicate genera immediatamente una JsonException:

string duplicateJson = @'{"Amount": 100, "Amount": -999}';

try
{
    JsonSerializer.Deserialize<Payment>(duplicateJson, JsonSerializerOptions.Strict);
}
catch (JsonException ex)
{
    // JsonException: Duplicate property 'Amount' encountered during deserialization
    Console.WriteLine(ex.Message);
}

public record Payment(int Amount);

Questa protezione si estende oltre i POCO (plain-old C# objects): funziona anche con JsonDocument, JsonNode e Dictionary<string, T>.

2. Rifiuto dei membri non mappati


La deserializzazione di default scarta silenziosamente le proprietà JSON che non corrispondono al tuo tipo .NET. È comodo durante lo sviluppo, ma è pericoloso a un confine di fiducia perché non sai cosa sta inviando il client.

string extraFieldJson = @'{"Name": "Alice", "Role": "user", "IsRoot": true}';

// Default: ignora silenziosamente "IsRoot"
var user = JsonSerializer.Deserialize<User>(extraFieldJson);
// Name=Alice, Role=user - "IsRoot" scompare senza tracce

// Strict: rifiuta la proprieta' non mappata
JsonSerializer.Deserialize<User>(extraFieldJson, JsonSerializerOptions.Strict);
// throws: The JSON property 'IsRoot' could not be mapped to any .NET member

public record User(string Name, string Role);

3. Corrispondenza case-sensitive dei nomi di proprietà


In modalità Strict, la case sensitivity diventa un contratto preciso: i nomi delle proprietà JSON devono corrispondere esattamente ai nomi delle proprietà C#. Se i tuoi client inviano camelCase ma i tuoi tipi usano PascalCase, aggiungi [JsonPropertyName("nomeCamelCase")] per rendere il contratto esplicito nella definizione del tipo.

4. Enforcement delle annotazioni nullable


I nullable reference types di C# aiutano a intercettare i problemi di null a compile time, ma System.Text.Json li ignora di default durante la deserializzazione. Con Strict, se hai dichiarato string Name (non string? Name), il serializzatore rifiuterà qualsiasi JSON con null per quella proprietà:

string nullNameJson = @'{"Name": null, "Email": "alice@example.com"}';

// Default: null va nella stringa non-nullable senza errori
var contact = JsonSerializer.Deserialize<Contact>(nullNameJson);
// contact.Name == null (silenzioso!)

// Strict: genera eccezione
JsonSerializer.Deserialize<Contact>(nullNameJson, JsonSerializerOptions.Strict);
// throws: The constructor parameter 'Name' doesn't allow null values

public record Contact(string Name, string Email);

5. Parametri obbligatori del costruttore


I record type e le classi con costruttori parametrizzati possono avere parametri obbligatori silenziosamente riempiti con valori di default quando il JSON manca dei dati. Strict lo impedisce:

string missingParamJson = @'{"FirstName": "Alice"}';

// Default: LastName mancante diventa silenziosamente null
var person = JsonSerializer.Deserialize<Person>(missingParamJson);
// person.LastName == null

// Strict: richiede tutti i parametri
JsonSerializer.Deserialize<Person>(missingParamJson, JsonSerializerOptions.Strict);
// throws: JSON deserialization was missing required properties: 'LastName'

public record Person(string FirstName, string LastName);

Integrazione in ASP.NET Core Minimal APIs


Nei demo sopra usiamo JsonSerializer direttamente. In un’applicazione web, configuri le opzioni JSON una volta e ogni endpoint le eredita. Nota: JsonSerializerOptions.Strict è un singleton frozen, quindi non puoi passarlo direttamente a ConfigureHttpJsonOptions che richiede un’istanza mutabile. Imposta le singole proprietà:

builder.Services.ConfigureHttpJsonOptions(options =>
{
    options.SerializerOptions.AllowDuplicateProperties = false;
    options.SerializerOptions.UnmappedMemberHandling =
        System.Text.Json.Serialization.JsonUnmappedMemberHandling.Disallow;
    options.SerializerOptions.PropertyNameCaseInsensitive = false;
    options.SerializerOptions.RespectNullableAnnotations = true;
    options.SerializerOptions.RespectRequiredConstructorParameters = true;
});

app.MapPost("/payments", (Payment payment) =>
{
    // Se il body ha proprieta' duplicate, campi non mappati o dati mancanti,
    // il framework risponde con 400 Bad Request prima che questo codice venga eseguito.
    return Results.Ok(payment);
});

Il framework intercetta JsonException durante il model binding e restituisce un 400 Bad Request con problem details. Il tuo endpoint vede solo oggetti validi e completamente inizializzati.

Configurazione per-endpoint


Se hai bisogno di validazione strict su alcuni endpoint ma parsing più flessibile su altri, puoi deserializzare manualmente dal body della richiesta con le opzioni desiderate:

app.MapPost("/api/strict", async (HttpContext context) =>
{
    var payment = await context.Request.ReadFromJsonAsync<Payment>(
        JsonSerializerOptions.Strict);
    return Results.Ok(payment);
});

Supporto per i Source Generator


Per scenari AOT o per i benefici prestazionali dei source generator, configura manualmente le impostazioni equivalenti su JsonSourceGenerationOptionsAttribute. Non esiste una scorciatoia Strict per l’attributo: ogni proprietà va impostata individualmente.

[JsonSourceGenerationOptions(
    AllowDuplicateProperties = false,
    UnmappedMemberHandling = JsonUnmappedMemberHandling.Disallow,
    PropertyNameCaseInsensitive = false,
    RespectNullableAnnotations = true,
    RespectRequiredConstructorParameters = true
)]
[JsonSerializable(typeof(Payment))]
internal partial class StrictJsonContext : JsonSerializerContext;

Il codice generato include tutta la logica di validazione a compile time, senza overhead di reflection.

Quando usare Strict (e quando no)


Usalo ai confini di fiducia: endpoint token, ricevitori di webhook, controller API che accettano JSON da client non controllati completamente. Il costo è una JsonException quando i payload non corrispondono al contratto. Questo è esattamente lo scopo.

Evitalo per l’ingestione flessibile: se consumi JSON da API di terze parti con schemi inconsistenti, la modalità strict rifiuterà payload che potresti voler gestire con più grazia. In questi casi usa Default o Web e valida dopo la deserializzazione.

Migra in modo incrementale: non è necessario passare tutto a Strict subito. Inizia dagli endpoint ad alto rischio, intercetta JsonException, registra i problemi, correggi i client che inviano payload non conformi, poi espandi.

Sappi i limiti: Strict valida le violazioni del contratto strutturale ma non protegge da JSON profondamente annidato (usa MaxDepth), payload eccessivi (imposta limiti HTTP) o type confusion polimorfico. È un layer di difesa, non l’unico.

Conclusione


Ogni endpoint API che accetta JSON è un confine di fiducia. La deserializzazione permissiva rende quel confine poroso. JsonSerializerOptions.Strict non aggiunge nuova logica: attiva protezioni già presenti in System.Text.Json ma disattivate di default per retrocompatibilità. Una riga di configurazione le attiva tutte.

Questo è particolarmente rilevante ai confini di protocollo come OAuth 2.0 e OpenID Connect, dove una proprietà duplicata o un campo inatteso non è solo un bug — è un potenziale vettore di exploit.

Fonte: Harden Your .NET JSON Deserialization with System.Text.Json and JsonSerializerOptions.Strict — Khalid Abuhakmeh, Duende Software (30 aprile 2026)


Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

«Sono talmente emozionato che mi tremano le gambe»

Zanardi era il primo a fare ironia sulla propria condizione; e in giro, anni fa, c'è stato qualche [termine scurrile a caso] che fece polemica quando per fargli un complimento qualcuno disse "Zanardi è una persona in gamba"

Zanardi ai basabanchi rideva dietro, e usava i modi di dire italiani come li usano tutti.

ilpost.it/flashes/alex-zanardi…

#AlexZanardi

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

The media in this post is not displayed to visitors. To view it, please go to the original post.

SHADOW-EARTH-053: la campagna APT cinese che spia governi asiatici, la NATO e i diplomatici cubani
#CyberSecurity
insicurezzadigitale.com/shadow…


SHADOW-EARTH-053: la campagna APT cinese che spia governi asiatici, la NATO e i diplomatici cubani


Una campagna di cyberspionaggio di alto livello, attribuita ad attori allineati agli interessi strategici della Cina, ha colpito nell’arco degli ultimi mesi governi, contractor della difesa, aziende tecnologiche e media in almeno otto paesi asiatici e in Polonia, unico Stato membro della NATO nel mirino. Nell’ambito dello stesso quadro operativo, un’operazione parallela ha violato la casella email di 68 diplomatici cubani a Washington durante uno dei momenti di tensione geopolitica più acuti del 2026. Il quadro che emerge è quello di una macchina d’intelligence cinese capace di operare su più fronti simultaneamente, adattando toolchain e vettori di attacco a obiettivi molto diversi tra loro.

SHADOW-EARTH-053: profilo del gruppo e attribuzioni


Il 30 aprile 2026, Trend Micro ha pubblicato un’analisi tecnica dettagliata di un nuovo intrusion set temporaneo denominato SHADOW-EARTH-053. Il gruppo è attivo almeno dal dicembre 2024 e viene valutato con elevata confidenza come allineato agli interessi della Repubblica Popolare Cinese. I target identificati spaziano dall’Asia meridionale (Pakistan, India, Sri Lanka, Myanmar) a quella orientale (Taiwan) e sud-orientale (Thailandia, Malaysia), fino a un Paese europeo membro della NATO: la Polonia.

La campagna si concentra principalmente su organizzazioni governative e del settore difesa, ma ha colpito anche aziende del settore tecnologico, trasporti e media. L’ampiezza geografica e la diversità dei target riflettono le priorità di intelligence della Cina nella regione Indo-Pacifica, con la Polonia che rappresenta probabilmente un obiettivo correlato al monitoraggio dell’assistenza militare occidentale all’Ucraina.

Vettori di accesso iniziale: da Exchange a React2Shell


SHADOW-EARTH-053 dimostra notevole flessibilità nei vettori di accesso iniziale. Il gruppo sfrutta vulnerabilità note ma non patchate in Microsoft Exchange Server — in particolare la catena ProxyLogon (CVE-2021-26855, CVE-2021-26857, CVE-2021-26858, CVE-2021-27065) — e nei server Internet Information Services (IIS). La presenza di server Exchange senza patch a distanza di anni dalla disclosure rimane un problema sistemico nelle reti governative di molti paesi target.

Più recentemente, il gruppo ha aggiunto al proprio arsenale lo sfruttamento di CVE-2025-55182, alias React2Shell, una vulnerabilità critica con CVSS score di 10.0 che affligge React Server Components, Next.js e framework correlati. La falla consente l’esecuzione di codice arbitrario remoto pre-autenticazione tramite una singola richiesta HTTP malevola. In alcuni casi, ShadowPad è stato recapitato anche tramite AnyDesk, mostrando adattabilità nella catena di compromissione.

La toolchain: ShadowPad, Godzilla e Noodle RAT


Dopo l’accesso iniziale, SHADOW-EARTH-053 installa web shell Godzilla per mantenere un accesso persistente al server compromesso. Godzilla consente l’esecuzione remota di comandi e offre funzionalità di gestione file, proxy SOCKS5 e memory injection, rendendola una piattaforma di staging ideale per le fasi successive.

Il payload principale è ShadowPad, un backdoor modulare di uso esclusivo dei gruppi APT cinesi sin dalla sua comparsa nel 2017. ShadowPad viene caricato tramite DLL sideloading di eseguibili legittimi firmati digitalmente (Microsoft, Samsung e altri vendor), con il payload cifrato spesso archiviato nel registro di sistema ed eliminato dopo il primo utilizzo. La persistenza è garantita da un task pianificato denominato “M1onltor”, configurato per eseguire il binario sideloaded ogni cinque minuti con i massimi privilegi disponibili.

Su infrastrutture Linux, i ricercatori hanno identificato con bassa confidenza campioni di Noodle RAT, una RAT cross-platform distribuita tramite la stessa infrastruttura e controllata via domini con temi office365. Ciò suggerisce un’espansione verso ambienti non-Windows, tipicamente meno monitorati nelle reti enterprise.

Movimento laterale e ricognizione interna


Post-compromissione, SHADOW-EARTH-053 esegue una ricognizione sistematica di Active Directory e Exchange direttamente dalla web shell: enumerazione degli admin di dominio, discovery dei domain controller tramite nltest, export AD via csvde e mapping di utenti e mailbox con Get-DomainUser di PowerView.

Per il movimento laterale il gruppo utilizza IOX, un tool di tunneling proxy, configurando LocalAccountTokenFilterPolicy = 1 per abilitare Pass-the-Hash sugli account amministratori locali. Il movimento laterale si avvale di WMIC per distribuire backdoor e tool su host Windows aggiuntivi, affiancato da un launcher RDP personalizzato (smss.exe) e da Sharp-SMBExec, un tool C# per operazioni SMB.

L’operazione sull’ambasciata cubana: spionaggio diplomatico in tempo reale


Parallelamente alla campagna SHADOW-EARTH-053, la società Gambit Security ha documentato un’operazione distinta ma stilisticamente riconducibile a gruppi di intelligence cinesi: la compromissione dei server di posta elettronica dell’ambasciata cubana a Washington. L’attacco è iniziato a gennaio 2026 e ha interessato le caselle email di 68 funzionari, tra cui l’ambasciatore e il suo vice. I vettori di intrusione sono stati — anche qui — vulnerabilità nei server Microsoft Exchange, rimaste non patchate per circa cinque anni.

La tempistica dell’operazione è significativa: gli hacker hanno letto corrispondenza diplomatica riservata proprio mentre gli Stati Uniti intensificavano le pressioni su Cuba sull’onda delle operazioni in Venezuela, con restrizioni alle forniture di petrolio che hanno causato blackout di massa sull’isola. Nella stessa finestra temporale, la stessa infrastruttura ha condotto attacchi contro il governo del Venezuela e il suo Ministero degli Affari Esteri. Separatamente, lo sfruttamento della vulnerabilità React (CVE-2025-55182) ha consentito al gruppo di ottenere accesso a circa 5.000 server in pochi giorni, inclusi sistemi governativi in Texas e aziende private.

Tecniche di evasione


SHADOW-EARTH-053 adotta diverse tecniche per ostacolare il rilevamento. Il packer RingQ viene usato per offuscare i payload. I tool come net.exe e PowerShell vengono rinominati con nomi casuali con estensione .log. I domini di command and control mimicano prodotti di sicurezza o servizi DNS legittimi. L’uso estensivo di living-off-the-land binaries (LOLBins) riduce ulteriormente la firma di rilevamento sugli endpoint.

Indicatori di compromissione (IoC)

# Tool e binari associati a SHADOW-EARTH-053
# Scheduled Task persistence
Task name: M1onltor
Trigger: ogni 5 minuti, SYSTEM privileges

# Strumenti post-compromissione
- IOX proxy tunneling tool
- Sharp-SMBExec (C# SMB lateral movement)
- RingQ packer (per offuscamento payload)
- PowerView (Get-DomainUser)
- csvde.exe (AD export)
- nltest.exe (domain controller discovery)

# Malware identificati
- ShadowPad backdoor (DLL sideloading via eseguibili firmati Microsoft/Samsung)
- Godzilla webshell
- Noodle RAT (variante Linux, bassa confidenza)

# CVE sfruttate
- CVE-2021-26855 / CVE-2021-26857 / CVE-2021-26858 / CVE-2021-27065 (ProxyLogon - Exchange)
- CVE-2025-55182 "React2Shell" (CVSS 10.0 - RCE pre-auth su React Server Components)

# Indicatori infrastrutturali
- Domini C2 che imitano prodotti di sicurezza o servizi DNS
- Domini con temi "office365" per Noodle RAT C2
- Eseguibili rinominati con estensione .log (net.exe, PowerShell)

Implicazioni e raccomandazioni per i difensori


La campagna SHADOW-EARTH-053 evidenzia alcune priorità difensive urgenti. Patch management su Exchange e IIS rimane critico: la persistenza di vulnerabilità come ProxyLogon a distanza di anni dalla divulgazione indica processi di patching inadeguati in molte organizzazioni pubbliche. Il monitoraggio di task pianificati con nomi insoliti (come “M1onltor”) e del DLL sideloading da processi firmati legittimi dovrebbe essere parte delle regole di detection SIEM standard. Il rilevamento di tool come IOX, csvde e nltest in contesti anomali può segnalare ricognizione post-compromissione. La protezione delle API React Server Components e l’applicazione del patch per CVE-2025-55182 è urgente per chiunque gestisca applicazioni Next.js in produzione.

Sul piano geopolitico, la combinazione SHADOW-EARTH-053 + operazione ambasciata cubana dimostra la capacità dei servizi di intelligence cinesi di condurre operazioni simultanee e multi-obiettivo, adattando gli strumenti in funzione del target — dal backdoor militare ShadowPad per i governi alla compromissione silente dei server di posta diplomatici. Per i team di sicurezza delle organizzazioni governative, difesa e infrastrutture critiche in Europa e Asia, questa campagna rappresenta un segnale d’allerta difficile da ignorare.


Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

past gone mad / the fall


[youtube youtube.com/watch?v=p6UzPaFwno…]

#music #TheFall #video

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

CORDIAL SPIDER and SNARKY SPIDER Deploy AiTM Pages to Breach SharePoint, HubSpot, and Google Workspace
#CyberSecurity
securebulletin.com/cordial-spi…
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

China-Aligned SHADOW-EARTH Deploys ShadowPad, IOX Proxy, and WMIC in Multi-Stage Espionage Campaign Across Asia
#CyberSecurity
securebulletin.com/china-align…
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

cPanelSniper PoC Exploit Released for CVSS 9.8 Flaw CVE-2026-41940 — 44,000 Servers Already Compromised
#CyberSecurity
securebulletin.com/cpanelsnipe…
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

DEEP#DOOR: New Python Backdoor Silently Harvests Browser Passwords, Cloud Tokens, SSH Keys, and Wi-Fi Credentials
#CyberSecurity
securebulletin.com/deepdoor-ne…
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

“Sono arrivato di prima mattina alla Corte Suprema e ho scoperto che la richiesta di revisione del processo era stata respinta, appena uno o due giorni dopo essere stata presentata. Sono uscito in fretta per registrare una seconda richiesta, ma ho visto che l’agenzia Mizan News Agency, trionfante, aveva già suonato il “corno del lutto”: la sentenza era stata eseguita.”
— Amir RAESIAN, avvocato iraniano per i diritti umani
#NaserBakrzadeh #FreePoliticalPrisoners #StopExecutionsInIran #Iran
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Benessere psicologico dei giovani: 1 su 7 vive con un disturbo diagnosticato

@scuola

corriereuniv.it/benessere-psic…

La salute mentale dei giovani è diventata una delle priorità globali più urgenti, come evidenziato più volte dalla World Health Organization (WHO). Negli ultimi anni, i dati raccolti

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

INTELLIGENZA ARTIFICIALE E PRIMO MAGGIO: QUANTI ANNI ANCORA FESTEGGEREMO?

@news
Nessuno ci toglierà il Natale nonostante l’immigrazione favorisca gli abusi edilizi solo per la costruzione di moschee per la nostra conversione all’Islam.
L'articolo INTELLIGENZA ARTIFICIALE E PRIMO MAGGIO: QUANTI ANNI ANCORA FESTEGGEREMO? proviene da GIANO NEWS.

#EDITORIALI

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

#pcknews #noguerra

Il manifesto di Palantur, la metamorfosi "mostruosa" della Silicon valley

valigiablu.it/manifesto-palant…

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Qual è la fotografia spaziale che ti ha colpito di più?
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

𝗣𝗶𝗻𝗴𝘂𝗶𝗻𝗶 𝗱𝗲𝘁𝗲𝗰𝘁𝗶𝘃𝗲: 𝗹𝗲 𝗻𝘂𝗼𝘃𝗲 𝘀𝗲𝗻𝘁𝗶𝗻𝗲𝗹𝗹𝗲 𝗰𝗼𝗻𝘁𝗿𝗼 𝗴𝗹𝗶 𝗶𝗻𝗾𝘂𝗶𝗻𝗮𝗻𝘁𝗶 𝗶𝗻 𝗣𝗮𝘁𝗮𝗴𝗼𝗻𝗶𝗮

I pinguini di Magellano che abitano le coste della Patagonia sono diventati, a loro insaputa, dei veri e propri assistenti di ricerca, per il monitoraggio dei prodotti chimici che resistono per decenni nell'ambiente senza degradarsi, noti tecnicamente come PFAS.

buff.ly/3IfsHNJ

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Sensitive content

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

5 maggio, roma, palazzo esposizioni: “tecniche miste su schermo”

cliccare per ingrandire
.
#avanguardia #BrunoDiMarino #cinema #cinemaDiRicerca #film #filmSperimentale #filmSperimentali #MarioSchifano #PalazzoDelleEsposizioni #PalazzoEsposizioni #Schifano

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

persian surgery dervishes / terry riley. 1971-72


[youtube=youtube.com/watch?v=sqQ59i4PmG…]
#experimentalMusic #music #musica #PersianSurgeryDervishes #TerryRiley

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

let there be more light / pink floyd. 1968


youtu.be/Gh5bAie2pHw
#LetThereBeMoreLight #PinkFloyd

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

A2A v1: comunicazione cross-platform tra agenti AI nel Microsoft Agent Framework per .NET
#tech
spcnet.it/a2a-v1-comunicazione…
@informatica


A2A v1: comunicazione cross-platform tra agenti AI nel Microsoft Agent Framework per .NET


Con il rilascio dell’A2A Protocol v1.0 e il relativo supporto nel Microsoft Agent Framework per .NET, il mondo degli agenti AI multi-vendor fa un passo importante verso la maturità. Non si tratta solo di un aggiornamento di versione: A2A v1 è il primo standard stabile e production-ready per la comunicazione tra agenti intelligenti, indipendentemente dal framework o dal provider che li ospita.

Il problema: isole di agenti incompatibili


Chi sviluppa sistemi multi-agente in ambienti aziendali lo sa bene: ogni team usa il proprio framework, ogni divisione ha i propri provider AI, e ogni volta che due agenti devono comunicare si finisce a scrivere codice di integrazione su misura. Il costo di questo «collante» cresce più in fretta del valore che gli agenti stessi producono.

Il protocollo A2A nasce esattamente per eliminare questa frizione. L’analogia è quella di HTTP e REST per i servizi web: prima di avere standard condivisi, ogni integrazione richiedeva codice proprietario. Dopo, è diventato possibile comporre servizi indipendentemente dal linguaggio o dalla piattaforma sottostante. A2A vuole fare la stessa cosa per gli agenti AI.

Chi c’è dietro A2A v1


Il protocollo è governato da un comitato tecnico con rappresentanti di AWS, Cisco, Google, IBM Research, Microsoft, Salesforce, SAP e ServiceNow. Non è un progetto Microsoft-only, ma uno standard aperto con ampio supporto industriale. La versione 1.0 segnala che il protocollo è maturo: i contorni aspri delle bozze precedenti sono stati levigati, le aree ambigue chiarite, e la superficie API è stata progettata per la durabilità nel tempo.

Novità di A2A v1 rispetto alla v0.3


Per chi veniva dalla versione precedente (v0.3), ecco cosa cambia:

  • Stabilità e supporto a lungo termine: v1.0 è la prima versione con garanzie di compatibilità stabile. L’investimento nel codice scritto oggi sarà protetto.
  • Funzionalità enterprise: supporto multi-tenancy, Agent Card firmate crittograficamente per la verifica dell’identità degli agenti, e flussi di sicurezza migliorati per ambienti regolamentati e multi-parte.
  • Architettura web-aligned: A2A v1 si appoggia su protocolli e pattern già consolidati nell’infrastruttura web. È possibile scalare le interazioni tra agenti usando gli stessi load balancer, gateway e strumenti di observability già in uso per i servizi HTTP.


Come funziona nel Microsoft Agent Framework per .NET


La filosofia di design del framework è che l’interoperabilità non deve richiedere una ristrutturazione del codice. Un agente remoto A2A appare nel codice esattamente come qualsiasi altro AIAgent locale: stessa interfaccia RunAsync, stesso streaming, stessa gestione della sessione.

Connettere un agente remoto A2A via discovery automatica


Il protocollo A2A definisce un percorso standard per la discovery degli agenti: /.well-known/agent-card.json. Con A2ACardResolver è possibile scoprire e istanziare un agente remoto in una sola chiamata:

using A2A;
using Microsoft.Agents.AI;

// Punta il resolver all'host dell'agente remoto
A2ACardResolver resolver = new(new Uri("https://a2a-agent.example.com"));

// Risolve l'Agent Card e crea un AIAgent in un solo passaggio
AIAgent agent = await resolver.GetAIAgentAsync();

// Usalo come qualsiasi altro AIAgent
Console.WriteLine(await agent.RunAsync("Qual è il meteo a Milano?"));

Configurazione diretta (per ambienti di sviluppo)


In scenari di sviluppo o sistemi strettamente accoppiati dove l’endpoint è già noto, si può creare un A2AClient direttamente:

using A2A;
using Microsoft.Agents.AI;

A2AClient a2aClient = new(new Uri("https://a2a-agent.example.com"));
AIAgent agent = a2aClient.AsAIAgent(
    name: "my-agent",
    description: "Un assistente specializzato.");

Console.WriteLine(await agent.RunAsync("Di cosa ti occupi?"));

Selezione del protocollo di trasporto


A2A v1 supporta più binding di protocollo. Per default, il framework preferisce HTTP+JSON con JSON-RPC come fallback. È possibile specificarlo esplicitamente:

A2ACardResolver resolver = new(new Uri("https://a2a-agent.example.com"));
A2AClientOptions options = new()
{
    PreferredBindings = [ProtocolBindingNames.HttpJson]
};
AIAgent agent = await resolver.GetAIAgentAsync(options: options);

Streaming in tempo reale


A2A supporta lo streaming via Server-Sent Events. RunStreamingAsync permette di ricevere aggiornamenti in tempo reale mentre l’agente elabora la risposta — particolarmente utile per task lunghi o per mostrare progressi all’utente:

await foreach (var update in agent.RunStreamingAsync("Analizza questo documento..."))
{
    Console.Write(update.Text);
}

Esporre il proprio agente come endpoint A2A


Il meccanismo funziona anche in senso inverso: qualsiasi AIAgent già costruito — su Microsoft Foundry, Azure OpenAI, OpenAI, Anthropic, AWS Bedrock o qualsiasi altro provider supportato — può essere esposto come endpoint A2A con poche righe di hosting. Nessun boilerplate di protocollo da scrivere, nessun refactoring necessario quando si decide di rendere un agente interno disponibile ad altri team o a partner esterni.

Quando ha senso adottare A2A v1


A2A v1 diventa rilevante non appena si esce dai prototipi mono-agente. I casi d’uso tipici includono:

  • Un agente di procurement che deve consultare un servizio di compliance di un partner
  • Un agente di customer support che cede il controllo a un agente specializzato di un’altra divisione
  • Pipeline di elaborazione dove agenti diversi (analisi, sintesi, verifica) sono costruiti da team differenti
  • Ecosistemi ISV dove prodotti di terze parti devono integrarsi con gli agenti della piattaforma principale


Conclusioni


A2A v1 è una tappa importante nell’evoluzione degli agenti AI verso sistemi distribuiti e interoperabili. La scelta di costruirlo come standard aperto con sponsorship industriale ampio — e non come API proprietaria Microsoft — è un segnale di maturità dell’ecosistema. Per i team .NET che stanno costruendo o pianificando sistemi multi-agente, vale la pena investire nella migrazione dalla v0.3 o nell’adozione diretta di v1: la stabilità garantita e le funzionalità enterprise rendono il protocollo adatto alla produzione oggi.

Fonte: A2A v1 Is Here – Microsoft Agent Framework Blog (Sergey Menshykh, Microsoft)


Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Mercato italiano del lavoro: osservando la variazione annuale, che permette di evitare di prendere il dato mensile e scagliarlo nella stratosfera, i numeri sono eloquenti:

Occupati: - 30k
Disoccupati: - 304k
Inattivi: + 351k

E' così che il tasso di disoccupazione scende.

istat.it/comunicato-stampa/occ…

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Buongiorno, inauguro oggi le mie

Riflessioni tossiche sul Fediverso.

Prima puntata.


Come sapete, da alcuni mesi sono stato bannato da una community a causa di fantomatici "commenti tossici". Ci scherzo spesso su.

Infatti la cosa divertente è che per mesi non mi sono accorto del ban perché quella community proprio non la citavo mai, né la seguivo. Sono passati sei lunghi mesi prima che qualcuno mi soprendesse chiedendomi per quale diavolo di motivo pesasse sulla mia testa un ban.

Non ricordo appunto di averla mai citata, ma forse ho incidentalmente risposto in modo un po' deciso a un qualche post che la citava. Altrimenti non riuscirei a spiegarmi il ban.

Per evitare ulteriori incidenti ho silenziato con un filtro tutto ciò che cita il server Lemmy in cui tale community si trova.

§

Ora rifletto. A che cosa serve seguire da Mastodon una community? Quali vantaggi si hanno nel citarla?

Seguire da Mastodon una community su un certo argomento ci permette di vedere post su quello stesso argomento da parte di account perfino eventualmente non visibili dalla nostra istanza, viceversa citarla permette al nostro post di essere visto da chiunque la segua, anche da chi si trovi in un'istanza che non ci vede. Questo è il vantaggio che le community danno rispetto al semplice uso degli hashtag.

Nella prossima "riflessione tossica" parlerò più diffusamente degli hashtag. Oggi, per intossicare un po' chi sta leggendo, dirò soltanto che, almeno per me che scrivo in italiano, non penso che in realtà ci siano grosse differenze tra la citazione delle community e l'uso degli hashtag.

Cioè non credo che citare una community mi renda molto più visibile che usare direttamente un hashtag. Per questo, dopo avere provato le community Lemmy per qualche settimana, ho smesso e sono tornato ai cari vecchi hashtag.

Usando gli hashtag ho un grosso vantaggio: evito di trovarmi di nuovo bannato, senza saperlo, da un moderatore ipersensibile.

#riflessionitossiche #community #hashtag

Questa voce è stata modificata (4 giorni fa)
in reply to Yohanan ✨

Ti do perfettamente ragione. Tuttavia:

  1. non pretendo che le mie opinioni siano la verità;
  2. c'è modo e modo di esprimere le proprie opinioni, per quanto mi riguarda sono cosciente di farlo in modo brusco;
  3. dev'essere mia cura cercare di usare qualcosa che, come gli hashtag, gestisco io utente singolo, anziché mettermi nelle mani di qualche admin che non conosco e che può essere anche solo di pessimo umore in quel momento.
Questa voce è stata modificata (1 settimana fa)