Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Come funziona la manovra di gravity assist


La fionda gravitazionale (in inglese gravity assist o gravitational slingshot) è una manovra che sfrutta il campo gravitazionale di un corpo celeste per modificare la velocità e la traiettoria di una sonda spaziale senza consumare propellente.

La manovra consiste nell'avvicinare la sonda a un pianeta secondo una traiettoria accuratamente calcolata, in modo da scambiare energia e quantità di moto con il pianeta stesso. Poiché la massa del pianeta è enormemente superiore a quella della sonda, l'effetto sulla velocità del pianeta è trascurabile, mentre quello sulla velocità della sonda può essere molto significativo. Immaginiamo di far rimbalzare una pallina da ping pong contro un treno in corsa: la pallina accelera moltissimo, mentre il rallentamento del treno è impercettibile.

A seconda di come avviene il sorvolo, la sonda può acquistare o perdere velocità rispetto al Sole, oltre a modificare la propria traiettoria. Per esempio, Voyager 2 sfruttò i flyby di Giove, Saturno e Urano per raggiungere Nettuno e poi dirigersi verso lo spazio interstellare, mentre BepiColombo sta usando una serie di sorvoli di Terra, Venere e Mercurio per perdere energia e inserirsi in orbita attorno a Mercurio. A seconda della manovra, la variazione di velocità che si ricava può equivalere anche a molte tonnellate di propellente.

Una forma rudimentale di gravity assist fu usata già dalla sonda sovietica Luna 3 nel 1959: in quel caso il sorvolo della Luna servì soprattutto a modificarne la traiettoria, permettendole di trasmettere a Terra le prime fotografie della faccia nascosta del nostro satellite.
Da allora la “fionda gravitazionale” è diventata uno strumento indispensabile per rendere possibili missioni interplanetarie altrimenti troppo costose o di fatto impossibili.

A volte il gravity assist permette di cambiare il piano orbitale: l’esempio più famoso è quello della sonda ESA/NASA Ulysses, che nel 1992 sfruttò un flyby di Giove per ruotare il piano dell’orbita di circa 80 gradi e portarsi in un’orbita solare quasi polare, cosa che sarebbe stata impossibile con un lanciatore.

La tecnica è stata usata anche in campo commerciale. Nel 1997 il satellite per telecomunicazioni AsiaSat 3 finì in un'orbita ellittica molto inclinata e inutilizzabile, invece dell'orbita geostazionaria prevista, a causa di un problema durante il lancio. Il satellite fu considerato perso e l'assicurazione ne pagò i danni, ma la società Hughes lo acquistò, lo ribattezzò “HGS-1” e l'anno seguente, attraverso due ingegnosi gravity assist lunari, riuscì a riportarlo su un'orbita utilizzabile, anche se la manovra consumò gran parte del propellente, riducendo la vita operativa del satellite.

@destinazione_stelle@poliversity.it:

Quiz del lunedì. A che cosa servono le manovre di “fionda gravitazionale” (gravity assist)?
Appuntameno a domani per la discussione delle risposte, non suggerite e non cercate su internet!

#QuizTime
@astronomia



Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

nel podcast ‘la finestra di antonio syxty’ luciano neri e il suo libro “opera buffa” (tic, 2025)


open.spotify.com/episode/0GjHw…

open.spotify.com/episode/0GjHw…

Nel podcast La finestra di Antonio Syxty, Luigi Severi e Samuele Maffei in dialogo su Opera buffa, di Luciano Neri (TIC, 2025).

il libro: ticedizioni.com/products/opera…

Dal sito dell’editore: “Diceva Marx che la storia si ripete sempre due volte, prima come tragedia, poi come farsa. In questo libro, l’autore narra la vicenda esemplare della fine di Alessandro Pavolini e mostra l’esatto momento in cui, nella sua biografia, tragedia e farsa si intrecciano indissolubilmente in un’unica fabula, fino al punto di non poter più essere distinguibili.”
#AlessandroPavolini #AntonioSyxty #fascismo #LaFinestraDiAntonioSyxty #LucianoNeri #LuigiSeveri #MicheleZaffarano #MTM #MTMLlaFinestraDiAntonioSyxty #MTMTeatro #OperaBuffa #ProsaInProsa #SamueleMaffei #scritturaDiRicerca #scrittureDiRicerca #Tic #TicEdizioni #UltraChapBooks

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

#newbook

💻 La #calcolabilità delle funzioni e la #complessità #computazionale dei relativi problemi sono argomenti teorici di base dell’#Informatica e dell’attività di #programmazione, affrontati in questo #manuale con uno spirito principalmente didattico e divulgativo, rivolto soprattutto agli studenti dei corsi di laurea a carattere scientifico

📖 Leggilo in #openaccess: libri.unimi.it/index.php/milan…

@cultura

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Quest’anno i vincitori della Biennale d’arte di Venezia saranno scelti dai visitatori. L’ha deciso il presidente della Biennale in seguito alle dimissioni della giuria.
flipboard.com/@ilpost/news-6pg…


La Biennale può fare a meno della giuria?
https://www.ilpost.it/2026/05/13/biennale-giuria-cosa-succede/?utm_source=flipboard&utm_medium=activitypub

Pubblicato su News @news-ilPost


Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

«It's a feature, not a bug».
ngmx.com/@sindarina/1165652301…


That thing where a 'protest' against temporary housing for asylum seekers 'got out of hand', and almost set fire to the building because right-wing 'activists' who claim to have 'concerns' about their 'safety' attempted to block the fire department from reaching the fire.

It's a feature, not a bug 😒

With a reminder that the 'men without families' framing is bullshit; the same intimidation tactics were used when a different municipality wanted to house a group of teenage girls.

Not even going to link to a profile of a local framed as a concerned family man who just feels he isn't being heard 🙄

nrc.nl/nieuws/2026/05/12/prote…

nhnieuws.nl/nieuws/359765/prot…

#News #OrganisedAffiliatedFuckers #NLpol


Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Ciao, ho bisogno di soldi per campare, voi ne avete? Me ne dareste un po'? Non è che non faccio niente: oltre a essere un buon casalingo (pulizie, fare spesa, rassettare, piccole riparazioni, ecc.), curo questi siti:

mastodon.help/ (aiuto per mastodon e fediverso, con un motore di ricerca per istanze mastodon)

git.lattuga.net/jones/ (programmetti vari)

iedm.it/ (per la conoscenza critica e la presenza alternativa del mondo popolare e proletario)

pixelfed.social/ahi/ (foto)

bu.noblogs.org/ (blog con tante citazioni lunghe da tanti bei libri)

Ho aperto questo coso dove potete mettere i vostri soldi per me, donate.stripe.com/00w5kC5WH72E…

Certo, è Stripe e fa cagare, c'è dentro pure Musk, come in PayPal, ma tanto poi anche tutti i servizi tipo buymeacoffee, ecc., si basano su quello, quindi tanto vale usare direttamente quello mi sa.

#FediChiedi #BoostGraditi

Questa voce è stata modificata (19 ore fa)
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

A new study in The Lancet shows that the rate of fake citations increased more than 12x between Jan 2023 and Feb 2026.
thelancet.com/journals/lancet/…

#AI #Citations #Hallucinations

Questa voce è stata modificata (4 giorni fa)
in reply to petersuber

sad that they used an (hosted) llm for detection of false positive. It means that their results and software toolchain are not easily reproducible 🫠

While I’m rather convinced that llm and the seemingly linked publication increase are polluting science, I wonder if the mean number of citation also increased on the 2023-2025 period. Couldn’t it explain the increase of fabricated citations ?

Questa voce è stata modificata (4 giorni fa)
in reply to petersuber

The media in this post is not displayed to visitors. To view it, please go to the original post.

Update. "We find a sharp rise in non-existent references following widespread LLM adoption… These errors are…especially pronounced in fields with rapid AI uptake, in manuscripts with linguistic signatures of AI-assisted writing, and among small and early-career author teams. At the same time, hallucinated references disproportionately assign credit to already prominent and male scholars."
arxiv.org/abs/2605.07723

#AI #Citations #ECRs #Gender #LLMs #Hallucinations

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

#OpenPharma just published a vision statement calling on #pharma companies to make their research #OpenAccess.
bmjopen.bmj.com/content/16/5/e…

The vision statement calls for OpenAccess to texts, #OpenData (under #FAIR principles), open #PIDS (#ORCID and #ROR), plain language summaries, and patient involvement.

It understands that the goal is a stretch. and distinguishes easier short-term goals from harder long-term goals, while arguing for both.

OpenPharma is funded by voluntary contributions from pharma companies, and considers itself a collaboration of "a number of important stakeholder groups: the pharmaceutical industry, publishers, patients, academics, regulators, editors, non-pharmaceutical funders and societies."
openpharma.blog/wp-content/upl…

Also see the OpenPharma home page.
openpharma.blog/

#Medicine #OpenScience #ScholComm

Questa voce è stata modificata (2 giorni fa)

reshared this

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Questa conferenza non è dedicata alle dita, ma alla luna. Aggiungo qui sotto i quesiti che ho posto ai due oratori.

Una notte del settembre del 1983, il sistema russo di early warning rilevò che cinque missili nucleari americani stavano per colpire il Paese. Sugli schermi dei computer del sistema apparve la parola launch, l’ordine automatico di prepararsi a rispondere all’attacco. Erano mesi di grande tensione tra le due superpotenze. Per fortuna, quella notte era in servizio il tenente colonnello Stanislav Petrov, non un ottuso militare che rispondeva in modo acritico e automatico alle allerte,ma un ingegnere che aveva contribuito a progettare il software per il sistema di early warning e aveva la mente inquisitiva di chi diffida di algoritmi e programmi software, perché consapevole che sono soggetti a errori. Petrov cercò di resettare il sistema, ma l’allarme non rientrò. Nei pochissimi minuti che aveva a disposizione, ragionò che se davvero gli Stati Uniti avessero sferrato un attacco nucleare contro l’Unione Sovietica non avrebbero di certo usato solo cinque missili: si capì successivamente che i riflessi del sole sulle cime delle nuvole avevano ingannato i satelliti del sistema, portandoli a rilevare missili nucleari inesistenti. (Stefania Maurizi, L’arma finale, Milano, 2025, I)


Se al posto del tenente colonnello Petrov, che disubbidì agli ordini, ci fosse stato un programma per computer venduto come intelligenza artificiale, oggi saremmo tutti morti (Zachary Kallenborn, «Giving an AI control of nuclear weapons: What could possibly go wrong?», Bulletin of the Atomic Scientists, 2022, thebulletin.org/2022/02/giving… ).

Si organizzano molte conferenze dedicate ai programmi per computer detti intelligenza artificiale, come se non fossero una semplice tappa di un lungo processo di surrogazione e privatizzazione dell’intelligenza, bensì, di per sé, una rivoluzione. Joseph Rotblat, fondatore, con Bertrand Russell, della Pugwash Conferences on Science and World Affairs, ha sostenuto che

non dobbiamo semplicemente abolire le armi nucleari. Abolendole, possiamo eliminare un pericolo immediato, ma alla lunga non sarebbe sufficiente a proteggere l’umanità, perché le armi nucleari e le altre armi di distruzione di massa non possono essere disinventate o cancellate dalla mente umana. Quello che voglio dire è che non dobbiamo eliminare solo gli strumenti della guerra, dobbiamo eliminare la guerra stessa (S. Maurizi, L’arma finale, III.3).


Il pacifismo di Rotblarr, come quello di Einstein, ha avuto la forza di interrogarsi, prima che sulle armi, sul sistema che le ha rese possibili, accettate, promosse e rese banali.

Similmente, studiosi indipendenti in un’università indipendente dovrebbero chiedersi, invece di lasciarsi ipnotizzare da programmi per computer e dalle loro etiche eventuali, perché e da parte di chi si preme perché l’intelligenza venga surrogata.


E siete a #Pisa anche il 22 maggio?

Siete tutti graditi a questo incontro dibattito con la prof. @mcp , il prof. #GiuseppeLongo e me!


Questa voce è stata modificata (7 ore fa)
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Looks like Chromebook is being replaced with something called "Googlebook" and it is full-scale Microsoft-style Surveillance PC. Apparently anytime you "wiggle your cursor" anything that is underneath the cursor gets fed into Google's surveillance AI blog.google/products-and-platf…

One of these things that makes me consider detecting the platform from my webserver and blocking it entirely because the probability of whatever I wrote becoming an LLM input is too high

in reply to mcc

The surveillance PC mentioned in LITTLE BROTHER will be defeated. And probably in someplace like Canada or Finland or Poland, where they don't care if you threaten the country with tariffs for ignoring DCMA. They already have tariffs.

I'm sure someone will figure out how to overwrite the firmware so you can load linux on the thing. It took how long for Chromebooks to become crap?

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Il monitoraggio delle intrusioni su Android come nuova fonte di dati per l'analisi forense consensuale


Google ha annunciato oggi il lancio di una nuova funzionalità di "Registrazione delle intrusioni Android" nell'ambito della Modalità di protezione avanzata di Android (AAPM). Questa nuova funzionalità promette di essere un valido supporto per i ricercatori di informatica forense impegnati in indagini su attacchi sofisticati ai dispositivi Android. È la prima volta che un importante produttore di dispositivi rilascia una funzionalità specificamente progettata per migliorare la capacità di rilevare e contrastare, a livello forense, le minacce digitali avanzate.

securitylab.amnesty.org/latest…

@informatica

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

«Eventi come esplosioni nucleari, fulmini o impatti meteoritici funzionano come veri laboratori naturali. Permettono di osservare forme di materia che non riusciamo a riprodurre facilmente in laboratorio».

ansa.it/canale_scienza/notizie…

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Braggarts and bards


Of Palantir, CEOS, power, its servants, and its bards.

First, a quick service announcement. After years, I’ve finally decided to put the DataKnightmare scripts online. It took a while to find software, and a provider, that relied as little as possible on the United States. Especially if you’re like me and, even if you’re not pissed off, you lose you heart over the futility of it all. Not exactly the attitude for winning marketing.

Luckily, there’s Elena Rossini, who faced the same problem and shared her solution with me. So, starting today, if DataKnightmare finally has a home at dk.dataknightmare.eu, we owe it to Elena as well. For now, I’ve uploaded two seasons in English and the latest one in Italian. It’ll take a while, but not another ten years.

Let’s get down to business. Amid the infernal noise of useless news coming out every fifteen minutes, I thought I caught something interesting.

You’ve probably read about the so-called “Palantir manifesto,” those twenty or so points on Twitter that summarize the book by Alex Karp, CEO of Palantir.

And you may have heard about the so-called “interview with Claude” conducted by Walter Veltroni, an Italian politician, on a national newspaper.

Before you stop listening, let me say right away I have no intention of going into detail about either one. I barely skimmed Palantir’s tweets, and as for Veltroni’s interview (whatever it contains) I don’t deem it worth the time it would take me to read it.

And then?

And then I want to talk not about either of those things (because they’re clearly both nonsense) but about what they represent, which I actually find interesting.

Let’s start from the beginning. From a long time ago.

My generation brought information technology into the workplace. Since I didn’t fight at Waterloo, automation was already there, but my generation did see typewriters and fax machines get replaced first by WordStar, then Word, and finally the whole shebang.

These were tumultuous decades during which everything that could be digitized was digitized: sometimes well, sometimes so-so, and other times, just like shit.

It was a period when everyone dreamed their own version of the mythical “flat organization” about which all business schools wrote entire shelvefuls.

My point is that an organization is not just a technological construct. It is a complex socio-technical structure, where technology plays a part. The result is that the mere arrival of a technology does not automatically bring about changes in the processes and social structure of the organization, due to the interactions and feedback loops among all the components of the system.

To put it more bluntly: whatever technologists may think, there are no purely technological solutions to the problems of a socio-technical system.

One of the most striking examples is, for instance, “going paperless”, a topic on which I personally have spent many years and a great deal of effort. I believe we can all agree that there has never been as much paper in offices as there has been since documents went digital. No longer used for storage, maybe, but incessantly printed and reprinted every time a document is needed.

And since documents have gone digital, there are countless versions of them, all subtly incompatible with one another, all living independent lives in different parts of the organization.

To give a simple example, there used to be letterhead (spoiler alert, it still exists, but only for contracts signed by top executives); today, every single local office, and every department within that office, has its own “official” version of the letterhead, with a specific version of the logo, different from all the others.

If, on the other hand, you feel too tech-savvy for letterhead, we can talk about processes, software, APIs, and the related documentation, of which there are as many versions as there are developer teams.

Every incompatibility that arises during a project is resolved , and sometimes documented, on a case-by-case basis by the various teams that must collaborate, with the sole result that, in the end, there will be yet another version of the code, and sometimes of the documentation too. And don’t tell me your Confluence or your GitHub are in order.

What happened to documents happened to everything, of course. Processes, tasks, hierarchies.

The issue of hierarchy is an interesting one. We were saying earlier that everyone dreamed of their own version of the mythical “flat organization” that business schools assured us was the future.

For me and those like me, a flat organization meant a top leadership that would set strategic direction, and immediately below that a line of highly competent operatives with complete autonomy, eliminating any interference from top management in technical decisions and getting rid of the useless third of middle management.

For middle management, “flat organization” meant automating or outsourcing, but in any case eliminating, the useless third of the operatives, with their fixation on raising technical objections to the strategic directives from the top (and to middle management’s interpretations thereof).

For top management, too, “flat organization” meant eliminating the unnecessary third of operatives and interfacing exclusively with middle management, so as to finally overcome the need to consider so-called “technical details.”

If you look around today, it’s not hard to see who won. Top management is still all there, and middle management has more people than ever. The flattening of organizations, if it happened at all, meant mostly ousting and outsourcing technical expertise.

At the same time, there has been a significant evolution in top-level roles. With the advent of venture capital from the 2000s onward, top executives have shifted from being managerial figures to being increasingly performative ones. In no role is this more evident than in the role of the CEO. Today, the CEO is above all someone capable of weaving a compelling narrative of their "vision" for the future, in order to raise, on the market or from private investors, the funding necessary to build it.

Whether that future makes technical or economic sense, whether it is even possible, or whether it bears any relation to the future described in the last financial report, is unimportant.

What matters is that the CEO, and the narrative they present for this quarter, continue to inspire investor confidence. Nothing else matters.

Today’s CEO doesn’t need to be capable of “doing,” nor even of "leading" anymore. He just needs to know how to persuade. Relentlessly, changing the story whenever necessary without batting an eye. His defining qualities are stubbornness and an inflated sense of self-worth, which, unfortunately, are also hallmarks of the pathological narcissist.

Think of Zuckerberg, who started with the brilliant idea of creating a social network where his classmates could rate female students’ bangability; luckily, Sheryl Sandberg came along to help him actually make money; then he tried to reinvent money (remember Libra?), then he peddled the metaverse, and now he’s trailing the AI bandwagon after the disastrous launch of Galactica, which shut down in 72 hours.

Think of Musk, who has the imagination of a mediocre teenager in 1975, and his endless bullshit about self-driving cars, colonizing Mars, and mega-constellations of satellites.

Think of the best of them all, Sam Altman: a guy who writes a blog and the world goes crazy as if John the Evangelist had just published a revised version. Altman has bamboozled the entire venture capital world with the sole promise of burning through all the investors’ money only to raise even more.

From one boast to the next, they all think their success isn’t the result of luck, connections, government contracts, and monopoly, but of their being special, and especially visionary. While Taleb teaches us that moderate success can be explained by skill and effort, but overwhelming success is explained by variance.

Let’s not digress. Today, a digital CEO must be able to declare:

“We are driving the synergistic evolution of our value ecosystem through a holistic and data-driven approach, enabling scalable paradigms of sustainable innovation centered on change.”


and do so with an air of deep conviction. It’s obviously just hot air, but anyone who laughs or thinks the phrase makes no sense will never be a C-level and will never get an interview.

In tandem with the performative shift of CEOs and founders, the media system has also adapted. With bankruptcies, restructurings, and acquisitions, today the media are, with few exceptions, outsourced marketing in the hands of the very industrialists the media should be investigating. Let’s be clear: every powerful figure has always had sycophants and hagiographers in every publication, but today the media is required to stick to amplifying the corporate narrative. Washington Post, anyone?

A certain mythical, very American interpretation of the digital sector and its players has also contributed to this, and not insignificantly. From William Gibson’s “keyboard cowboys” to Steven Levy’s “heroes of the digital frontier,” every effort has been made to revive the foundational myth of the Frontier, with all its toxic baggage, for the digital age.

The result is that today, the protagonists themselves view themselves in mythical terms. Sure, it couldn’t be any other way; no one wants to think of themselves as merely a lucky teller of six-monthly fairy tales, no matter how skilled.

No, instead they are all “visionaries,” “builders of the future,” if not outright “revolutionaries”, obviously in the capitalist sense of the term, that is, destroyers of industries and communities for their own exclusive benefit and that of their investors.

This finally brings us to Palantir and Alex Karp. He is not content with merely having founded a company that got fat on military contracts (capitalists want the state reduced to a bare minimum except when it's a client a client) but he channels his own mythical image as the defender of a West conveniently besieged only by those problems his products claim to address.

And not, for instance, by unprecedented economic and social inequality, by global social and climate changes, or by a caste of tax-exempt billionaires with a penchant for oligarchy. Once again, we are witnessing the bluster of someone who has not a single original idea in his head and has made his fortune precisely because of that.

That Karp, like all his other billionaire buddies, believes he has a “vision” to communicate to the public (beyond the quarterly earnings report) is no surprise. Nor is it surprising that he reiterates the book’s themes in a series of tweets, perhaps to compensate for less-than-overwhelming sales: everyone, after all, wants to be seen.

But if you scratch just beneath the surface of these CEOs’ narratives, you realize that Silicon Valley produces nothing but variations on the theme of those who have always created and financed it: the Cold War Pentagon.

Read Amodei, Altman, Karp, Zuckerberg, and Thiel all you want. You’ll always find U.S. supremacy through ICT technology, the export of American capitalist values, social control, and the containment by any means necessary of any competing power on the Eurasian plate.

Stuff that hasn’t changed one iota since 1946, written and systematized by top-tier minds like Bush (Vannevar, scientific advisor to Roosevelt and Truman, namesake but not related to the subsequent presidents George Bush and George Bush the Lesser), Kissinger, Brzezinski, Cheney: people who have steered U.S. policy for decades while the presidents in office played the cool guys on TV, parroting the season's buzzwords.

This does not mean that the oligarchic delusions of Karp and company are harmless, far from it. But they are not evil geniuses. They are merely actors who, offstage, still believe they are Julius Caesar.

These fake champions of free enterprise with public money, these self-appointed “inventors of the future,” are merely parroting the catchphrases of those who created, and sustain, them.

Now, power attracts servants and sycophants, as I said. But it isn’t satisfied with them, whom it ultimately despises. Every powerful person, and all the more so every nouveau riche braggart, needs to feel validated by someone whose social or cultural stature they secretly envy.

And here comes the bard. Somebody who in the 20th century would have been called an “organic intellectual,” whose task is to use their own art and culture to make the powerful shine. The bard is subtler than the sycophant, and can even afford a superficially critical attitude, because his role is not to confirm the narrative of the powerful point by point (there's already servants and sycophants for that), but to validate it by taking it completely for granted, and to distract attention from the problems, with a highly erudite discussion of some insignificant detail.

So, while the AI guys are wooing investors with fairy tales of sentient machines and the elimination of workers, sorry, the transcending of work, the bard doesn’t get into the substance of the matter, but instead interviews artificial intelligence. This is what Walter Veltroni, a seasoned Italian politician, did just last week. From someone like him I would have expected, if not more dignity, at least better timing. Interviewing an Artificial Intelligence is so fall-winter 2023.

The bard is more insidious than the sycophant, because he doesn’t take a stand for or against. He merely includes the narrative of power in the “cultured” debate.

If power speaks of next-generation nuclear power, the servant will shout from the rooftops that solar and wind power are outdated; the sycophant will point out that the green area around the plant is ideal for a family picnic.

The bard, on the other hand, will wax emphatically about how the cooling towers might inspire a XXI-century Wordsworth to compose a modern version of Tintern Abbey

The digital bard, with all his erudition, has nothing specific to say, but he says it with refined words and high-sounding quotes. His task is not to discuss or refute, but to undermine any serious debate by taking the narrative of power for granted and constructing a seemingly scholarly discussion on completely marginal details.

And in this, Veltroni has done his job. The very act of “interviewing” an automatic text generator, and choosing to do so on issues that would be profound if he were talking to a human being and not to a rhetorical mirror, is the most devastating weapon one could bring to bear in support of the millenarian delusions of the digital braggarts.

If the role of public intellectual still has any meaning, Veltroni’s puff piece is a complete betrayal of that role, it is the subjugation of culture to the interests of those who have no culture whatsoever, but are awash in money.

While actual experts have pointed out since forever how harmful it is (and whose interests it really serves) to anthropomorphize a technology like so-called "Artificial Intelligence", Veltroni just waltzes in and interviews "AI" on the meaning of life. It doesn’t matter that the obviously "AI" has nothing to say on the matter. What matters is that a text generator suddenly comes across as something you can actually “talk” to about such a topic.

Veltroni could have truly played the intellectual and discussed the point of a European Union willing to chase after the United States in a speculative bubble. He could have talked about the problems of using Artificial Intelligence in the professions, in the media, and in education.

He could even have played the left-wing intellectual and spoken of oligopolies and rent-seeking, of techno-feudalism, of the political role of Artificial Intelligence in dismantling the bargaining power of labor.

He could have talked about all of this and much more.

Instead, he chose to play the cheerleader for the nouveau riche braggarts, and in doing so, I believe he has established his place in the hierarchy where Leonardo Sciascia listed men, half-men, little men, ass-kissers, and windbags.

I have an idea.

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Bentornato @lastknight!


youtu.be/pACV5dgF1Ng?si=MIRqSL…

reshared this

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

that's why I won't rely on wordpress.com - it's a centralized system. I have created a new wordpress.com user recently to find out if there are still some of my project's followers there. But my main project will be on a self-hosted WordPress. Otherwise I'm screwed! #ddos #security #wordpress
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Forse mi sbaglierò, ma quando entrai nel Fediverso, ormai 5 anni fa, mi sembrava tutto più caotico.

Bello, eh. Sicuramente più pulito dei “soliti social”, meno vetrina, meno algoritmo col megafono, meno gente che urla nel vuoto sperando che il vuoto metta like.

Però era comunque un periodo strano, poco prima dell’acquisto di Twitter da parte del noto genio interplanetario, quello che riuscì nell’impresa titanica di prendere una piattaforma già problematica e trasformarla in X, cioè in una specie di parcheggio digitale con le luci al neon rotte.

Il Fediverso, invece, nel frattempo è cresciuto.

Non è diventato perfetto, per carità. Ogni tanto passa ancora il meteorite, l’esperto di tutto, il predicatore con la tastiera benedetta, quello che arriva, fa rumore e poi sparisce come un pacchetto UDP nel Wi-Fi del vicino.

Però oggi lo sento diverso.

Più definito.
Più maturo.
Più casa.

Forse si sono delineati meglio i contorni, forse ognuno ha trovato il proprio angolo, forse abbiamo imparato tutti un po’ meglio come stare in questo condominio decentralizzato dove non c’è l’amministratore unico, ma in compenso ci sono tanti portinai volontari con il server acceso, il backup programmato e l’ansia da aggiornamento.

E devo dirlo, mi piace.

Mi piace vedere persone vere, conversazioni normali, istanze con carattere, comunità piccole ma vive, gente che non cerca per forza di diventare virale, ma semplicemente di esserci.

Sì, ci sono le eccezioni. Ma nel Fediverso, almeno, spesso durano poco. Entrano facendo casino, poi vengono silenziate, bloccate, defederate, ignorate o semplicemente evaporano nel grande nulla cosmico delle cattive maniere.

Il Fediverso mi piace sempre di più.

Non sarà perfetto, ma rispetto ai recinti tossici dei social commerciali sembra quasi una baita in montagna, con il camino acceso, la fibra che ogni tanto cade, Mastodon che chiede RAM, PostgreSQL che ti guarda male e una comunità che, tutto sommato, ti fa pensare,

“sì, qui ci posso stare”.🙏

in reply to 𝕊𝕟𝕠𝕨

The media in this post is not displayed to visitors. To view it, please go to the original post.

vero,
hai ragione e proprio nn avrei usato parole migliori per descrivere la sensazione che dal novembre '21 provo quando apro🐘
Prima M.social, Mastodon uno poi;
È grazie a voi tutti che ho imparato cose nuove, scoperto 🐧 Linux che essendo di un'altra epoca io il Pc lo vedevo pochissimo
Grazie Fediverso, e grazie pure a te SnoW... che hai fatto tesoro di quel che sei...un Umano...ecco vedo che la nostra corrente umanità và sgretolandosi
ci si occupa sempre meno di Noi.
Conta Solo apparire!
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Azure Resource Manager MCP Server: gestire l’infrastruttura Azure con gli agenti AI
#tech
spcnet.it/azure-resource-manag…
@informatica


Azure Resource Manager MCP Server: gestire l’infrastruttura Azure con gli agenti AI


Azure Resource Manager: il piano di controllo di Azure


Azure Resource Manager (ARM) è il piano di controllo dell’intera piattaforma Azure. Ogni operazione che crea, aggiorna o elimina risorse Azure passa attraverso ARM, indipendentemente da dove provenga: portale Azure, CLI, PowerShell, REST API o SDK. È l’unico punto di ingresso autorevole per gestire l’infrastruttura cloud Microsoft.

Con l’esplosione degli agenti AI, si pone una domanda concreta: come possono questi agenti interagire con ARM in modo strutturato, sicuro e coerente? Microsoft ha risposto con l’Azure Resource Manager MCP Server, ora in anteprima pubblica: un server MCP remoto che fornisce agli agenti AI un accesso di prima classe alle operazioni di infrastruttura Azure attraverso il Model Context Protocol.

Cos’è l’Azure Resource Manager MCP Server


Il server MCP per ARM è progettato per essere il layer di accesso degli agenti AI all’infrastruttura Azure, esattamente come lo è per qualsiasi altro client ARM. Nella versione attuale espone due macro-funzionalità principali:

  • Azure Resource Graph (ARG) query: generazione, validazione ed esecuzione di query ARG in linguaggio naturale contro tutti i tipi di risorse Azure
  • ARM Template Deployment: avvio, monitoraggio e cancellazione di deployment ARM su scope di resource group esistenti

In pratica, l’agente AI non esegue direttamente SQL o chiamate REST: descrive ciò che vuole sapere o fare, e il server MCP traduce quella richiesta in operazioni ARM concrete e sicure.

I tool disponibili


Il server espone sei tool principali, ciascuno con un ruolo preciso:

  • generate_query: genera una query ARG a partire da un prompt in linguaggio naturale. Esempio: “Mostrami tutte le VM in esecuzione nel subscription X” → query KQL valida
  • validate_query: verifica che una query ARG sia corretta sintatticamente e sicura prima di eseguirla
  • execute_query: esegue la query ARG contro l’ambiente Azure dell’utente e restituisce i risultati
  • create_template_deployment: avvia il deployment di un ARM template verso un resource group target
  • get_arm_template_deployment_status: monitora lo stato di avanzamento di un deployment ARM
  • cancel_arm_template_deployment: annulla un deployment in corso (utile dopo fallimenti di validazione o policy)


Caso d’uso pratico: interrogare l’infrastruttura in linguaggio naturale


Immagina di voler sapere quante storage account nel tuo tenant non hanno il tag “owner” assegnato. Tradizionalmente dovresti conoscere il linguaggio KQL di Azure Resource Graph e costruire manualmente la query:

Resources
| where type == "microsoft.storage/storageaccounts"
| where isnull(tags["owner"]) or tags["owner"] == ""
| summarize count() by subscriptionId

Con l’ARM MCP Server attivo in GitHub Copilot Chat su VS Code, puoi semplicemente scrivere:
“Conta tutte le storage account senza il tag ‘owner’, raggruppate per subscription”


Il server generate_query crea la query KQL, validate_query la verifica, e execute_query la esegue restituendo i risultati all’agente che li presenta in formato leggibile.

Caso d’uso: deployment di infrastruttura guidato dall’AI


Il secondo use case riguarda il deployment di ARM template. Un agente può ricevere istruzioni come:

“Deploy un’app service con piano B1 nel resource group ‘prod-rg’ in West Europe, usa il template standard dalla nostra libreria”


Il tool create_template_deployment avvia il deployment specificando subscription ID, resource group, nome del deployment e la definizione del template ARM. Il tool get_arm_template_deployment_status permette all’agente di monitorarne l’avanzamento. Se qualcosa va storto, cancel_arm_template_deployment lo interrompe immediatamente.

Governance e sicurezza


Un aspetto critico: il server ARM MCP opera nel contesto dell’utente autenticato in VS Code. Tutte le chiamate vengono eseguite per conto di quell’utente e sono soggette agli stessi permessi e controlli di accesso definiti in Azure. Non ci sono privilegi elevati o bypass del modello di sicurezza Azure: se l’utente non ha i diritti per deployare in un certo resource group, l’agente non li avrà neanche.

Per organizzazioni che vogliono impedire completamente i deployment tramite ARM MCP Server, è possibile applicare una Azure Policy che blocchi esplicitamente le richieste al tool create_template_deployment identificando l’AppID del server MCP (22bfbae3-f4e7-485f-be43-8cee15065084) nel scope desiderato. Un template di policy di esempio è disponibile nel repository GitHub ufficiale.

Installazione e configurazione


Durante questa preview pubblica, il server ARM MCP è supportato su:

  • GitHub Copilot Chat in VS Code
  • GitHub Copilot CLI

Per installarlo:

  1. Apri aka.ms/JoinARMMCP — VS Code si avvierà automaticamente
  2. Quando richiesto in VS Code, clicca su Install sotto “Azure Resource Manager MCP server”
  3. Effettua il login con le credenziali Azure
  4. In VS Code, apri View > Chat e clicca sull’icona Configure Tools
  5. Assicurati che “Azure Resource Manager MCP server” sia spuntato

I prerequisiti sono VS Code installato, un account Azure valido e un account GitHub Copilot.

Considerazioni per gli amministratori Azure


L’ARM MCP Server apre nuovi scenari per i team DevOps e gli amministratori Azure. Alcuni esempi concreti:

  • Compliance automatizzata: agenti che controllano periodicamente le risorse e verificano l’applicazione di policy di tagging, naming convention o configurazioni di sicurezza
  • Troubleshooting accelerato: interrogare in linguaggio naturale lo stato dell’infrastruttura durante un incident, senza dover ricordare sintassi KQL
  • Infrastructure as Code assistita: generare e deployare ARM template partendo da descrizioni in linguaggio naturale, con validazione integrata prima dell’esecuzione

Il limite attuale — solo VS Code e GitHub Copilot CLI come client supportati — sarà probabilmente espanso nelle prossime versioni in base al feedback degli utenti. Microsoft ha aperto un canale dedicato su GitHub per raccogliere segnalazioni e richieste di funzionalità.

Conclusione


L’Azure Resource Manager MCP Server rappresenta un passo significativo nell’integrazione tra agenti AI e infrastruttura cloud. Non si tratta di uno strumento che bypassa la governance Azure, bensì di un layer che la rende accessibile agli agenti rispettandola appieno. Per team che già usano Azure e GitHub Copilot, il valore pratico è immediato: meno sintassi KQL da memorizzare, deployment più veloci da validare, e la possibilità di costruire agenti personalizzati per automazioni di compliance che oggi richiedono script dedicati.

Il server è ora in anteprima pubblica e può essere installato seguendo le istruzioni ufficiali su aka.ms/JoinARMMCP.

Fonti:
Introducing the Azure Resource Manager MCP Server! — Microsoft Tech Community (Steven Bucher, 8 maggio 2026)
Azure/Azure-Resource-Manager-MCP — GitHub


Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

15 maggio, pisa: “opera buffa”, di luciano neri, alla libreria ‘tra le righe’

cliccare per ingrandire
Luciano Neri in dialogo con Chiara Serani
#ChiaraSerani #libreriaTraLeRighe #LucianoNeri #OperaBuffa #presentazione #ProsaInProsa #reading #scritturaDiRicerca #scrittureDiRicerca #Tic #TicEdizioni #UltraChapBooks

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Over the last year, #ICE's brutality has been in full display, and yet the #EU is secretly negotiating #EBSP, an agreement which will give #ICE and #DHS an unprecedented access to our biometric and genetic data.

Read our article in #ComputerWeekly:
computerweekly.com/news/366643…

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Sono felice di aver contribuito a questo numero con un breve articolo sulla struttura del pensiero filosofico, grazie per l'invito 🤓
La ricerca 30 - La ricerca laricerca.loescher.it/la-ricer…

reshared this

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Lui è il terzo avvocato, entrambi i precedenti dopo qualche tempo hanno rinunciato all'incarico.

Non so perché ma ad uno come Pillon non mi affiderei neanche per un'ammaccatura all'auto fatta da una persona mentre veniva ripresa da 40 telecamere.

Boh...

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

.NET Aspire 13.3: tutte le novità della release
#tech
spcnet.it/net-aspire-13-3-tutt…
@informatica


.NET Aspire 13.3: tutte le novità della release


.NET Aspire 13.3 è disponibile, e nonostante siano passate soltanto cinque settimane dalla versione 13.2, questa release porta con sé novità di rilievo: un nuovo skill per l’onboarding assistito da agente, risultati strutturati dai comandi delle risorse, log del browser direttamente nell’orchestratore, e — finalmente — supporto di prima classe a Kubernetes e AKS tramite Helm.

In questo articolo analizziamo le funzionalità più importanti di Aspire 13.3, con esempi pratici per i team che già usano Aspire in produzione o che vogliono iniziare.

Aspireify: onboarding assistito da agente


Una delle novità più interessanti di Aspire 13.3 è il nuovo skill Aspireify, pensato per semplificare l’integrazione di applicazioni esistenti in Aspire. Chi ha già seguito le sessioni AspiriFridays sa bene quanto possa essere laborioso il processo di “aspirificazione”: capire quali servizi sono presenti, quali porte usano, quali variabili d’ambiente sono dipendenze reali e come mappare i servizi Docker Compose verso le integrazioni Aspire native.

Il nuovo skill risolve esattamente questo problema. Quando aspire init crea lo scheletro dell’AppHost in un’applicazione esistente, Aspireify guida l’agente di coding attraverso un workflow strutturato per completare il lavoro:

  • Ispeziona il repository e comprende come l’applicazione è già strutturata
  • Mappa le configurazioni esistenti (es. DATABASE_URL) usando WithEnvironment() invece di riscrivere la configurazione
  • Preserva le porte hardcoded quando necessario, chiedendo all’utente nei casi ambigui
  • Se esiste già un Docker Compose, lo analizza prima di aggiungere nuove risorse

Il principio guida è chiaro: minimizzare le modifiche al codice esistente. L’agente si adatta all’applicazione, non viceversa.

Risultati strutturati dai comandi delle risorse


In Aspire 13.3, i comandi delle risorse possono restituire risultati strutturati al chiamante. Testo e JSON ora fluiscono attraverso il modello, gRPC, backchannel, UI del dashboard, CLI e strumenti MCP.

Questo significa che i comandi possono restituire risposte in markdown formattato — non solo “sì, è andato a buon fine”. Il dashboard integra tutto questo con un nuovo notification center nell’header, dove i risultati dell’esecuzione appaiono come notifiche con timestamp, rendering markdown e un’azione “View response” per l’output completo.

Tra le novità specifiche:

  • I comandi HTTP possono restituire il corpo della risposta, esposto via CLI, dashboard e SDK poliglotti generati
  • Il comando di rebuild delle risorse restituisce l’output del build come dati di testo strutturati, leggibili da strumenti e agenti senza dover fare scraping dei log
  • Le integrazioni di terze parti possono aggiungere comandi che restituiscono risultati significativi invece di cambiare solo stato in background


Browser logs: Aspire vede anche il frontend


La nuova API WithBrowserLogs() collega una risorsa browser tracciata a qualsiasi risorsa con un endpoint. Aspire avvia Chromium usando una pipe CDP privata (invece di un endpoint TCP debug esposto), poi trasmette log della console, richieste di rete ed errori nel log stream della risorsa:

// C# AppHost
var frontend = builder.AddViteApp("frontend", "../frontend")
    .WithHttpEndpoint(port: 3000)
    .WithBrowserLogs();

// TypeScript AppHost
const frontend = await builder.addViteApp("frontend", "../frontend")
    .withHttpEndpoint({ port: 3000 })
    .withBrowserLogs();

La funzionalità è disponibile tramite il nuovo pacchetto prerelease Aspire.Hosting.Browsers. Un comando del dashboard permette di configurare scope, browser e modalità user data a runtime, mentre un comando screenshot salva PNG come artefatti locali durevoli.

Dal punto di vista degli agent workflow, questo è particolarmente potente: l’agente può eseguire l’app, ispezionare i log del browser, catturare cosa è cambiato, correggere il codice, riavviare la risorsa e continuare — senza che lo sviluppatore debba incollare screenshot nella chat.

TypeScript, Python e Java AppHost verso la GA


Aspire 13.2 aveva introdotto l’authoring TypeScript AppHost. In 13.3, il lavoro continua su tutte e tre le piattaforme:

  • TypeScript, Python e Java AppHost espongono ora il set completo di extension method di Aspire.Hosting
  • Le API sono state rese più idiomatiche per ogni linguaggio: metodi come addProject, withEnvironment e withReference sono consolidati per leggere naturalmente
  • Python si aggiunge come nuovo generatore di codice AppHost
  • Java AppHost ora supporta union, optional/nullability, callback e un nuovo template “Empty (Java AppHost)”
  • Il nuovo diagnostico ASPIREEXPORT013 individua ID di capability duplicati a compile time


Kubernetes e AKS: finalmente supporto di prima classe


La novità più attesa della release è senza dubbio il supporto Kubernetes come deployment target di prima classe. Aspire aveva già un’ottima storia per Azure Container Apps e Docker Compose; ora Kubernetes entra nel club.

Il nuovo pacchetto Aspire.Hosting.Azure.Kubernetes aggiunge AddAzureKubernetesEnvironment(), con cui è possibile definire cluster AKS, node pool, tier SKU, cluster privati e Azure Container Insights direttamente dall’AppHost:

// C# AppHost
var aks = builder.AddAzureKubernetesEnvironment("prod-aks")
    .WithHelm();

builder.AddCSharpApp("api", "../api")
    .PublishTo(aks);

// TypeScript AppHost
const aks = await builder.addAzureKubernetesEnvironment("prod-aks")
    .withHelm();

await builder.addCsharpApp("api", "../api")
    .publishTo(aks);

aspire deploy usa Helm sotto il cofano, e il nome del namespace e della release sono configurabili con WithHelm(). Sono disponibili anche routing dichiarativo Ingress e Gateway API con AddIngress() e AddGateway(), inclusa configurazione di route, TLS, hostname e class. Per il teardown, aspire destroy esegue helm uninstall automaticamente — niente più script di pulizia manuali in un README.

Altre novità rilevanti


Aspire 13.3 include molte altre migliorie degne di nota:

  • EF Core migration management: sei comandi (Update Database, Drop Database, Reset Database, Add Migration, Remove Migration, Get Database Status) accessibili da dashboard e CLI, con esecuzione automatica all’avvio dell’AppHost in sviluppo locale
  • Azure networking: Azure Front Door, Network Security Perimeters, endpoint privati per Azure OpenAI e Foundry, ACR privato, e upgrade HTTPS automatici per App Service
  • JavaScript publishing: tre nuovi modelli di pubblicazione — PublishAsStaticWebsite(), PublishAsNodeServer() e PublishAsNpmScript() — con integrazione dedicata AddNextJsApp()
  • CLI: rilevamento automatico di Bun, Yarn e pnpm da lockfile; aspire dashboard standalone senza AppHost; aspire docs api per sfogliare la reference API dal terminale
  • Estensione VS Code: CodeLens e gutter icon nei file AppHost, Simple Browser integrato per il dashboard, workspace auto-restore
  • Docker Compose: supporto Podman tramite rilevamento automatico del runtime


Breaking changes da conoscere prima dell’aggiornamento


Prima di aggiornare, è importante verificare la sezione dei breaking changes ufficiale se si usano:

  • Startup hook Kubernetes/Docker Compose/AKS
  • Endpoint di gestione degli emulator
  • Il server MCP del dashboard
  • Il template starter Python
  • Output name di Azure network


Come aggiornare


Se si usa già Aspire, l’aggiornamento è semplice:

aspire update --self

Per chi parte da zero:
aspire init

oppure visitare get.aspire.dev per installare la CLI.

Conclusione


Aspire 13.3 consolida la piattaforma su tutti i fronti: l’onboarding diventa più semplice grazie ad Aspireify, l’osservabilità raggiunge il browser con WithBrowserLogs(), il supporto multi-linguaggio avanza verso la GA, e Kubernetes entra ufficialmente come target di deployment. Per i team .NET che operano su Kubernetes o AKS, questa è probabilmente la release più attesa degli ultimi mesi.

Fonte: What’s New in Aspire 13.3 — Maddy Montaquila, Microsoft Aspire Blog (7 maggio 2026)


Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

MCP Server con Node.js: da un sistema di note su file a MySQL
#tech
spcnet.it/mcp-server-con-node-…
@informatica


MCP Server con Node.js: da un sistema di note su file a MySQL


Cos’è il Model Context Protocol e perché interessa ai developer Node.js


I modelli di linguaggio sono bravi a ragionare e conversare, ma da soli non possono eseguire operazioni reali sui tuoi sistemi. Possono suggerire query SQL o chiamate API, ma non possono farle girare concretamente. Il Model Context Protocol (MCP) risolve questo limite: fornisce ai modelli AI un modo strutturato per interagire con i tuoi strumenti, dai database ai file, fino alle API esterne. Invece di generare testo su ciò che dovrebbe accadere, il modello può invocare funzioni che lo fanno davvero accadere.

In pratica, questo apre la strada a strumenti come chatbot che creano e cercano voci nel database, assistenti AI che interrogano tool interni o attivano workflow, e agenti che leggono file, eseguono comandi e restituiscono risultati reali.

In questo tutorial imparerai a costruire il tuo primo MCP server da zero con Node.js e TypeScript: partiremo da un sistema di note basato su file per capire i concetti fondamentali, poi passeremo a un backend MySQL per mostrare come un LLM possa guidare operazioni deterministiche. Entro la fine avrai un server MCP funzionante pronto per essere collegato al client AI che preferisci.

Come funziona MCP


MCP segue un modello client-server: l’applicazione AI fa da client, il tuo codice gira come server. In una configurazione tipica, il client (Claude Desktop, Claude Code, Cursor, ecc.) si interpone tra l’utente e il tuo server, inoltrandogli le richieste e restituendogli i risultati. Il modello stesso non chiama mai direttamente il tuo server: quando l’utente manda un messaggio, il client condivide col modello la lista dei tool esposti dal tuo server. Il modello decide quale tool chiamare (e con quali argomenti), il client esegue la chiamata e rimanda il risultato al modello.

Utente → Client MCP → Modello AI → Tool selezionato → Server MCP → Risposta

Prerequisiti


Per seguire questo tutorial ti serviranno:

  • Node.js 18+
  • Familiarità di base con TypeScript
  • Un client compatibile con MCP per il test (Claude Desktop, Claude Code, Cursor, ecc.)
  • MySQL installato localmente (solo per la sezione avanzata con database)


Costruire il server MCP: sistema di note su file


Iniziamo creando un nuovo progetto Node.js. Questo sarà un sistema di note basato su file, utile per comprendere i concetti prima di introdurre un database.

mkdir mcp-notes && cd mcp-notes
npm init -y

Installa le dipendenze necessarie: l’SDK MCP per costruire il server, Zod per la validazione degli input e TypeScript per la type safety:
npm install @modelcontextprotocol/sdk zod
npm install -D typescript @types/node

Apri il package.json e aggiungi "type": "module" (l’SDK MCP usa i moduli ES) e gli script di build e start:
{
  "type": "module",
  "scripts": {
    "build": "tsc",
    "start": "node dist/index.js"
  }
}

Crea un file tsconfig.json nella root del progetto:
{
  "compilerOptions": {
    "target": "ES2022",
    "module": "Node16",
    "moduleResolution": "Node16",
    "outDir": "./dist",
    "rootDir": "./src",
    "strict": true,
    "esModuleInterop": true,
    "skipLibCheck": true
  },
  "include": ["src/**/*"]
}

Scrivere il server


Crea il file src/index.ts con il codice base del server:

import { McpServer } from "@modelcontextprotocol/sdk/server/mcp.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";
import fs from "fs/promises";
import path from "path";
import { z } from "zod";

const NOTES_DIR = path.join(process.cwd(), "notes");
await fs.mkdir(NOTES_DIR, { recursive: true });

const server = new McpServer({
  name: "mcp-notes",
  version: "1.0.0",
});

// I tool verranno aggiunti qui

const transport = new StdioServerTransport();
await server.connect(transport);

Questo è un MCP server completo e funzionante: crea la directory delle note, inizializza il server e lo connette tramite stdio per comunicare con un client MCP.

Aggiungere i tool


Ogni tool definisce una singola azione che il modello può compiere. Include nome, descrizione, schema di input e una funzione handler. Aggiungiamo i tre tool fondamentali: creazione, lettura e lista delle note.

server.tool(
  "create_note",
  "Create a new note with a given title and content",
  {
    title: z.string().min(1).describe("The note title"),
    content: z.string().min(1).describe("The body of the note"),
  },
  async ({ title, content }) => {
    const filename = `${title.replace(/[^a-z0-9_-]/gi, "_")}.txt`;
    const filepath = path.join(NOTES_DIR, filename);
    try {
      await fs.access(filepath);
      return {
        content: [{ type: "text", text: `Error: note "${title}" already exists.` }],
        isError: true,
      };
    } catch {}
    await fs.writeFile(filepath, content, "utf-8");
    return { content: [{ type: "text", text: `Note "${title}" created.` }] };
  }
);

server.tool(
  "read_note",
  "Read the content of a note by its title",
  { title: z.string().min(1).describe("The title of the note to read") },
  async ({ title }) => {
    const filename = `${title.replace(/[^a-z0-9_-]/gi, "_")}.txt`;
    try {
      const content = await fs.readFile(path.join(NOTES_DIR, filename), "utf-8");
      return { content: [{ type: "text", text: content }] };
    } catch {
      return {
        content: [{ type: "text", text: `Error: note "${title}" not found.` }],
        isError: true,
      };
    }
  }
);

server.tool(
  "list_notes",
  "List all available notes",
  {},
  async () => {
    const files = await fs.readdir(NOTES_DIR);
    const notes = files.filter(f => f.endsWith(".txt")).map(f => f.replace(".txt", ""));
    if (notes.length === 0) return { content: [{ type: "text", text: "No notes found." }] };
    return { content: [{ type: "text", text: notes.join("\n") }] };
  }
);

Testare il server con Claude Desktop


Compila il progetto con npm run build. Poi apri il file di configurazione di Claude Desktop:

  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  • Windows: %APPDATA%\Claude\claude_desktop_config.json

Aggiungi il server sotto la chiave mcpServers:

{
  "mcpServers": {
    "mcp-notes": {
      "command": "node",
      "args": ["/percorso/del/progetto/mcp-notes/dist/index.js"],
      "cwd": "/percorso/del/progetto/mcp-notes"
    }
  }
}

Riavvia Claude Desktop e prova con prompt come: “Crea una nota chiamata standup con gli aggiornamenti di oggi” oppure “Elenca tutte le mie note”.

Passare a MySQL: dati strutturati per uso reale


Il sistema basato su file funziona bene per comprendere i fondamentali, ma ha limiti evidenti. Passare a MySQL mette in luce un pattern importante nel design MCP: il modello decide quale azione intraprendere, ma il tuo codice rimane responsabile di come quella azione viene eseguita. Quando il modello chiama search_notes, non genera né esegue SQL da solo: il tuo handler gestisce l’operazione in modo controllato, con query parametrizzate.

Installa il driver MySQL:

npm install mysql2

Crea il database e la tabella:
CREATE DATABASE mcp_notes;
USE mcp_notes;
CREATE TABLE notes (
  id INT AUTO_INCREMENT PRIMARY KEY,
  title VARCHAR(255) UNIQUE NOT NULL,
  content TEXT NOT NULL,
  created_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP
);

La versione MySQL del tool create_note inserisce una riga invece di scrivere un file e gestisce i duplicati intercettando l’errore ER_DUP_ENTRY. La versione di search_notes permette ricerche full-text su titoli e contenuti — una funzionalità che con i file richiederebbe un codice molto più complesso.
server.tool(
  "search_notes",
  "Search notes by keyword across titles and content",
  { query: z.string().min(1).describe("Keyword or phrase to search for") },
  async ({ query }) => {
    const like = `%${query}%`;
    const [rows] = await pool.execute<mysql.RowDataPacket[]>(
      "SELECT title, created_at FROM notes WHERE title LIKE ? OR content LIKE ? ORDER BY created_at DESC",
      [like, like]
    );
    if (rows.length === 0) {
      return { content: [{ type: "text", text: `No notes found matching "${query}".` }] };
    }
    return { content: [{ type: "text", text: rows.map(r => `- ${r.title} (${r.created_at})`).join("\n") }] };
  }
);

Principi per progettare buoni tool MCP


Un tool MCP che funziona in fase di test può fallire in produzione se il modello fraintende quando o come usarlo. Alcune regole pratiche:

  • Descrizioni esplicite: frasi come “Gestisce le note” sono troppo vaghe. Usa descrizioni che spiegano chiaramente cosa fa il tool e quando va usato.
  • Singola responsabilità: ogni tool deve fare una sola cosa. Strumenti troppo “jolly” costringono il modello a indovinare l’intento.
  • Errori azionabili: usa isError: true con messaggi che guidano il modello su come riprovare: "Note non trovata. Usa list_notes per vedere quelle disponibili."
  • Boundary sicuri: mai interpolazione diretta dell’input utente in SQL o comandi shell. Usa sempre query parametrizzate.


Conclusione


Costruire un MCP server con Node.js e TypeScript è sorprendentemente accessibile grazie all’SDK ufficiale. Il pattern che hai imparato in questo tutorial — definire tool con schema Zod, gestire gli errori con isError e connettere il server via stdio — si scala facilmente a scenari più complessi: integrazione di API REST, automazione di workflow, connessione di agenti AI a sistemi legacy.

Il codice completo del tutorial è disponibile su GitHub.

Fonte: How to build your first MCP server with Node.js — LogRocket Blog (Elijah Asaolu, 5 maggio 2026)


Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Il primo zero-day costruito con l’AI: Google sventava un attacco di massa con exploit generato da LLM
#CyberSecurity
insicurezzadigitale.com/il-pri…


Il primo zero-day costruito con l’AI: Google sventava un attacco di massa con exploit generato da LLM


Si parla di:
Toggle

Per la prima volta nella storia documentata della cybersecurity, un gruppo criminale ha utilizzato un modello di intelligenza artificiale per identificare una vulnerabilità zero-day sconosciuta e trasformarla in un exploit funzionante, pianificando di impiegarla in un evento di compromissione di massa. Google Threat Intelligence Group (GTIG) ha svelato la scoperta l’11 maggio 2026, descrivendo quella che potrebbe essere un punto di svolta nell’evoluzione delle capacità offensive dei threat actor.

La scoperta: un exploit scritto da un LLM


Il team GTIG di Google ha identificato uno script Python contenente un exploit per una vulnerabilità zero-day in un popolare strumento open source di amministrazione web. La falla, un bypass dell’autenticazione a due fattori (2FA), permetteva a un attaccante in possesso di credenziali valide di aggirare completamente il secondo fattore di autenticazione, aprendo la strada a un accesso non autorizzato su larga scala.

Ciò che ha immediatamente attirato l’attenzione degli analisti non era tanto la vulnerabilità in sé, quanto le caratteristiche stilistiche e strutturali del codice che la implementava. Lo script presentava una serie di indizi inequivocabili della sua origine artificiale:

  • Docstring educativi estremamente dettagliati: ogni funzione era accompagnata da commenti esplicativi esaustivi, in uno stile tipico degli output di Large Language Model addestrati su repository di codice open source e documentazione tecnica.
  • Un punteggio CVSS “allucinato”: lo script includeva una valutazione CVSS autogenerata ma non corrispondente a nessuna voce esistente nel National Vulnerability Database — un errore tipico di un modello che genera informazioni plausibili ma non verificate.
  • Formato Pythonic “da manuale”: la struttura pulita, la classe _C per i colori ANSI, i menu di aiuto dettagliati e la coerenza stilistica riflettono il pattern caratteristico degli output di modelli come GPT-4 o Gemini quando invitati a scrivere strumenti di sicurezza.

GTIG ha valutato con alta confidenza che un modello di AI sia stato utilizzato sia per scoprire la vulnerabilità che per costruire l’exploit, pur non avendo prove che il modello specifico impiegato fosse Gemini di Google.

La natura della vulnerabilità: logica semantica, non memoria


Uno degli aspetti più rilevanti della scoperta riguarda la tipologia della vulnerabilità stessa. Non si trattava di un classico bug di memory corruption (buffer overflow, use-after-free) né di un problema di input sanitization — le categorie che i fuzzer tradizionali e gli strumenti SAST (Static Application Security Testing) sono progettati per individuare.

La falla era invece un difetto logico semantico ad alto livello: un’assunzione di trust codificata nella logica di enforcement del 2FA, che permetteva a un flusso di autenticazione specifico di saltare la verifica del secondo fattore. Questo tipo di vulnerabilità richiede una comprensione profonda della logica applicativa e dei suoi presupposti impliciti — un dominio in cui i modelli di linguaggio di grandi dimensioni, addestrati su enormi corpus di codice e documentazione, mostrano capacità emergenti superiori agli strumenti di analisi statica convenzionali.

La scoperta conferma ciò che molti ricercatori ipotizzavano ma temevano di veder concretizzato: i modelli AI possono identificare classi di vulnerabilità che sfuggono sistematicamente agli strumenti automatizzati tradizionali.

L’evento pianificato: compromissione di massa sventata


Secondo GTIG, il threat actor aveva pianificato di utilizzare l’exploit in un mass exploitation event — un attacco opportunistico su larga scala verso tutti i sistemi vulnerabili esposti su internet. La proactive discovery da parte di Google ha permesso di interrompere la catena prima che l’exploit venisse utilizzato in produzione.

Google ha lavorato con il vendor del software colpito per la divulgazione responsabile della vulnerabilità e il rilascio di una patch correttiva, senza rivelare pubblicamente il nome dello strumento interessato per limitare il rischio di sfruttamento da parte di altri attori durante la finestra di patching.

Il quadro più ampio: AI e cybercrime state-sponsored


L’incidente non è isolato: il report GTIG del maggio 2026 documenta una tendenza sistematica all’adozione di strumenti AI da parte di gruppi APT nation-state. In particolare:

  • Cina: operatori state-linked stanno sperimentando sistemi AI per la vulnerability hunting automatizzata e il probing di target — essenzialmente automatizzando il processo di ricognizione e identificazione delle superfici di attacco.
  • Corea del Nord (APT45): il gruppo sta utilizzando AI per processare migliaia di exploit check in bulk e arricchire il proprio toolkit, accelerando significativamente i tempi di sviluppo di nuove capacità offensive.
  • Gruppi criminali non-state: come dimostrato da questo episodio, anche attori privi di risorse statali hanno ormai accesso a capacità di sviluppo exploit AI-assisted tramite modelli commerciali o open source.

Il democratizzazione degli strumenti AI abbassa significativamente la barriera tecnica per lo sviluppo di exploit sofisticati, storicamente appannaggio di gruppi con risorse e competenze elevate.

Due righe per i difensori


Questa scoperta accelera un dibattito che era rimasto per lungo tempo teorico: se gli attaccanti usano AI per trovare vulnerabilità, i difensori devono adottare gli stessi strumenti con ancora maggiore urgenza. Alcune considerazioni pratiche:

  • Rivedere i programmi di bug bounty per includere vulnerabilità logiche e di flusso che i tool tradizionali non rilevano, premiando i ricercatori umani e AI-assisted che identificano difetti semantici.
  • Implementare AI-assisted code review nel ciclo di sviluppo, in particolare per la logica di autenticazione e autorizzazione — le aree dove i difetti semantici sono più probabili e più gravi.
  • Monitorare i pattern di accesso MFA con particolare attenzione ai bypass del secondo fattore, anche in presenza di credenziali valide.
  • Aggiornare tempestivamente tutti gli strumenti di amministrazione web esposti su internet, indipendentemente dalla loro percezione come “strumenti minori”.

Il primo zero-day AI-generated documentato in natura non segna la fine di un’era, ma l’inizio di una nuova fase nella corsa agli armamenti digitali. Le organizzazioni che non integreranno AI nei propri processi di difesa si troveranno strutturalmente svantaggiate rispetto a avversari che già la impiegano sistematicamente per attaccare.


Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

You would expect the so-called *Western democracies* refusing access to our most sensitive biometric and genetic data to #ICE and #DHS after witnessing #ICE's brutality against their fellow citizens, and yet they are negotiating #EBSP access secretly:

computerweekly.com/news/366643…

#ice #DHS #EBSP
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Ex #EU MEP who consistently opposed post 9/11 US-EU data agreements, #SophieIntVeld to #ComputerWeekly
on #EBSP :

" #EU happily give away our most sensitive data [...] to an administration that is anti-democratic and hostile to Europe and Europeans"

computerweekly.com/news/366643…

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

We've asked #UKHomeOffice, #EUCouncil and #Viminale which biometrics and genetic databases they will share with #ICE and #DHS under the #EnhancedBorderSecurityPartnership ( #EBSP) which the #US requests

Read our article in #ComputerWeekly:

computerweekly.com/news/366643…

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Over the last months we've tried hard to unearth info about the secret negotiations on the #EnhancedBorderSecurityPartnership (#EBSP) which will allow unprecedented access to our biometric and genetic data to #ICE and #DHS

computerweekly.com/news/366643…

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Oggi mi leggete in inglese su #ComputerWeekly: da mesi cerchiamo di scoprire cosa sta segretamente negoziando #EU per consegnare a #ICE e alla sua agenzia madre #DHS i #Dati dei cittadini EU. Abbiamo chiesto a #UK,#EU,#Italia

computerweekly.com/news/366643…

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Da oggi è disponibile:
Il nodo etico - Informazione e Valori nella Società Digitale, curato e tradotto dal bravissimo Massimo Durante, buona lettura 🤓
raffaellocortina.it/scheda-lib…
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

And they call the #UkraineWar a war to defend #democracy from autocracy....
#Zelensky will develop a cooperation with the best friends of #Trump, Peter Thiel's #Palantir, which supports #IDF during a #Genocide:
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Ecco come la #GuerraInUcraina difende la *democrazia* dall'autocrazia di #Putin: #Zelensky sta sviluppando una collaborazione con il grande amico di #Trump,che supporta #IDF nel genocidio di Gaza: #Palantir
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Eurovision e Israele, l'inchiesta del New York Times: un milione di dollari, l'EBU che non vuole vedere e la Rai che resta


Il governo Netanyahu ha speso almeno un milione di dollari in marketing Eurovision

Cinquanta interlocutori, documenti interni dell’European Broadcasting Union, dati di voto mai resi pubblici. Il dossier ricostruisce come il governo di Benjamin Netanyahu abbia trasformato la gara canora più vista del mondo, 166 milioni di spettatori, in uno strumento di soft power. E come l’EBU, l’ente organizzatore, abbia scelto, sistematicamente, di non guardare.


@musica

Il post di @giuliocavalli

giuliocavalli.substack.com/p/e…

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Statale di Milano, arrivano altri 10 studenti da Gaza: salgono a 31 i giovani accolti dall’Ateneo

@scuola

corriereuniv.it/studenti-gaza-…

Con l’arrivo previsto nel pomeriggio di domani si completerà il gruppo di studenti palestinesi attesi dall’Università degli Studi di Milano per l’anno accademico in corso. Saranno infatti 31 i giovani provenienti da Gaza

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

Buongiorno.
Nuovi #consiglidifollow

Questa volta l'elenco comprende account da cui si possano trarre notizie e informazioni non banali riguardo al Fediverso e al mondo dell'informatica.
Non è esaustivo: condivido alcuni degli account che mi è capitato d'incontrare per caso e che mi piacciono.

Ecco dunque il

Settimo elenco: Info Fediverso e Informatica


@admin
@aiucd
@anewsocial
@ArchaeoBasti
@chiaraepoi
@FediFollows
@fediforum
@FediTips
@fediverso
@Flipboard
@Framasoft
@Galessandroni
@informapirata
@informatica
@jerome_herbinet
@kathsone
@lealternative
@lorenzo
@macfranc
@moshidon
@notizie
@poliverso
@privacity
@quillmatiq
@sbarrax
@skariko
@snow@snowfan.it
@snow@snowtest.it
@tleilax
@wikimediaitalia
@wubby74
@zeppe

Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

GhostLock: New Attack Technique Locks Enterprise Files Like Ransomware — Without Any Encryption
#CyberSecurity
securebulletin.com/ghostlock-n…
Poliversity - Università ricerca e giornalismo ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Operation SilentCanvas: Hackers Hide PowerShell Malware in Fake JPEG to Deploy Trojanized ScreenConnect Backdoor
#CyberSecurity
securebulletin.com/operation-s…