Online safety's day in court
WELCOME TO DIGITAL POLITICS. I'm Mark Scott, and this edition marks the one-year anniversary for this newsletter. That's 61 newsletters, roughly 130,000 words and, hopefully, some useful insight into the world of global digital policymaking.
To thank all subscribers for your support, I'm offering a discounted offer to the paid version of Digital Bridge published each Monday. You can go for either a monthly or an annual subscription — at 25 percent off the regular price. You can also keep receiving these monthly free updates.
Also, for anyone in Brussels, I'll be in town next week from Sept 8 - 11. Drop me a line if you're free for coffee.
— The outcome to a series of legal challenges to online safety legislation will be made public in the coming weeks. The results may challenge how these laws are implemented.
— We are starting to see the consequences of what happens when policymakers fail to define what "tech sovereignty" actually means.
— The vast amount of money within the semiconductor industry comes from the design, not manufacture, of high-end microchips.
Let's get started:
LEGAL CHALLENGES TO ONLINE SAFETY RULES
WE'RE ABOUT TO FIND OUT WHERE THE limits are to some of the Western world's attempts to rein in social media platforms and e-commerce giants.
On Sept. 3, Zalando, the German online shopping site (my decade-old profile here) will find out if one of the European Union's top courts agrees that it should not be designated as a Very Large Online Platform, or VLOP, under the bloc's Digital Services Act. The Berlin-based retailer claims it doesn't represent a so-called "systemic risk" within the EU. Zalando's focus on business customers (in contrast to retailer customers) also means the platform does not technically have 45 million users within the EU, it also argues. Expect a decision from the European Court of Justice before midday CET on Sept. 3 (documents here.)
By challenging Brussels' ability to designate which tech companies fall within its VLOP definition (in which the requirement to have at least 45 million local users is critical), Zalando is taking on a central component of the EU's online safety regime. Under the DSA, these large firm take on greater responsibilities and reporting requirements — and are overseen directly by the European Commission, and not EU national regulators — compared to their smaller counterparts.
Currently, how the bloc determines the threshold for 45 million users is cloaked in secrecy — mostly because officials typically have to rely on company estimates to make such adjudications. Telegram, for instance, maintains it has less than that benchmark, allowing it to avoid the most strenuous oversight offered by the DSA. By challenging the European Commission's (opaque) methodology, Zalando's case (no matter the outcome) will force Brussels to up its game when determining which companies fall within its VLOP definition.
Thanks for reading the free monthly version of Digital Politics. Paid subscribers receive at least one newsletter a week. If that sounds like your jam, please sign up here.
Here's what paid subscribers read in August:
— Google and Meta's separate decisions to end political ads in Europe is a mistake; What Big Tech's quarterly earnings teach us about geopolitics; Most Brits have yet to jump on the AI bandwagon. More here.
— Everything you need to know about India's AI Impact Summit; How Russia's propaganda machine weaponized the Trump-Putin meeting in Alaska; Who's Who in the shake-up in the European Commission's DG CNECT. More here.
— Why focusing on protecting kids online should not come at the price of breaking encryption; What Kremlin-backed media took from the Trump-Putin summit; The cottage industry of copyright lawsuits targeting AI companies. More here.
— The US, EU and China are building rival "AI Stacks" that will split the world into competing camps; How to understand the EU-US trade framework when it comes to tech and future tensions; The "AI Divide" is playing out in global research. More here.
Next up are Meta and TikTok. In a dual ruling on Sept. 10 (documents here and here), one of Europe's top courts will again decide a key part of the bloc's online safety rules. This time, both tech giants claim the so-called DSA supervisory fee, or annual levy all VLOPs must pay for the regulation's implementation, is disproportionate and opaque.
The fee — which increased 21 percent this year, to €58.2 million — is based on the European Commission's calculation of up to a 0.05 percent charge on these tech firms' annual global net income. Both Meta and TikTok (and, in a separate legal challenge, Google) say those figures should only come from each firm's profit within the 27-country bloc, and not from their overall global income. In response, Brussels says such levies — a tiny slice of these firms' annual profits — do not violate companies' rights.
Depending on how the court rules, the decision will have ramifications for the DSA's (stuttering) implementation.
Currently, the European Commission has scores of open investigations. Temu, the Chinese online retailer, was the latest firm to be accused of breaching the rules. A potential separate enforcement action against X is expected in the coming weeks. These probes cost money. If Europe's top judges start cutting the funds available for DSA enforcement — based on TikTok and Meta's claims — then the regulation's implementation will similarly slow.
If one of Europe's top courts sides with the tech giants, then expect Brussels to claim business-as-usual, and likely dedicate additional resources from the bloc's almost €2 trillion budget. But the ability to charge VLOPs for DSA supervision is a pillar of how these online safety rules are supposed to work. It forms the basis for the European Commission's mutlti-year work plan on DSA supervision and enforcement. To suggest everything is fine, if next week's court decision goes against Brussels, will be a fantasy.
The next legal challenge takes us across the English Channel to the United Kingdom's Online Safety Act, or OSA. There is already growing disquiet after the country's so-called "age assurance" rules came into force late last month. Now, 4chan and Kiwi Farms filed a lawsuit in a federal court in the United States to challenge how the UK's online safety rules apply to these US-based online platforms.
I'm no lawyer. But the lawsuit is worth a read for two reasons.
First, 4Chan and Kiwi Farms — both of which received requests from Ofcom, the UK's online safety regulator, to comply with mandatory transparency demands — relied heavily on history to suggest they did not have to comply with the British rules. (Disclaimer: I sit on an independent advisory committee at Ofcom, so anything I say here is done so in a personal capacity.)
"Where Americans are concerned, the Online Safety Act purports to legislate the Constitution out of existence," lawyers for both firms wrote in the lawsuit. "Parliament does not have that authority. That issue was settled, decisively, 243 years ago in a war that the UK’s armies lost and are not in any position to re-litigate.”
Shots fired, if you will.
Under the UK's online safety regime, a company does not have to have a physical presence within the country to fall under the legislation. Technically, a site only needs to be accessible to British internet users for the regulatory requirements, most of which focus on mandating a base level of transparency about how companies apply their internal online safety protocols. That means thousands of sites worldwide fall under the UK's OSA — even though almost none of them will be contacted as what happened with 4Chan and Kiwi Farms.
Determining how far the UK's OSA can extend to sites with no physical presence in the country — even if that comes via a US federal court — is a marker for how countries can extend their online safety rules in the name of protecting their citizens.
The second reason the case is important is more political.
Expect the federal lawsuit against Ofcom to be name-checked during a Congressional hearing, overseen by Congressman Jim Jordan, on Sept 3 entitled: "Europe's Threat to American Speech and Innovation." It will start at 10am ET and the current witness list includes noted online safety expert (jk!) Nigel Farage. Former European Commissioner Thierry Breton was invited, though he preferred to respond in an OpEd for The Guardian.
The 4Chan/Kiwi Farm lawsuit is important as it represents a new attack from some in the US who view any form of online safety regulation as a direct threat to Americans' First Amendment rights.
These individuals — most commonly associated with the "Censorship Industrial Complex" — have already accused researchers of acting in unison with the US federal government and social media platforms to censor those mostly on the political right. So far, there has been no evidence to back up those allegations.
Now, many are turning to non-US online safety legislation, most notably the EU's DSA and the UK's OSA, as a new attack vector to claim Americans' free speech rights are under attack. The 4Chan/Kiwi Farm lawsuit's arguments, including the illegal extraterritoriality of the British rules, are likely to be re-used in these ongoing efforts to thwart countries' push to protect their own citizens against online abuse and illegal content like terrorist propaganda.
Chart of the Week
EVERY COUNTRY UNDER THE SUN wants to be a semiconductor superpower. That's especially true in the global battle between rival "AI stacks" reliant on next generation semiconductors.
But there's a significant difference between those who make semiconductors and where the value resides in the overall global chip market.
The chart on the left depicts the 2024 worldwide revenue, divided as a percentage per company, for semiconductor foundries, or facilities that manufacture microchips. The chart on the right represents overall market values for semiconductor companies (based on Dec. 31, 2024 prices), divided by companies and countries.
On manufacturing, Taiwan is the global leader, by some margin. But in overall semiconductor value, the US (and, to a large degree, NVIDIA) are the ones to beat.
That's a reminder for any country spending taxpayers' dollars to entice semiconductor foundries to be built locally. Just because you back such in-country manufacturing doesn't mean the overall value within the semiconductor supply chain will follow.
Source: JPMorgan; Companiemarketcap.com. Data as of Dec. 2024
The consequences of tech sovereignty
I KNOW I'M BIASED. BUT IT'S HARD NOT TO VIEW the first eight months of 2025 as a demonstration of what happens when countries blend politics and technology in ways that lead to bad outcomes. Think the US-China stand-off on pretty much everything. Think the EU-US dispute over trade/digital regulation. Think the failure of Middle Powers to articulate a path on digital that is different to that offered by China, the US and Europe, respectively.
This is what happens when politicians and policymakers put forward a vision of "tech sovereignty" without thinking through what happens when you mix national/regional political needs with the global nature of how technology actually works.
Back in March, I made a plea for a more joined-up approach to that amorphous definition that, ever since European Commission president Ursula von der Leyen went hard on "tech sovereignty" five years ago, has been plagued with false starts, conflicting efforts and a failure to understand how such digital policymaking would end up playing out in the real world.
Fast forward to late(ish) 2025, and we are starting to feel the consequences of rival and, frustratingly, allied countries implementing "tech sovereignty" concepts that will inevitably harm citizens' fundamental rights and their ability to take advantage of what technology has to offer.
For me, those concepts include: countries asserting legal claims over the global internet; politicians subsidizing the creation/support of domestic industries that do not have the scale to compete on the global stage; the creation of artificial barriers between digital markets/goods that undermine fundamental rights; the politicization of apolitical digital regulation aimed at quelling abuse.
Some of these issues were almost inevitable, given the vast differences between how countries approach both digital policymaking and industrial policy. The US — based on its financial muscle, deregulatory stance and domestic industry — is just in a different place to, say, Singapore, which must approach questions about how technology affects its society in ways that meet its own domestic needs.
What I worry, though, is that the push toward 'tech sovereignty' has reached a point where it may be difficult to bring countries back from the edge of creating siloed digital worlds. That goes for everything from high-tech manufacturing that may face high import tariffs elsewhere to digital regulation aimed at safeguarding people's fundamental rights.
Sign up for Digital Politics
Thanks for getting this far. Enjoyed what you've read? Why not receive weekly updates on how the worlds of technology and politics are colliding like never before. The first two weeks of any paid subscription are free.
Subscribe
Email sent! Check your inbox to complete your signup.
No spam. Unsubscribe anytime.
As technology has become a powerful engine, both for politics and industry, it was inevitable that politicians would want to exert greater power over digital areas of the economy and society. Where we are currently, however, is nearing a point of potentially killing the golden goose.
Technology, at its basic level, is an apolitical tool. And ever since the Web 1.0 era, that has been based on a borderless, hand-off approach to digital oversight — something that just isn't possible given the geopolitical nature of technology in 2025.
What I've been thinking a lot about is how can we marry the best of this laissez-faire approach to technology — one that allows firms and people to connect to each other, within seconds, across the globe — with the ability for politicians and policymakers to both protect citizens from harm and harness what technology has to offer to serve domestic economic interests.
Right now, that balance is failing, and badly.
It is leading to the siloing of citizens within national/regional digital fiefdoms. It is embracing a top-down approach to "tech sovereignty" that relegates people to passive spectators as their digital experiences are dictated for them. It is leaving millions behind as digital policymaking falls into three camps: led by China, the EU and US, respectively.
Watch this space for thoughts on how to fix that.
What I'm reading
— The Molly Rose Foundation analyzed TikTok and Instagram and found an ongoing high-level risk of exposure for minors to content linked to suicide, self-harm and depression-related material. More here.
— Bits of Freedom, a Dutch non-profit organization, filed a lawsuit against Meta so that its local users could access their Instagram and Facebook feeds in ways not based on user profiling. More here.
— Researchers from the University of Amsterdam created a social media network based on AI agents, and discovered the platform quickly recreated levels of polarization seen in real-world networks. More here.
— The White House's recent AI Action Plan is full of contradictory policies that may lead to the concentration of power of the emerging technology, argue three former Joe Biden-appointed officials for Tech Policy Press.
— Meta's Oversight Board published its annual report, including details into the 217 voluntary policy recommendations it had made to the tech firm since 2027. More here.
Reverse-Engineering Mystery TV Equipment: The Micro-Scan
[VWestlife] ended up with an obscure piece of 80s satellite TV technology, shown above. The Micro-Scan is a fairly plan metal box with a single “Tune” knob on the front. At the back is a power switch and connectors for TV Antenna, TV Set, and “MW” (probably meaning microwave). There’s no other data. What was this, and what was it for?
Satellite TV worked by having a dish receive microwave signals, but televisions could not use those signals directly. A downconverter was needed to turn the signal into something an indoor receiver box (to which the television was attached) could use, allowing the user to select a channel to feed into the TV.
At first, [VWestlife] suspected the Micro-Scan was a form of simple downconverter, but that turned out to not be the case. Testing showed that the box didn’t modify signals at all. Opening it up revealed the Micro-Scan acts as a combination switchbox and variable power supply, sending a regulated 12-16 V (depending on knob position) out the “MW” connector.
So what is it for, and what does that “Tune” knob do? When powered off, the Micro-Scan connected the TV (plugged into the “TV Set” connector) to its normal external antenna (connected to “TV Antenna”) and the TV worked like a normal television. When powered on, the TV would instead be connected to the “MW” connector, probably to a remote downconverter. In addition, the Micro-Scan supplied a voltage (the 12-16 V) on that connector, which was probably a control voltage responsible for tuning the downconverter. The resulting signal was passed unmodified to the TV.
It can be a challenge to investigate vintage equipment modern TV no longer needs, especially hardware that doesn’t fit the usual way things were done, and lacks documentation. If you’d like to see a walkthrough and some hands-on with the Micro-Scan, check out the video (embedded bel0w).
youtube.com/embed/dhxh9BZcFXg?…
Tencent sfida i giganti! Il nuovo Hunyuan-MT batte Google Translate e GPT-4.1
L’azienda cinese Tencent ha reso pubblico il codice sorgente di una nuova serie di modelli linguistici Hunyuan-MT, appositamente ottimizzati per le attività di traduzione. Gli sviluppatori affermano che gli algoritmi mostrano risultati migliori di Google Translate nel popolare benchmark WMT25.
La serie comprende quattro modelli, tra cui due modelli di punta: Hunyuan-MT-7B e Hunyuan-MT-Chimera-7B, ciascuno contenente 7 miliardi di parametri. Vengono inoltre presentate due versioni compresse, che utilizzano meno memoria, ma operano con una leggera perdita nella qualità della traduzione.
Tencent ha utilizzato quattro set di dati per l’addestramento. Due di questi includevano testi in 33 lingue senza traduzione, mentre gli altri due includevano diversi milioni di coppie di frasi e le relative traduzioni. Questo approccio ha permesso di combinare la conoscenza delle lingue con l’erudizione generale.
L’efficacia dei modelli è stata testata utilizzando il test MMLU-Pro, progettato per valutare le conoscenze generali. Hunyuan-MT ha mostrato risultati migliori rispetto a Llama-3-8B-Base, nonostante un numero inferiore di parametri.
Dopo l’addestramento iniziale, i modelli sono stati sottoposti a un ulteriore passaggio, utilizzando l’apprendimento per rinforzo. Tencent ha fornito loro compiti e feedback sulla qualità della traduzione, contribuendo a migliorarne l’accuratezza.
La qualità è stata valutata da un sistema di intelligenza artificiale separato, che ha analizzato la corrispondenza semantica della traduzione con l’originale e la correttezza dell’uso della terminologia in diversi campi.
Il primo modello della serie, Hunyuan-MT-7B, si basa sull’architettura classica dei modelli linguistici. La variante Chimera-7B utilizza un metodo di ensemble: diverse reti neurali elaborano una richiesta simultaneamente e le loro risposte vengono poi combinate in una versione finale di qualità superiore.
Nei test WMT25 che confrontano le traduzioni in 31 coppie di lingue, Hunyuan-MT ha superato Google Translate in 30 casi, con alcune coppie che hanno ottenuto risultati superiori del 65%.
Inoltre, la serie di Tencent ha ottenuto risultati migliori rispetto a GPT-4.1 e Claude 4 Sonnet di Anthropic nella maggior parte delle coppie di lingue dello stesso benchmark.
L'articolo Tencent sfida i giganti! Il nuovo Hunyuan-MT batte Google Translate e GPT-4.1 proviene da il blog della sicurezza informatica.
OpenAI mette i genitori al comando: arriva il parental control su ChatGPT
In un momento in cui la controversia sull’impatto dell’intelligenza artificiale sulla salute mentale giovanile va crescendo, l’introduzione di un controllo parentale per ChatGPT è stata annunciata come una misura da OpenAI.
In un post sul blog pubblicato martedì, l’azienda di intelligenza artificiale con sede in California ha affermato di aver lanciato queste funzionalità in risposta alla necessità delle famiglie di supportare “la definizione di linee guida sane che si adattino alla fase di sviluppo unica di un adolescente”.
Grazie a queste modifiche, i genitori potranno collegare i propri account ChatGPT a quelli dei propri figli, disattivare alcune funzionalità, tra cui la memoria e la cronologia delle chat, e controllare il modo in cui il chatbot risponde alle query tramite “regole di comportamento del modello appropriate all’età”.
I genitori potranno anche ricevere notifiche quando i loro figli adolescenti mostrano segni di disagio, ha affermato OpenAI, aggiungendo che cercherà il contributo di esperti nell’implementazione della funzionalità per “sostenere la fiducia tra genitori e adolescenti”.
OpenAI, che la scorsa settimana ha annunciato una serie di misure volte a migliorare la sicurezza degli utenti vulnerabili, ha affermato che le modifiche entreranno in vigore entro il mese prossimo.
“Questi passi sono solo l’inizio”, ha affermato l’azienda.
“Continueremo ad apprendere e a rafforzare il nostro approccio, sotto la guida di esperti, con l’obiettivo di rendere ChatGPT il più utile possibile. Non vediamo l’ora di condividere i nostri progressi nei prossimi 120 giorni.”
In un contesto sempre più delicato, queste novità arrivano anche a seguito di procedimenti legali intentati da privati contro le aziende tecnologiche, accusate di non aver protetto adeguatamente i minori dall’impatto dei loro prodotti. In diversi casi, le famiglie hanno sostenuto che l’assenza di controlli adeguati e di sistemi di tutela abbia contribuito a gravi conseguenze psicologiche, fino al suicidio dei loro figli.
Negli Stati Uniti, ad esempio, la famiglia di una ragazza della California ha denunciato OenAI per aver incentivato il suicidio del figlio Adam Reid. Queste vicende hanno acceso il dibattito pubblico e rafforzato la pressione sulle aziende tecnologiche, spinte ad adottare strumenti concreti di prevenzione.
Le nuove funzionalità di parental control annunciate da OpenAI si inseriscono in questa cornice: un tentativo di coniugare innovazione e responsabilità sociale, cercando di prevenire altri casi drammatici e di ristabilire la fiducia delle famiglie nei confronti delle tecnologie basate sull’intelligenza artificiale.
L'articolo OpenAI mette i genitori al comando: arriva il parental control su ChatGPT proviene da il blog della sicurezza informatica.
Abstimmungskampf Referendum E-ID
Mit dem Versand der Abstimmungsunterlagen beginnt für die Piratenpartei Schweiz (PPS) und zahlreiche Unterstützer:innen die heisse Phase der Kampagne gegen das neue E-ID-Gesetz. Die Piraten als Referendumsführer und kritische Stimme der ersten Stunde sind froh, dass am 28. September 2025 die Stimmbevölkerung über eine Vorlage entscheiden darf, die weitreichende Folgen für Datenschutz, Privatsphäre und digitale Selbstbestimmung hätte.
Bereits bei der Ausstellung werden sensible biometrische Daten wie Gesichtsvideos erhoben und bis zu 15 Jahren gespeichert. Unternehmen können bei jeder Nutzung der E-ID zahlreiche persönliche und staatlich verifiziert Informationen anfordern. Dass diese Daten nicht ausgewertet und „veredelt“ werden dürfen ist nicht verboten – sie werden so auch zu einem heiss begehrten Ziel für Hacking.
Stefan Sergi, Präsident Piratenpartei Aargau: „Kein IT-System ist abschliessend sicher, es ist nur eine Frage der Zeit, bis massenhaft gestohlene Identitäten im Umlauf sind.“
Melanie Hartmann, Vorstandsmitglied Piratenpartei Schweiz: „Wer Privatsphäre ernst nimmt, sagt Nein zu dieser E-ID“
Die E-ID ist nur theoretisch freiwillig. Gesetze und aktuelle Vorstösse verlangen die Identifikation beim Medienkonsum, auf Social Media, für Kommentare auf Newsseiten, Tickets für Sportanlässe etc. Für den Widerruf bei der Organspende ist die E-ID bereits fix eingeplant und für Tickets bei OeV und Events ist der Ausweiszwang heute der Quasi-Standard. Das führt zur digitalen Ausweispflicht im Alltag und öffnet alle Pforten für Profiling, Social-Scoring und die tägliche Überwachung, Analyse und Bewertung unseres digitalen Verhaltens – auch durch Firmen und Plattformen wie TikTok oder Disney+ oder Steam. Die andauernde Identifikation wird damit zur neuen Normalität.
Ivan Buechi, Präsident Piratenpartei Ostschweiz: „Wir laufen nicht durch die Bahnhofstrasse mit unserem Namen über dem Kopf und weisen uns im Laden oder Kino laufend aus. Aber genau das wird mit der E-ID geschehen.“
Pascal Fouquet, Vizepräsident Piratenpartei Kanton Bern: „Gute Digitalisierung braucht keine Überwachung. Auch mit dieser Vorlage wurde eine grosse Chance für gute Digitalisierung verpasst.“
Die E-ID wird von Bund und Wirtschaft als Fortschritt verkauft – doch sie bringt kaum Mehrwert für die Bevölkerung. Für digitale Behördengänge existieren bereits heute sichere, staatliche und datensparsame Lösungen wie AGOV.
Jorgo Ananiadis, Präsident der Piratenpartei Schweiz: „Die E-ID wird als Fortschritt gepriesen – doch sie löst keines der grundlegenden Probleme der Schweizer Digitalpolitik: Die Strategielosigkeit und mangelnde Digitalkompetenz bleiben bestehen und statt Lösungen bringt uns dieses E-ID-Gesetz neue Risiken – ohne spürbaren Nutzen für die Bevölkerung.“
Die Piratenpartei fordert ein E-ID-Gesetz, das folgende Kriterien erfüllt:
– Echte Freiwilligkeit – statt diskriminierendem Zwang
– Datensparsamkeit – statt noch mehr Datensammlung
– Digitale Selbstbestimmung – statt kollektive Gefährdung
– Eine vertrauenswürdige E-ID für uns – nicht für Konzerne oder einen Fichenstaat
Entsprechende Vorgaben müssen gesetzlich verankert sein, damit sich Verwaltung und Bundesrat nicht mehr über Verordnungen und Ausführungsbestimmungen hinwegsetzen können, so wie das aktuell beispielsweise beim BÜPF geschieht.
Die Piratenpartei Schweiz ruft deshalb alle Stimmberechtigten auf, sich zu informieren und am 28. September ein deutliches Zeichen für digitale Freiheit zu setzen: Wer Privatsphäre, Sicherheit und echte Freiwilligkeit will, sagt Nein zur E-ID.
Weitere Informationen zur Kampagne: www.referendum-eid.ch
The actual house that inspired the 1999 film, “The Blair Witch Project” located in Burkittsville, Maryland.
(Peter Ciccariello)
differx.tumblr.com/post/793571…
reshared this
Il paradosso storico dietro la parata militare a Pechino
Il Partito comunista cinese celebra la vittoria contro il Giappone nella seconda guerra mondiale, senza ricordare che un aiuto determinante in quel conflitto arrivò dal suo nemico di oggi, gli Stati Uniti. LeggiPierre Haski (Internazionale)
RFanciola reshared this.
Bastian’s Night #441 September, 4th
Every Thursday of the week, Bastian’s Night is broadcast from 21:30 CEST (new time).
Bastian’s Night is a live talk show in German with lots of music, a weekly round-up of news from around the world, and a glimpse into the host’s crazy week in the pirate movement.
If you want to read more about @BastianBB: –> This way
An Amiga Demo With No CPU Involved
Of the machines from the 16-bit era, the Commodore Amiga arguably has the most active community decades later, and it’s a space which still has the power to surprise. Today we have a story which perhaps pushes the hardware farther than ever before: a demo challenge for the Amiga custom chips only, no CPU involved.
The Amiga was for a time around the end of the 1980s the most exciting multimedia platform, not because of the 68000 CPU it shared with other platforms, but because of its set of custom co-processors that handled tasks such as graphics manipulation, audio, and memory. Each one is a very powerful piece of silicon capable of many functions, but traditionally it would have been given its tasks by the CPU. The competition aims to find how possible it is to run an Amiga demo entirely on these chips, by using the CPU only for a loader application, with the custom chip programming coming entirely from a pre-configured memory map which forms the demo.
The demoscene is a part of our community known for pushing hardware to its limits, and we look forward to seeing just what they do with this one. If you have never been to a demo party before, you should, after all everyone should go to a demo party!
Amiga CD32 motherboard: Evan-Amos, Public domain.
Lovable, l’unicorno svedese dell’intelligenza artificiale che rivoluziona la programmazione
La conferenza TechBBQ di quest’anno ha visto un’affluenza tale da occupare tutti gli spazi disponibili del Bella Center di Copenaghen, quando Anton Osika, co-fondatore dell’applicazione di programmazione basata sull’intelligenza artificiale Lovable, ha preso posto sul palco.
Il concetto fondamentale di Lovable è estremamente semplice: si tratta di consentire a chiunque, soprattutto a coloro che non possiedono alcuna conoscenza di programmazione, di sviluppare applicazioni e siti web. Questo è reso possibile grazie all’introduzione del concetto di “vibe coding” o programmazione basata sull’intuito, che si avvale di tentativi ed errori aiutati dalle intelligenze artificiali. Soluzioni come Cursor, Gemini, Claude e ovviamente Lovable, stanno aprendo la strada a questo nuovo approccio.
A fine giugno, Lovable ha rilasciato un agente per aiutare gli utenti a leggere i file, correggere gli errori, effettuare ricerche sul web, generare immagini e individuare i file: un primo passo verso la realizzazione di tale visione.
Una proposta estremamente attraente è stata avanzata agli utenti: l’azienda svedese, in un lasso di tempo di soli otto mesi, ha reso noto di aver raggiunto un ARR superiore ai 100 milioni di dollari e di aver ottenuto un investimento di Serie A pari a 200 milioni di dollari, con una valutazione che ha raggiunto 1,8 miliardi di dollari, acquisendo così il titolo di unicorno in più rapida crescita nel continente europeo. Secondo quanto riportato dal Financial Times, gli investitori stanno già nutrendo la speranza di poter lanciare una nuova raccolta fondi di Serie B, prospettando accordi che potrebbero valutare l’azienda fino a 4 miliardi di dollari. Tuttavia, ad oggi, non sono emersi indizi che suggeriscano un interesse da parte di Lovable.
Lovable conta oltre 2,3 milioni di utenti attivi, di cui 180.000 abbonati paganti. Secondo il fondatore Osika, l’azienda ha definito i prezzi in base alla copertura dei costi e negli ultimi mesi ha fatto un salto di qualità: da semplice strumento per generare bozze a piattaforma in grado di produrre applicazioni complete, paragonabili al lavoro di uno sviluppatore. Nonostante le critiche alla fragilità del codice generato dall’intelligenza artificiale, Osika ribadisce che ogni codice deve essere revisionato, indipendentemente dalla sua origine.
La società si basa su diversi modelli fondamentali di AI, tra cui Claude di Anthropic e GPT-5 di OpenAI. Questa scelta le consente di sfruttare una maggiore varietà di strumenti, anche se comporta una competizione indiretta con le stesse aziende fornitrici, che sviluppano soluzioni concorrenti. Tuttavia, Osika sostiene che Lovable abbia un vantaggio: la libertà di integrare più modelli, garantendo agli utenti capacità superiori e all’azienda flessibilità per crescere senza il peso di un’infrastruttura proprietaria.
Il CEO insiste sul fatto che la priorità è la qualità del prodotto e la rapidità di esecuzione. L’azienda punta a offrire un’esperienza semplice, sicura e intuitiva, convinta che questa strategia permetterà di guadagnare la fiducia dei clienti più di qualsiasi concorrente. Anche di fronte al successo dell’IPO di Figma, valutata 19,3 miliardi di dollari, Osika mantiene il focus sugli utenti e sui loro bisogni, ritenendolo il vero metro di crescita.
Lovable è profondamente radicata nell’ecosistema tecnologico svedese, con il sostegno di investitori di primo piano come Stefan Lindeberg, Fredrik Hjelm, Greens Ventures, Hummingbird Ventures e 20VC. Tra gli investitori figurano anche figure di spicco come Nik Storonsky (Revolut) e Sebastian Siemiatkowski (Klarna), che è anche cliente insieme a realtà come HubSpot e Photoroom. Questo legame con il mercato europeo rafforza il ruolo di Lovable come esempio di successo locale con ambizioni globali.
Il successo di Lovable è visto come un catalizzatore per l’intero ecosistema europeo delle startup. Secondo Shamillah Bankiya di Dawn Capital, il valore non è solo economico, ma anche culturale: innalza le aspirazioni dei fondatori del continente. Osika conferma la volontà di mantenere la sede in Europa, pur avendo un team a Los Angeles, e ha iniziato a reinvestire in altri imprenditori, come con Propane.ai. Il caso Lovable dimostra che piccoli team con una visione globale possono ancora emergere e ridefinire interi settori partendo dal Nord Europa.
L'articolo Lovable, l’unicorno svedese dell’intelligenza artificiale che rivoluziona la programmazione proviene da il blog della sicurezza informatica.
Trend Micro: attenzione alla “Task scam”, la truffa che colpisce chi cerca lavoro online
L’ultima ricerca del leader di security rivela i meccanismi fraudolenti che si nascondono dietro le finte opportunità di lavoro proposte dalle piattaforme digitali
In tutto il mondo aumentano le vittime della “Task scam”, una truffa in rapida crescita che Trend Micro, leader globale di cybersecurity, analizza nella sua ultima ricerca “Unmasking Task Scams to Prevent Financial Fallout From Fraud“. La “Task scam” è una sofisticata truffa che colpisce gli utenti che cercano lavoro online. Questa tipologia di frode, dopo un’iniziale proposta di impiego all’apparenza seria, attira la vittima in attività digitali ripetitive che la privano di ingenti somme di denaro.
“La task scam è oggi una delle minacce cybercriminali più pericolose a livello finanziario e psicologico. L’infrastruttura che abilita questa tipologia di frode, dal registrar del dominio ai servizi di SMS blasting, richiede un’attenzione immediata. Le aziende possono ridurre i rischi rendendo le pratiche di assunzione trasparenti e formando le persone in cerca di lavoro su come distinguere le comunicazioni legittime da quelle false”. Afferma Salvatore Marcis, Country Manager di Trend Micro Italia.
La ricerca di Trend svela che dietro questa truffa si nasconde una vasta infrastruttura criminale globale, in grado di derubare gli utenti in cerca di lavoro attraverso tecniche di gamification. I cybercriminali impersonano aziende reali e sfruttano canali di comunicazione affidabili, spingendo le vittime a perdere centinaia di migliaia di euro, che vengono trasferiti in wallet di criptovaluta.
Questa tattica di frode è altamente mirata e progettata per non essere rilevata. In un recente studio globale condotto da Trend, su oltre 6.500 consumatori, il 39% ha riferito di essersi accorto di aver subito una truffa solo dopo aver perso una notevole quantità di denaro. La ricerca di Trend racconta l’esperienza del coinvolgimento con i truffatori, identifica la mappa dei siti web dannosi e include l’analisi forense dei wallet di criptovaluta associati. In un caso, un singolo wallet ha accumulato oltre 187.000 euro in meno di due mesi, mentre un altro era collegato a transazioni per oltre 1,2 milioni di euro.
I risultati principali della ricerca includono:
- Come i cybercriminali impersonano aziende reali, comprese società di recruitment e agenzie di digital marketing
- L’analisi di piattaforme per le truffe in stile gaming, con livelli VIP, ricompense e incentivi al raggiungimento dei risultati
- Il diffuso utilizzo di SMS, WhatsApp, Telegram e siti web contraffatti per dare un’idea di legittimità
- L’identificazione di domini collegati a registrar ad alto rischio, con centinaia di domini simili identificati
- Pagamenti in criptovaluta che nascondono eventuali tracce e facilitano il riciclaggio di denaro internazionale.
Le vittime riportano un elevato danno emotivo, spesso descrivendo comportamenti simili alla dipendenza dal gioco d’azzardo. In alcuni casi, le truffe sono collegate a operazioni criminali più ampie che includono il lavoro forzato e la tratta di esseri umani nel sud-est asiatico, sebbene tali legami non siano confermabili in tutti i casi.
Trend Micro ScamCheck with Scam Radar aiuta gli utenti a riconoscere tempestivamente un tentativo di truffa. Scam Radar è la prima soluzione del suo genere e protegge in tempo reale identificando le tattiche di truffa utilizzate dai cybercriminali nel momento in cui si verificano, avvisa gli utenti e consente loro di agire prima di subire danni.
L'articolo Trend Micro: attenzione alla “Task scam”, la truffa che colpisce chi cerca lavoro online proviene da il blog della sicurezza informatica.
Anche Palo Alto Networks Compromessa tramite Salesforce e Drift
All’inizio di settembre 2025,Palo Alto Networks ha confermato di essere stata vittima di una violazione dei dati. La compromissione non ha interessato i suoi prodotti o servizi core, bensì alcune istanze di Salesforce utilizzate internamente, a causa di un’integrazione con l’app di terze parti Salesloft Drift. L’incidente rientra in una campagna di attacchi supply chain più ampia, condotta nel mese di agosto 2025, e mostra ancora una volta quanto le integrazioni SaaS possano rappresentare un punto debole significativo.
Tra l’8 e il 18 agosto 2025, un threat actor identificato da Google comeUNC6395 ha sfruttato token OAuth compromessi associati all’app Drift. Questi token hanno permesso di accedere a istanze Salesforce senza passare da autenticazioni aggiuntive, aprendo così la strada all’esfiltrazione di dati sensibili.
Dal punto di vista tecnico, l’attacco ha sfruttato:
- Token OAuth riutilizzabili: i token, una volta compromessi, hanno fornito accesso diretto all’API di Salesforce, senza richiedere ulteriori challenge di autenticazione.
- Permessi eccessivi: le autorizzazioni concesse a Drift erano ampie, includendo accesso a campi custom e support case, ampliando così la superficie di dati esfiltrabili.
- Automazione delle query: script inPython hanno effettuato query massicce verso Salesforce SOQL, ottimizzate per estrarre in blocco contatti, note interne e dati dei ticket.
- Anti-forensics: gli attaccanti hanno cancellato log di query e manipolato record di accesso per mascherare la loro presenza.
Dati compromessi
Secondo Palo Alto Networks, i dati sottratti includono principalmente:
- Informazioni di contatto aziendali (nomi, email, numeri di telefono);
- Dati interni delle vendite (lead, opportunità, pipeline);
- Informazioni di supporto di base (support case, note di ticket).
Il rischio maggiore deriva dal fatto che nei ticket di supporto possono essere presentisegreti operativi come:
- Chiavi API o credenziali temporanee condivise con i clienti;
- URL interni o IP pubblici dei sistemi di produzione;
- Indicazioni sulle architetture di rete (es. configurazioni firewall, VPN);
- Riferimenti a integrazioni cloud come AWS e Snowflake.
La risposta di Palo Alto Networks
Una volta identificata l’attività sospetta, Palo Alto Networks ha:
- Disconnesso immediatamente Drift dall’ambiente Salesforce;
- Avviato un’indagine interna con il supporto del teamUnit 42;
- Notificato un numero ristretto di clienti potenzialmente più esposti;
- Condiviso linee guida difensive con la community.
Salesloft eSalesforce hanno reagito revocando i token OAuth attivi dell’app Drift e rimuovendo temporaneamente l’app dall’AppExchange.
Raccomandazioni operative
Unit 42 e vari analisti di sicurezza hanno suggerito contromisure tecniche immediate:
- Revocare e rigenerare i token OAuth per tutte le integrazioni Salesforce.
- Implementare restrizioni granulari sugli scope OAuth concessi alle app di terze parti.
- Monitorare le query SOQL per individuare estrazioni massive non giustificate.
- Abilitare il logging avanzato e archiviare i log in sistemi esterni per evitare manipolazioni.
- Segmentare l’accesso: vincolare l’uso delle app SaaS a VPN o proxy controllati.
- Ruotare tutte le credenziali eventualmente esposte nei ticket di supporto (es. chiavi AWS, token Snowflake, credenziali VPN).
Possibili scenari di attacco
L’esfiltrazione dei dati da Salesforce non rappresenta un punto finale, ma un trampolino per attività più gravi. Gli scenari più probabili includono:
- Credential stuffing e accesso ad altri ambienti: se le credenziali sottratte (AWS, VPN, Snowflake) non sono state immediatamente revocate, gli attaccanti possono usarle per penetrare in infrastrutture critiche.
- Spear phishing mirato: con i dati di contatto e le informazioni sui ticket, è possibile costruire campagne di phishing altamente personalizzate e difficili da individuare.
- Movimento laterale: sfruttando le informazioni architetturali emerse dai support case, gli attaccanti possono pianificare azioni di lateral movement verso ambienti interni.
- Accesso persistente: eventuali chiavi API sottratte potrebbero essere usate per stabilire backdoor in servizi cloud, mantenendo accesso anche dopo la remediation iniziale.
- Estorsione e reputational damage: minacciare la pubblicazione dei dati rubati per estorcere denaro o colpire la reputazione aziendale.
Il caso di Palo Alto Networks dimostra come un attacco alla catena di fornitura possa avere impatti rilevanti anche su aziende leader nel settore della sicurezza informatica. L’anello debole, in questo caso, non è stato un prodotto core, ma un’integrazione SaaS apparentemente innocua.
La lezione chiave è chiara:ogni applicazione terza connessa a sistemi critici va trattata come un potenziale punto di ingresso. L’adozione di pratiche come ilprincipio del minimo privilegio sugli scope OAuth, l’analisi dei log esterni e larotazione continua delle credenziali sensibili diventano elementi essenziali per ridurre la superficie d’attacco.
In un contesto in cui gli attacchi supply chain diventano sempre più mirati e sofisticati, la resilienza passa dall’attenzione non solo ai prodotti core, ma anche a tutte le integrazioni e dipendenze applicative che vivono nell’ecosistema aziendale.
L'articolo Anche Palo Alto Networks Compromessa tramite Salesforce e Drift proviene da il blog della sicurezza informatica.
Stampa Romana con la Global Sumud Flottilla per Gaza, sabato alle 18 in piazza del Campidoglio
Sabato prossimo alle ore 18, in piazza del Campidoglio, Stampa Romana parteciperà all’iniziativa di sostegno alla Global Sumud Flottilla con Fnsi, Cgil, Rete No Bavaglio, numerose altre associazioni.
È necessario, ancora di più dopo le gravi e inaccettabili minacce del governo israeliano, manifestare vicinanza a chi si spende per dare sollievo concreto alla popolazione palestinese, assediata, bombardata, ridotta alla fame. Sarà un modo per ricordare anche che a Gaza sono stati uccisi più giornalisti che in qualunque altro conflitto, che ancora Israele non consente l’accesso alla Striscia della stampa indipendente, che a essere colpito duramente è stato anche il diritto di cronaca, ovvero quello dei cittadini di tutto il mondo a essere informati correttamente.
La Segreteria dell’Asr
Gaza, la Fnsi in piazza il 6 settembre con la Cgil
La Federazione nazionale della Stampa italiana aderisce alla manifestazione indetta dalla Cgil per Gaza in programma sabato 6 settembre 2025.
«Quanto sta accadendo nella Striscia – afferma Alessandra Costante, segretaria generale della Fnsi – non è solo la mattanza di giornalisti, ma è l’uccisione di un popolo: fra le vittime del massacro ci sono anche migliaia di bambini e per questo è giusta, corretta e necessaria una mobilitazione di tutta la società e non soltanto di una parte».
Il sindacato dei giornalisti si unisce alla Cgil nel chiedere che «si fermi la barbarie in corso» e che il governo italiano «si schieri dalla parte della pace, della giustizia e del diritto internazionale» e invita i colleghi a dare voce alla protesta che si alzerà in tutta Italia.
La Fnsi sostiene, inoltre, l’iniziativa umanitaria non violenta della Global Sumud Flotilla per la popolazione martoriata di Gaza.
Gaza. Ossigeno protesta contro l’uccisione dei giornalisti insieme a 150 giornali di 50 paesi
Il 1 settembre pubblicherà un banner che contiene un appello a Israele per proteggere i cronisti e per lasciare entrare nella Striscia gli inviati stranieri
Ossigeno per l’Informazione aderisce all’iniziativa di 150 testate giornalistiche internazionali, di oltre cinquanta paesi, di lanciare il 1° settembre prossimo una campagna mediatica per condannare le uccisioni dei giornalisti palestinesi da parte dell’esercito israeliano; chiedere la protezione dei giornalisti di Gaza o l’evacuazione di emergenza di quanti la chiedano; chiedere che alla stampa estera venga garantito un accesso indipendente alla Striscia.
La campagna – coordinata da Reporter Senza Frontiere (RSF) e dal movimento globale Avaaz – prevede che le edizioni del primo settembre dei media aderenti escano con pagine o banner neri e il seguente messaggio:
Al ritmo con cui l’esercito israeliano uccide i giornalisti a Gaza, presto non ci sarà più nessuno a tenervi informati. #Protezione per i giornalisti a Gaza #Si lasci entrare i reporter a Gaza.
Questo il testo originale in inglese: “At the rate journalists are being killed in Gaza by the Israeli army, there will soon be no one left to keep you informed.” #ProtectJournalistsInGaza #LetReportersIntoGaza
Ossigeno si è fatto interprete delle stesse richieste già nei mesi scorsi (leggi). Ora evidenzierà la sua adesione sia sul proprio sito web www.ossigeno.info sia su quello dedicato ai giornalisti italiani uccisi dalle mafie, dal terrorismo e nelle zone di guerra, intitolato Cercavano la verità www.giornalistiuccisi.it. Ossigeno rivolge un appello a tutti i media e alle organizzazioni dei giornalisti affinché aderiscano anch’essi alla iniziativa di lunedì prossimo 1 settembre.
L’operazione mediatica coordinata giunge pochi giorni dopo gli ultimi attacchi mortali dell’esercito israeliano contro i giornalisti nella Striscia. Il 25 agosto, uno di questi attacchi ha colpito un edificio nel complesso medico di al-Nasser, nel centro di Gaza, un noto luogo di lavoro per i giornalisti, uccidendo cinque reporter e membri dello staff di testate giornalistiche locali e internazionali come Reuters e Associated Press. Due settimane prima, la notte del 10 agosto, un attacco israeliano aveva ucciso sei giornalisti, tra i quali il corrispondente di Al Jazeera Anas al-Sharif, che era l’obiettivo designato.
Nel frattempo, il Comitato per la Protezione dei Giornalisti (CPJ) ha chiesto un’indagine indipendente sull’uccisione dei cinque colleghi di lunedì 25 agosto all’ospedale Nasser di Khan Yunis. Un rapporto militare preliminare israeliano affermava che “sembra” che una telecamera di Hamas fosse l’obiettivo dell’attacco e nominava sei “terroristi eliminati durante l’attacco” – nessuno dei quali era tra i cinque giornalisti uccisi.
“Il rapporto iniziale di Israele lascia molte più domande che risposte e non spiega perché un carro armato israeliano abbia aperto il fuoco contro l’operatore della Reuters Hussam Al-Masri e la telecamera visibile in diretta dell’agenzia di stampa che aveva ripreso da quella posizione quotidianamente per diverse settimane”, ha dichiarato l’amministratore delegato del CPJ Jodie Ginsberg. “Né spiega perché i primi soccorritori, inclusi altri giornalisti, siano stati presi di mira in un apparente attacco cosiddetto “doppio colpo” nello stesso luogo. La natura indiscriminata e sproporzionata dell’attacco richiede che questo incidente venga indagato come un apparente crimine di guerra”.
Secondo i dati di RSF, più di 210 giornalisti sono stati uccisi dall’esercito israeliano nella Striscia di Gaza in quasi ventitré mesi di operazioni militari israeliane nei territori palestinesi. Almeno cinquantasei di loro sono stati intenzionalmente presi di mira dall’esercito israeliano o uccisi mentre svolgevano il loro lavoro.
La mobilitazione del primo settembre non ha precedenti per modalità e dimensione, anche se nei mesi scorsi si sono moltiplicate le iniziative delle organizzazioni giornalistiche internazionali per denunciare il massacro di reporter condotto impunemente dall’Idf a Gaza e chiedere l’accesso dei media stranieri nella Striscia. RSF, in particolare, rinnova l’appello per la protezione urgente dei professionisti dei media palestinesi, appello sostenuto a giugno da oltre 200 organi di stampa e organizzazioni della società civile.
Fabio Tavano reshared this.
The Case for Pascal, 55 Years On
The first version of Pascal was released by the prolific [Niklaus Wirth] back in 1970. That’s 55 years ago, an eternity in the world of computing. Does anyone still use Pascal in 2025? Quite a few people as it turns out, and [Huw Collingbourne] makes the case why you might want to be one of them in a video embedded below.
In all fairness, when [Huw] says “Pascal” he isn’t isn’t talking about the tiny language [Wirth] wrote back when the Apollo Program was a going concern. He’s talking about Object Pascal, as either Free Pascal or Delphi– which he points out are regularly the tenth most popular of all programming languages. (Index.dev claims that it has climbed up to number nine this year, just behind Go.) As a professional move, it might not be the most obvious niche but it might not be career suicide either. That’s not his whole argument, but it’s required to address the criticism that “nobody uses Pascal anymore”.
Pascal, quite simply, can make you a better programmer. That, as [Huw] points out, was an explicit goal of the language. Before Python took over the education world, two generations of high school students learned Pascal. Pascal’s strong typing and strict rules for declaration taught those kids good habits that hopefully carried over to other languages. It might help you, too.
For experienced programmers, Pascal is still a reasonable choice for cross-platform development. Free Pascal (and the Lazarus IDE) brings the graphical, drag-and-drop ease that once made Delphi rule the Windows roost to any modern platform. (And Delphi, a commercial Pascal product, is apparently still around.) Free Pascal lets you code on Linux or Mac, and deploy on Windows, or vice-versa. While you could do that on Python, Pascal gets you a lot closer to the metal than Python ever could.
Sure, it’s a modern object-oriented language now, with objects and classes and hierarchies and all that jazz– but you don’t always have to use them. If you want to go low-level and write your Pascal like it’s 1985, you can. It’s like being able to switch into C and manipulate pointers whenever you want.
On some level, perhaps the answer to the question “Why use Pascal in 2025” is simply– why not? It’s likely that the language can do what you want, if you take the time to learn how. You can even use it on an Arduino if you so wish– or go bare metal on the Raspberry Pi.
Thanks to [Stephen Walters] for the tip.
youtube.com/embed/dwnaR0687iI?…
Webinar precongressuale: disabilità e diritti
In occasione del XXII Congresso dell’Associazione Luca Coscioni per la libertà di ricerca scientifica APS, l’Associazione Luca Coscioni presenta il webinar
Riunione precongressuale: disabilità e diritti.
L’appuntamento precongressuale sul tema dei diritti delle persone con disabilità, prevederà gli interventi di Barbara Peres (Consigliera di Parità effettiva della città metropolitana di Milano), Alessandro Bardini (avvocato), Alessandro Gerardi (avvocato) e Irene Ghezzi (attivista e coordinatrice della cellula di Cremona); modera Rocco Berardo (responsabile iniziative disabilità).
L’appuntamento è per il 15 settembre 2025 alle ore 18, online sul canale ytb di Associazione Luca Coscioni APS.
L’evento sarò poi reso disponibile sul canale YouTube dell’Associazione Luca Coscioni all’interno della playlist “Eventi precongressuali 2025”.
L'articolo Webinar precongressuale: disabilità e diritti proviene da Associazione Luca Coscioni.
Webinar precongressuale: “Salute mentale, ben oltre la psichiatria”
In occasione del XXII Congresso dell’Associazione Luca Coscioni per la libertà di ricerca scientifica APS, l’Associazione Luca Coscioni presenta il webinar
Salute mentale: ben oltre la psichiatria.
L’appuntamento precongressuale ha come obiettivo quello di porre le basi per una proposta dell’Associazione Luca Coscioni sul tema della salute mentale, e prevederà gli interventi di Claudia Moretti (avvocata e Consigliera Generale ALC), Fabrizio Starace (Direttore della struttura complessa psichiatria dell’ASL TO5 e Consigliere Generale ALC), Piero Cipriano (Psichiatra e psicoterapeuta) ; modera Diego Silvestri (psichiatra e Consigliere Generale ALC).
L’appuntamento è per il 17 settembre 2025 alle ore 18, online sul canale ytb di Associazione Luca Coscioni APS.
L’evento sarò poi reso disponibile sul canale YouTube dell’Associazione Luca Coscioni all’interno della playlist “Eventi precongressuali 2025”.
L'articolo Webinar precongressuale: “Salute mentale, ben oltre la psichiatria” proviene da Associazione Luca Coscioni.
This Plotter Knows No Boundaries
If your school in the 1980s was lucky enough to have a well-equipped computer lab, the chances are that alongside the 8-bit machines you might have found a little two-wheeled robot. These machines and the Logo programming language that allowed them to draw simple vector graphics were a popular teaching tool at the time. They’re long-forgotten now, but not in the workshop of [Niklas Roy], who has created a modern-day take on their trundling.
His two-wheeled robots form simple but effective vector plotters, calculating the paths between coordinates with a consistency that surprised him. They’re used for artwork rather than functional plotting, but we’re guessing they could be used for either. We particularly like the drawing battle between a pair of drawing bots and an eraser bot, as it reminds us of a pixelflood screen.
The parts are all straightforward, its brain is an Arduino Nano, and the files can be downloaded for you to build your own. If you’re falling down the Logo rabbit hole as he did, then it’s not the first time we’ve been there.
Applying Thermal Lining to Rocket Tubes Requires a Monstrous DIY Spin-caster
[BPS.space] takes model rocketry seriously, and their rockets tend to get bigger and bigger. If there’s one thing that comes with the territory in DIY rocketry, it’s the constant need to solve new problems.Coating the inside of a tube evenly with a thick, goopy layer before it cures isn’t easy.
One such problem is how to coat the inside of a rocket motor tube with a thermal liner, and their solution is a machine they made and called the Limb Remover 6000 on account of its ability to spin an 18 kg metal tube at up to 1,000 rpm which is certainly enough to, well, you know.
One problem is that the mixture for the thermal liner is extremely thick and goopy, and doesn’t pour very well. To get an even layer inside a tube requires spin-casting, which is a process of putting the goop inside, then spinning the tube at high speed to evenly distribute the goop before it cures. While conceptually straightforward, this particular spin-casting job has a few troublesome difficulties.
For one thing, the uncured thermal liner is so thick and flows so poorly that it can’t simply be poured in to let the spinning do all the work of spreading it out. It needs to be distributed as evenly as possible up front, and [BPS.space] achieves that with what is essentially a giant syringe that is moved the length of the tube while extruding the uncured liner while the clock is ticking. If that sounds like a cumbersome job, that’s because it is.
The first attempt ended up scrapped but helped identify a number of shortcomings. After making various improvements the second went much better and was successfully tested with a 12 second burn that left the tube not only un-melted, but cool enough to briefly touch after a few minutes. There are still improvements to be made, but overall it’s one less problem to solve.
We’re always happy to see progress from [BPS.space], especially milestones like successfully (and propulsively) landing a model rocket, and we look forward to many more.
youtube.com/embed/ivz5_1Og5II?…
Thanks to [Keith] for the tip!
Phonenstien Flips Broken Samsung Into QWERTY Slider
The phone ecosystem these days is horribly boring compared to the innovation of a couple decades back. Your options include flat rectangles, and flat rectangles that fold in half and then break. [Marcin Plaza] wanted to think outside the slab, without reinventing the wheel. In an inspired bout of hacking, he flipped a broken Samsung zFlip 5 into a “new” phone.
There’s really nothing new in it; the guts all come from the donor phone. That screen? It’s the front screen that was on the top half of the zFlip, as you might have guessed from the cameras. Normally that screen is only used for notifications, but with the Samsung’s fancy folding OLED dead as Disco that needed to change. Luckily for [Marcin] Samsung has an app called Good Lock that already takes care of that. A little digging about in the menus is all it takes to get a launcher and apps on the small screen.
Because this is a modern phone, the whole thing is glued together, but that’s not important since [Marcin] is only keeping the screen and internals from the Samsung. The new case with its chunky four-bar linkage is a custom design fabbed out in CNC’d aluminum. (After a number of 3D Printed prototypes, of course. Rapid prototyping FTW!)
The bottom half of the slider contains a Blackberry Q10 keyboard, along with a battery and Magsafe connector. The Q10 keyboard is connected to a custom flex PCB with an Arduino Micro Pro that is moonlighting as a Human Input Device. Sure, that means the phone’s USB port is used by the keyboard, but this unit has wireless charging,so that’s not a great sacrifice. We particularly like the use of magnets to create a satisfying “snap” when the slider opens and closes.
Unfortunately, as much as we might love this concept, [Marcin] doesn’t feel the design is solid enough to share the files. While that’s disappointing, we can certainly relate to his desire to change it up in an era of endless flat rectangles. This project is a lot more work than just turning a broken phone into a server, but it also seems like a lot more fun.
youtube.com/embed/qy_9w_c2ub0?…
No Need For Inserts If You’re Prepared To Use Self-Tappers
As the art of 3D printing has refined itself over the years, a few accessories have emerged to take prints to the next level. One of them is the threaded insert, a a piece of machined brass designed to be heat-set into a printed hole in the part. They can be placed by hand with a soldering iron, or for the really cool kids, with a purpose-built press. They look great and they can certainly make assembly of a 3D printed structure very easy, but I’m here to tell you they are not as necessary as they might seem. There’s an alternative I have been using for years which does essentially the same job without the drama.
Enter The Self-Tapper
This turret camera project features both inserts on the M12 lens holders, and self-tappers for the centre boss and the mounting screws.
When we think of screws or other fastenings, if we’re not a woodworker, the chances are that it’s a machine screw which comes to mind. A high-precision machined parallel thread, intended to screw into a similarly machined receptacle. Where this is being written they’re mostly metric, in fact I have a small pile of M3 bolts on my desk as I write this, for mounting a Raspberry Pi LCD screen. These are what you would use with those heat-set inserts, and they are generally a very good way to attach parts to each other.
However good an M3 bolt is though, I don’t use them for most of my 3D printing work. Instead, I use self-tapping screws. A self-tapper is a screw with a wide tapering pitch, designed to cut its own thread into a soft material. Most wood screws are self-tappers, as are many screws used for example with aluminium sheet. The material is soft enough for a reliable enough coupling to be made, even if repeated use or over-tightening can destroy it. It’s easy to make 3D prints that can take self-tapping screws in this way, I find it reliable enough for my purposes, and I think it can save you a bunch of time with heat inserts.
How To Make It All Happen
Designing for a self-tapping connection in a 3D print is simplicity itself: a suitable hole for the screw thread to pass through is placed in the upper side, while the lower side has a smaller hole for the thread to bite into. The size of the smaller hole can vary significantly without penalty, but I normally make it the diameter of the shaft of the screw without the thread. A simple example for a 3mm self-tapper in OpenSCAD is shown below, along with a render of the result.
//Screw head end
translate([0,0,20]){ //Move upwards to see both parts
difference(){
cube([20,20,4]);
//screw thread
translate([10,10,0]) cylinder(10,1.5,1.5);
//screw head
translate([10,10,2]) cylinder(10,3,3);
}
}
//Screw thread end
difference(){
cube([20,20,10]);
translate([10,10,0]) cylinder(10,1,1); // For the screw to bite into
}
Assembly follows construction in its simplicity; simply line up both holes and screw the self-tapping screw into them. It should be obvious when the screw is tight enough. Mashing upon it, just like with any other self tapper, risks stripping the thread.
Everyone makes things in their own manner, and it’s likely that among you will be people who might decry the use of self-tappers in a 3D print. But I have found this technique to be a simple and cheap time saver for as many years as I’ve been 3D printing. I hope by sharing it with you, I’ve given you a useful tool in your work.
Checking Out a TV Pattern Generator from 1981
The picture on a TV set used to be the combined product of multiple analog systems, and since TVs had no internal diagnostics, the only way to know things were adjusted properly was to see for yourself. While many people were more or less satisfied if their TV picture was reasonably recognizable and clear, meaningful diagnostic work or calibration required specialized tools. [Thomas Scherrer] provides a close look at one such tool, the Philips PM 5519 GX Color TV Pattern Generator from 1981.This Casio handheld TV even picked up the test pattern once the cable was disconnected, the pattern generator acting like a miniature TV station.
The Philips PM 5519 was a serious piece of professional equipment for its time, and [Thomas] walks through how the unit works and even opens it up for a peek inside, before hooking it up to both an oscilloscope and a TV in order to demonstrate the different functions.
Tools like this were important because they could provide known-good test patterns that were useful not just for troubleshooting and repair, but also for tasks like fine-tuning TV settings, or verifying the quality of broadcast signals. Because TVs were complex analog systems, these different test patterns would help troubleshoot and isolate problems by revealing what a TV did (and didn’t) have trouble reproducing.
As mentioned, televisions at the time had no self-diagnostics nor any means of producing test patterns of their own, so a way to produce known-good reference patterns was deeply important.
TV stations used to broadcast test patterns after the day’s programming was at an end, and some dedicated folks have even reproduced the hardware that generated these patterns from scratch.
youtube.com/embed/jZtGrG6HhS4?…
Build Your Own Pip-Boy Styled Watch
[Arnov Sharma]’s latest PIP-WATCH version is an homage to Pip-Boys, the multi-function wrist-mounted personal computers of Fallout.We like the magnetic clasp on the back end.
[Arnov] has created a really clean wearable design with great build instructions, so anyone who wants to make their own should have an easy time. Prefer to put your own spin on it, or feel inspired by the wrist-mounted enclosure? He’s thoughtfully provided the CAD files as well.
Inside the PIP-WATCH is a neat piece of hardware, the Lilygo T-Display-S3 Long. It’s an ESP32-based board with a wide, touch-enabled, color 180 x 640 display attached. That makes it a perfect fit for a project like this, at least in theory. In practice, [Arnov] found the documentation extremely lacking which made the hardware difficult to use, but he provides code and instructions so there’s no need to go through the same hassles he did.
In addition to the Hackaday.io project page, there’s an Instructables walkthrough.
If you put your own spin on a Pip-boy (whether just a project inspired by one, or a no-detail-spared build of dizzying detail) we want to hear about it, so be sure to drop us a tip!
youtube.com/embed/jQH54g_L25s?…
The Sense and Nonsense of Virtual Power Plants
Over the past decades power grids have undergone a transformation towards smaller and more intermittent generators – primarily in the form of wind and solar generators – as well as smaller grid-connected batteries. This poses a significant problem when it comes to grid management, as this relies on careful management of supply and demand. Quite recently the term Virtual Power Plant (VPP) was coined to describe these aggregations of disparate resources into something that at least superficially can be treated more or less as a regular dispatchable power plant, capable of increasing and reducing output as required.
Although not actual singular power plants, by purportedly making a VPP act like one, the claim is that this provides the benefits of large plants such as gas-fired turbines at a fraction of a cost, and with significant more redundancy as the failure of a singular generator or battery is easily compensated for within the system.
The question is thus whether this premise truly holds up, or whether there are hidden costs that the marketing glosses over.
Reactive Power
The power triangle, showing the relationship between real, apparent and reactive power. (Source: Wikimedia)
The alternating current (AC) based electrical grid is a delicate system that requires constant and very careful balancing to ensure that its current current and voltage don’t go too far out of phase, lest grid frequency and voltage start following it well beyond tolerances. The consequence of getting this wrong has been readily demonstrated over the decades through large-scale blackouts, not the least of which being the 2025 Iberian Peninsula blackout event that plummeted all of Spain and Portugal into darkness. This occurred after attempts to reduce the amount of reactive power in the system failed and safeties began to kick in throughout these national grids.
This is also the point where the idea of a VPP runs into a bit of a reality check, as the recommendation by the grid operators (transmission system operators, or TSOs) is that all significant generators on the grid should be capable of grid-forming. What this means is that unlike the average invertor on a wind- or PV solar installation that just follows the local grid frequency and voltage, it should instead be able to both absorb and produce reactive power.
Effectively this involves adding local energy storage, which is where the idea seems to be that you can sort of fudge this with distributed dumb inverters and grid-connected batteries in the form of people’s whole house batteries and whatever Vehicle-to-Grid (V2G) capable BEV is currently plugged in within that subsection of the grid.
Theoretically with enough of these scattered generators and storage elements around, along with a few grid-forming converters and remotely controlled loads like EV chargers and airconditioning units, you could simulate the effect of a regular thermal- or hydropower plant. The question is whether you can make it work well enough, and as a logical follow-up question, there are those who would like to know who is really footing the bill in the end.
Battery Rental
Electricity generation by type, 2001-2024. (Credit: California Energy Commission)
An example of such a VPP in action can be found in California, where PG&E and others have recently been running tests. A big focus here is on these home batteries, which are also used for peak-shaving in these tests, with the battery owner compensated for withdrawn power. In a report sponsored by Sunrun and Tesla Energy, the Brattle Group describes this system in which the Demand Side Grid Support (DSGS) program aspect is hailed as a major revolution.Fire at the Moss Landing Power Plant. (Credit: Guy Churchward)
The idea here is that regular grid-connected consumers install batteries which the grid operator can then tap into, which can compensate for California’s increasing amount of non-dispatchable, non-grid forming generation sources. Of note here is that grid-scale energy storage can never provide enough capacity to bridge significant spans of time, ergo the proposal here is primarily to provide an alternative to expensive peaker plants, of which California already has a significant number.
With a predicted 4 GW of home battery capacity by 2040, this could then save the grid operators a lot of cash if they can use these batteries instead of running special peaker plants, or installing more large batteries as at the (PG&E-operated) Moss Landing battery storage facility.
Incidentally, said Moss Landing battery storage facility has repeatedly caught fire, which highlights another potentially major savings for grid operators, as the fallout of such events are instead borne by the operator of the battery, which for the DSGS would be the home owner. So far, remote adjustment of air-conditioning doesn’t seem to be a big part of the discussion yet, but this would seem to be only a matter of time, considering the significant power savings that way, even if it relies just on paid volunteers like with the DSGS.
Signs Of Market Failure
Although it can seem tempting to imagine making money off that expensive home battery or electric car by letting the local grid operator tap into it, the same general issues apply as with the much older V2G discussion. Not only is there the question of battery wear, but as mentioned there are also insurance considerations, and the problem that home batteries and BEVs tend to be sited far from where they are likely needed. While a site like Moss Landing is directly plugged into the big transmission lines, home batteries are stuck on some local distribution grid, making dispatching their power a bit of a nightmare.
This is also the impression one gets when reading certain articles on VPPs over at the US Department of Energy, with a VPP plan in Illinois targeting larger commercial and community solar generators rather than residential, giving them a rebate if they want to foot the bill for installing a grid-following converter, which presumably would involve some level of on-site storage. A major problem with distributed resources is their distributed nature, which precludes any planning or siting considerations that directly address demand in the form of building a power plant or pumped hydro plant with a direct transmission line to where it’s needed.Projected electricity generation pathways by 2040. (Credit: S&P Global Inc.)
Meanwhile a recent study commissioned by the American Clean Power Association (ACP) concludes that in the US alone, electricity demand by 2040 is likely to surge 35-40% compared to today, requiring an extremely fast buildout of additional generating resources involving mostly the same kind of power mix as today. At a projected 5.5 – 6 TWh by 2024 compared to about 4 TWh today with a significant boost in non-dispatchable generators, it seems fair to question how far home batteries and a handful of V2G-enabled EV cars can support this effort in some kind of national VPP system.
Asking The Basic Questions
Although it’s often said that ‘distributed electricity generation’ is the future, it’s rarely quantified why exactly this would be the case. Simply looking at how AC power grids work, along with the tracing of the kilometers of required transmission lines across a map in order to connect all disparate generators should give one plenty of pause. It seems obvious enough that an abundance of distributed, non-dispatchable, non-grid-forming generators on a grid would also prove to be problematic, especially in the wake of the Iberian blackout this year.
Patching around this by making end-users foot the bill for battery storage and grid-forming converters and calling it VPPs then feels disingenuous. Here a more reasonable model – that has also been repeatedly suggested and occasionally implemented – involves homes and businesses equipped with local storage that only serves to reduce demand on the grid. These batteries can be charged from the grid when the ¢/kWh rate is very low, providing a balancing influence on the grid without remote control by TSOs or similar levels of complexity.
Ultimately it would seem that the European TSOs (ENTSO-E) with their focus on eradicating dumb converters and requiring grid-forming ones are on the right track. After all, if every wind and solar generator installation acts for all intents and purposes as a dispatchable generator with the ability to absorb and generate reactive power, then the whole VPP debate and much of the grid-storage debate is instantly irrelevant. It just means that the investors for these variable generators will have to spend significantly more instead of palming these costs off on end-users as some kind of grand deal.
Open Data e Big Data: gestione del dato e confronto tra Hadoop vs Spark
Oggi, per tutte le grandi aziende, i dati rappresentano una risorsa strategica di primaria importanza. Grazie alle informazioni ricavate, è possibile fondare strategie decisionali che, in ogni settore, possono implementare le attività e i profitti di un’azienda. Analoghe considerazioni possono essere rivolte all’interno della Pubblica Amministrazione, dove i dati non solo rappresentano uno strumento per migliorare l’efficienza interna e i processi decisionali, ma, se resi disponibili alla collettività, possono generare valore sociale ed economico.
Seppur con modalità e finalità differenti, in questo contesto si inseriscono due fenomeni fondamentali, accomunati dalla necessità di gestire grandi quantità di informazioni; stiamo parlando di Open Data e Big Data. Come tutte le tecnologie che devono gestire una grosse molte e varietà di dati, dovranno garantire sicurezza, integrità e disponibilità delle informazioni. Di base, quando parliamo di Open Data, ci riferiamo a informazioni pubbliche, dove i dati presentano un formato aperto, standardizzato e liberamente disponibile, privi di copyright.
Data la natura open dei dati, saranno compatibili con tecnologie differenti e presenteranno formati di dati aperti e interoperabili, quali ad esempio il CSV o JSON, sfruttando l’utilizzo di API per accedere ai dataset o l’utilizzo di Linked Open Data. Facciamo una parentesi sui Linked Open Data, i quali sfruttano tecnologie semantiche per strutturare i dati, permettendo così una comprensione più profonda del significato e del contesto delle informazioni. Fondamentalmente, questo approccio si basa su principi fondamentali. L’utilizzo di URI (Uniform Resource Identifier) identifica ogni risorsa in modo univoco, e i dati devono interconnettersi tramite link, consentendo la navigazione tra di essi.
Affinché le informazioni possano essere interpretate correttamente, vengono utilizzati diversi standard, tra i quali ricordiamo, senza scendere nel dettaglio, il RDF (Resource Description Framework), che consente la rappresentazione di informazioni sul web in modo strutturato, e il OWL (Web Ontology Language), che definisce le relazioni tra i dati, facilitandone la comprensione.
Gli Open Data dovranno affrontare diverse problematiche, in primis la qualità dei dati, che molto spesso risulta incompleta o obsoleta. Inoltre, la mera pubblicazione dei dati (nel caso dei servizi offerti dalla Pubblica Amministrazione) non garantisce necessariamente il loro utilizzo da parte del cittadino. Inoltre data la natura del dato saranno, spesso dati riferibili a soggetti fisici, dovranno quindi rispettare e tutelare la privacy dei soggetti. Di base, tuttavia, la formazione e la sensibilizzazione dei cittadini sull’importanza e sull’uso dei dati aperti possono contribuire a un maggiore coinvolgimento e a un utilizzo più efficace delle informazioni disponibili.
Quando i dati non sono necessariamente pubblici e necessitano di una tecnologia in grado di gestire grandi quantità, molto spesso in formato grezzo, possiamo parlare di Big Data. Comunemente, si fa riferimento alle 5V: volume (grosso volume di dati), velocità (elevata velocità operativa), varietà (varietà del dato), veridicità (veridicità della fonte fornitrice del dato) e valore (valore del dato, legato all’interesse del soggetto).
Tra le tecnologie più importanti nel contesto dell’infrastruttura dei Big Data, troviamo:
- Database NoSQL
- Hadoop
- Apache Spark
Senza avere la pretesa di esaurire gli argomenti trattati, tentiamo di fornire alcuni cenni per far comprendere la differenza tra le varie tecnologie. Da un punto di vista dell’efficienza, i NoSQL, a differenza dei database relazionali, non presentano una natura strutturata. All’interno di questi sistemi, si barattano i pesanti vincoli della struttura relazionale con operazioni più rapide e dinamiche. Questi database sono basati sul concetto di tecnologia distribuita, dove i dati possono essere archiviati su più nodi di elaborazione. Non avremo più un modello basato sulle transazioni, ma sulla flessibilità dei dati.
La memorizzazione dei dati all’interno di queste tecnologie può essere sviluppata attraverso diversi modelli. Tra i modelli utilizzati, abbiamo quello Chiave/Valore, secondo il quale gli oggetti vengono memorizzati in strutture denominate bucket sotto forma di un elenco chiave-valore. Un altro modello utilizzato è quello dei documenti, attraverso il quale gli oggetti vengono salvati all’interno di documenti aventi una struttura che ricalca quella della programmazione orientata agli oggetti (O.O.).
Il principale vantaggio del modello documentale è l’elevata compatibilità con i sistemi odierni, tra i quali troviamo MongoDB. Un ultimo modello è quello a colonna, nel quale i dati, anziché essere orientati per righe, vengono organizzati in colonne. Praticamente, sebbene il concetto presenti un cambiamento che può sembrare solo formale, migliora la distribuzione all’interno dello spazio di archiviazione.
Abbiamo accennato a MongoDB, un database basato sul modello orientato ai documenti, progettato per gestire grandi volumi di dati non strutturati o semistrutturati. MongoDB sfrutta la rappresentazione binaria BSON (Binary JSON), la quale permette di avere all’interno dati provenienti da collezioni omogenee oppure che non possiedono la stessa natura. Tali documenti, a loro volta, vengono organizzati all’interno di collezioni, all’interno delle quali è possibile implementare indici per migliorarne le prestazioni.
Ricordiamo che, ad oggi, tra i framework maggiormente utilizzati per la gestione e l’archiviazione di grosse quantità di dati, abbiamo Apache Hadoop, la cui caratteristica principale è quella di scomporre grandi problemi in elementi più piccoli, dividendo la grossa quantità di dati in parti più piccole, gestibili parallelamente. Da un punto di vista architetturale, Hadoop sfrutta il principio che eventuali errori devono essere gestiti a livello applicativo e utilizza cluster di server o server virtuali per la sua implementazione.
Hadoop è principalmente costituito da due componenti fondamentali:
- Hadoop Distributed File System (HDFS): un file system distribuito progettato per archiviare grandi quantità di dati in modo affidabile e per fornire accesso ad alta velocità.
- MapReduce: un modello di programmazione per l’elaborazione di grandi set di dati in parallelo su un cluster di computer.
Il primo modulo è Hadoop Distributed File System (HDFS), un filesystem distribuito che memorizza i dati su commodity hardware, fornendo una banda aggregata molto alta. È necessario utilizzare un filesystem distribuito quando la quantità di dati da memorizzare può eccedere quella memorizzabile in una singola macchina. È quindi necessario partizionare i dati su più macchine, fornendo meccanismi di recupero nel caso in cui una macchina si rompa. Rispetto ai normali filesystem, quelli distribuiti richiedono comunicazione di rete e sono più complessi da sviluppare.
HDFS possiede un’architettura master/slave. All’interno di un cluster vi sarà un singolo nodo master (NomeNode), un server che regola il namespace del file system e gestisce l’accesso dal client. I file sono memorizzati separatamente nei DataNode, di cui solitamente ce n’è uno per nodo del cluster. Internamente, un file è spezzato in uno o più blocchi, e questi blocchi sono memorizzati in un insieme di DataNode.
Il secondo modulo è MapReduce, un modello di programmazione per l’elaborazione di grandi quantità di dati, realizzato per far sì che i calcoli siano sviluppati in parallelo. Esso si basa sul principio “divide et impera”, nel quale un problema corposo viene suddiviso in problemi indipendenti che possono essere risolti parallelamente. Fondamentalmente, vengono generate diverse coppie chiave-valore dal componente Map, mentre il componente Reduce le aggrega in varie coppie.
Oltre ai due moduli appena descritti, possiamo indicare la presenza del modulo YARN e COMMON. YARN è il gestore delle risorse del cluster e organizza i job sui dati, mentre COMMON contiene le librerie necessarie al funzionamento dei moduli.
Nato da Hadoop, Apache Spark presenta funzionalità specifiche progettate per offrire velocità computazionale, scalabilità e programmabilità necessarie per i big data, in particolare per lo streaming di dati, dati grafici, analisi e machine learning. A differenza di Hadoop, Spark permette di effettuare query rapide e ottimizzate sfruttando la sua elaborazione all’interno della cache. La scalabilità è ottenuta dividendo i workflow di elaborazione su grandi cluster di computer.
Spark presenta un’architettura gerarchica primaria/secondaria. Il nodo primario, definito driver, controlla i nodi secondari, gestisce il cluster e fornisce i dati al client applicativo. Nel programma principale di un’applicazione Spark (il programma driver) è presente un oggetto di tipo SparkContext, la cui istanza comunica con il gestore di risorse del cluster per richiedere un insieme di risorse (RAM, core, ecc.) per gli executor.
Un punto fondamentale tra i compiti svolti da Spark è la creazione di set di dati distribuiti, noti come RDD (Resilient Distributed Dataset). Gli RDD sono resilienti (quindi ricostruibili in caso di guasti), immutabili (ogni operazione crea un nuovo RDD) e partizionabili per permettere l’elaborazione in parallelo. Spark carica i dati facendo riferimento a un’origine dati o parallelizzando una raccolta esistente con il metodo di parallelizzazione di SparkContext per la memorizzazione dei dati in un RDD per l’elaborazione. Una volta caricati i dati in un RDD, Spark esegue trasformazioni e azioni su di essi in memoria, che è la chiave della velocità di Spark. Spark memorizza inoltre i dati in memoria, a meno che il sistema non esaurisca la memoria o l’utente non decida di scrivere i dati su disco per conservarli.
Ogni set di dati in un RDD è suddiviso in partizioni logiche, che possono essere calcolate su diversi nodi del cluster. Gli utenti possono eseguire due tipi di operazioni sugli RDD: le trasformazioni e le azioni. Le trasformazioni sono operazioni applicate per creare un nuovo RDD, mentre le azioni vengono utilizzate per istruire Apache Spark ad applicare il calcolo e restituire il risultato al driver.
Una caratteristica operativa di Spark è il Grafo Aciclico Diretto (DAG). A differenza del processo di esecuzione a due parti di MapReduce di Hadoop, viene creato un grafo per orchestrare e pianificare i nodi worker all’interno del cluster. Questa caratteristica è interessante poiché eventuali guasti o errori possono essere risolti considerando le operazioni sui dati registrate in uno stato precedente. Alla base del trattamento dei dati in parallelo, abbiamo il modulo Spark Core, che gestisce la pianificazione e l’ottimizzazione. Fornisce le principali funzionalità per le librerie di Spark e il trattamento dei dati grafici di GraphX.
“Spark vs. Hadoop” è un termine frequentemente cercato sul web, ma, come notato sopra, Spark è più un miglioramento di Hadoop e, più specificamente, del componente di trattamento dei dati nativo di Hadoop, MapReduce. Infatti, Spark è basato sul framework MapReduce e oggi la maggior parte delle distribuzioni di Hadoop supporta Spark. Come MapReduce, Spark consente ai programmatori di scrivere applicazioni che elaborano enormi set di dati più velocemente, elaborando porzioni del set di dati in parallelo su grandi cluster di computer. Tuttavia, mentre MapReduce elabora i dati su disco, aggiungendo tempi di lettura e scrittura che rallentano l’elaborazione, Spark esegue calcoli in memoria. Di conseguenza, Spark può elaborare i dati fino a 100 volte più velocemente di MapReduce.
Possiamo affermare che, sebbene Open Data e Big Data siano concettualmente distinti, la loro integrazione può generare sinergie significative. L’unione di dati provenienti da dataset pubblici, accessibili a tutti, con informazioni eterogenee raccolte da fonti diverse, offre opportunità uniche per l’analisi e l’innovazione. Questa combinazione non solo arricchisce il panorama informativo, ma consente anche di sviluppare soluzioni più efficaci e mirate, in grado di rispondere a esigenze specifiche della società e del mercato. In un’epoca in cui la quantità di dati cresce esponenzialmente, la capacità di integrare e analizzare queste risorse diventa fondamentale per prendere decisioni informate e promuovere un progresso sostenibile.
L'articolo Open Data e Big Data: gestione del dato e confronto tra Hadoop vs Spark proviene da il blog della sicurezza informatica.
Evento precongressuale a Roma: “PMA per tutte: il diritto alla procreazione medicalmente assistita (PMA)”
In occasione del XXII Congresso dell’Associazione Luca Coscioni per la libertà di ricerca scientifica, l’Associazione Luca Coscioni presenta l’evento
PMA per tutte: il diritto alla procreazione medicalmente assistita (PMA) per donne single e coppie di donne.
PROGRAMMA
Saluti istituzionali:
Mariolina Castellone, vice presidente del Senato
Modera: Senio Bonini, vice direttore TG1
Intervengono:
Alessandra Maiorino, senatrice M5S
Filomena Gallo, Segretaria nazionale dell’Associazione Luca Coscioni per la libertà di ricerca scientifica APS
Francesca Re, coordinatrice della campagna PMA per tutte e consigliera generale dell’associazione Luca Coscioni per la libertà di ricerca scientifica
Con le testimonianze di:
Barbara Zoina,
Veronica Biancardi,
Maria Giulia D’amico
Fabrizia Caradonna
Valeria Manieri
L’appuntamento è per il 18 settembre 2025, presso laSala “Caduti di Nassiriya”, Palazzo Madama, Piazza Madama, a Roma. L’evento è accessibile su prenotazione fino ad esaurimento posti, inviando una mail a info@associazionelucacoscioni entro il 12 settembre e per gli uomini con obbligo di giacca e cravatta.
L’evento sarà registrato e poi reso disponibile sul canale YouTube dell’Associazione Luca Coscioni all’interno della playlist “Eventi precongressuali 2025”.
L'articolo Evento precongressuale a Roma: “PMA per tutte: il diritto alla procreazione medicalmente assistita (PMA)” proviene da Associazione Luca Coscioni.