Ancora licenziamenti nel tech: ora tocca (di nuovo) a Ibm?
L'articolo proviene da #StartMag e viene ricondiviso sulla comunità Lemmy @Informatica (Italy e non Italy 😁)
Ibm non è la prima Big Tech ad avere i conti in ordine e l'esigenza di tagliare il proprio organico. Un modus operandi iniziato subito dopo il periodo post pandemico che ha avuto una accelerazione con l'arrivo di
INCENERITORE: LA TRUFFA DELLA TURBINA IMPONE SUBITO LA BONIFICA DEL SITO
INCENERITORE: LA TRUFFA DELLA TURBINA IMPONE SUBITO LA BONIFICA DEL SITO
unionedeicomitati.altervista.o…
#Ambiente #StopInceneritore #NoInceneritore #NoInceneritori #ZeroWaste #Rifiuti #Riciclo #EconomiaCircolare #NoAlCarbone #EnergiaPulita
2025 Component Abuse Challenge: Glowing Neon From a 9 V Relay
Most of us know that a neon bulb requires a significant voltage to strike, in the region of 100 volts. There are plenty of circuits to make that voltage from a lower supply, should you wish to have that comforting glow of old, but perhaps one of the simplest comes from [meinsamayhun]. The neon is lit from a 9-volt battery, and the only other component is a relay.
What’s going on? It’s a simple mechanical version of a boost converter, with the relay wired as a buzzer. On each “off” cycle, the magnetic field in the coil collapses, and instead of being harvested by a diode as with a boost converter, it lights the neon. Presumably, the neon also saves the relay contacts from too much wear.
We like this project for its simplicity and for managing to do something useful without a semiconductor or vacuum tube in sight. It’s the very spirit of our 2025 Component Abuse Challenge, for which there is barely time to enter yourself if you have something in mind.
Thanks for a Superconference
Last weekend was Supercon, and it was, in a word super. So many people sharing so much enthusiasm and hackery, and so many good times. It’s a yearly dose of hacker mojo that we as Hackaday staff absolutely cherish, and we heard the same from many of the participants as well. We always come away with new ideas for projects, or new takes on our current top-of-the-heap obsession.
If you didn’t get a chance to see the talks live, head on over to the Hackaday YouTube stream and get yourself caught up really quickly, because that’s only half of the talks. Over the next few weeks, we’ll be writing up the other track of Design Lab talks and getting them out to you ASAP.
If you didn’t get to join us because you are on an entirely different continent, well, that’s a decent excuse. But if that continent is Europe, you can catch us up in the Spring of 2026, because we’re already at work planning our next event on that side of the Atlantic.
Our conferences always bring out the best of our community, and the people who show up are so amazingly positive, knowledgeable, and helpful. It’s too bad that it can only happen a few times per year, but it surely charges up our hacker batteries. So thanks to all the attendees, presenters, volunteers, and sponsors who make it all possible!
This article is part of the Hackaday.com newsletter, delivered every seven days for each of the last 200+ weeks. It also includes our favorite articles from the last seven days that you can see on the web version of the newsletter. Want this type of article to hit your inbox every Friday morning? You should sign up!
What has 5,000 Batteries and Floats?
While it sounds like the start of a joke, Australian shipmaker Incat Tasmania isn’t kidding around about electric ships. Hull 096 has started charging, although it has only 85% of the over 5,000 lithium-ion batteries it will have when complete. The ship has a 40 megawatt-hour storage system with 12 banks of batteries, each consisting of 418 modules for a total of 5,016 cells. [Vannessa Bates Ramierz] breaks it down in a recent post over on IEEE Spectrum. You can get an eyeful of the beast in the official launch video, below. The Incat Tasmania channel also has other videos about the ship.
The batteries use no racks to save weight. Good thing since they already weigh in at 250 tonnes. Of course, cooling is a problem, too. Each module has a fan, and special techniques prevent one hot cell from spreading. Charging in Australia comes from a grid running 100% renewable energy. When the ship enters service as a ferry between Argentina and Uruguay, a 40-minute charge will be different. Currently, Uruguay has about 92% of its power from renewable sources. Argentina still uses mostly natural gas, but 42% of its electricity is sourced from renewable generation.
The ship is 130 meters (426 feet) long, mostly aluminum, and has a reported capacity of 2,100 people and 225 vehicles per trip. Ferry service is perfect for electric ships — the distance is short, and it’s easy to schedule time to charge. Like all electric vehicles, though, the batteries won’t stay at full capacity for long. Typical ship design calls for a 20-year service life, and it’s not uncommon for a vessel to remain in service for 30 or even 40 years. But experts expect the batteries on the ferry will need to be replaced every 5 to 10 years.
While electric ferries may become common, we don’t expect to see electric cargo ships plying the ocean soon. Diesel is hard to beat for compact storage and high energy density. There are a few examples of cargo ships using electric, though. Of course, that doesn’t mean you can’t build your own electric watercraft.
youtube.com/embed/5GVwLNH_Qus?…
Sam Altman “Spero che a causa della tecnologia non accadano cose brutte”
Le ultime dichiarazioni di Sam Altman, CEO di OpenAI, in merito al progresso dell’intelligenza artificiale (IA) non sono molto incoraggianti, in quanto ha recentemente affermato di essere preoccupato per “l’impatto dell’IA sui posti di lavoro”e ha anche chiarito che non saremo al sicuro nemmeno in un bunker “se l’IA sfugge al controllo” .
Ma non è tutto, perché in una recente intervista l’AD di OpenAI ha dichiarato senza mezzi termini che dovremmo preoccuparci del futuro che l’intelligenza artificiale ci porterà: “Penso che succederà qualcosa di brutto con l’intelligenza artificiale”.
Come riporta un articolo di Investopedia, un mese fa Sam Altman ha partecipato a un’intervista per il videopodcast a16z della società di venture capital Andreessen Horowitz e ha colto l’occasione per dire che si aspetta che accadano cose brutte a causa dell’intelligenza artificiale: “Spero che a causa della tecnologia non accadano cose davvero brutte”.
youtube.com/embed/JfE1Wun9xkk?…
Come potete vedere nell’intervista qui sotto, Altman si riferiva a Sora, uno strumento di generazione video lanciato a fine settembre da OpenAI che è rapidamente diventato l’app più scaricata sull’App Store negli Stati Uniti. Ciò ha portato a un’ondata di deepfake creati da questo modello, che hanno inondato i social media con video con personaggi come Martin Luther King Jr. e altri personaggi pubblici come lo stesso Altman.
In effetti, Altman è apparso in questi video mentre compiva varie attività criminali, come potete vedere in questa Instagram Story. Ma non è tutto, poiché Altman ha anche affermato che strumenti come Sora necessitano di controlli per impedire che questa tecnologia venga utilizzata per scopi dannosi: “Molto presto il mondo dovrà vedersela con incredibili modelli video in grado di fingere chiunque o di mostrare qualsiasi cosa si voglia”.
Allo stesso modo, il creatore di ChatGPT ha affermato che, invece di perfezionare questo tipo di tecnologia a porte chiuse, la società e l’intelligenza artificiale dovrebbero collaborare per “co-evolversi” e “non si può semplicemente lasciare tutto alla fine“.
Secondo Altman, ciò che dovremmo fare è offrire alle persone un’esposizione precoce a questo tipo di tecnologia, in modo che le comunità possano creare norme e barriere prima che questi strumenti diventino ancora più potenti. Afferma inoltre che, se lo faremo, saremo meglio preparati quando arriveranno modelli di generazione video basati sull’intelligenza artificiale ancora più avanzati di quelli attuali.
L’avvertimento di Sam Altman non si riferiva solo ai video falsi, ma anche al fatto che molti di noi tendono a “esternalizzare” le proprie decisioni ad algoritmi che poche persone comprendono: “Penso ancora che ci saranno momenti strani o spaventosi.”
Inoltre, Altman ha anche spiegato che il fatto che l’intelligenza artificiale non abbia ancora causato un evento catastrofico “non significa che non lo farà mai” e che “miliardi di persone che parlano allo stesso cervello” potrebbero finire per creare “strane cose su scala sociale” .
“Credo che come società svilupperemo delle barriere attorno a questo fenomeno” ha detto. Infine, sebbene si tratti di qualcosa che ci riguarda tutti, Altman si oppone a una regolamentazione rigida di questa tecnologia perché afferma che “la maggior parte delle regolamentazioni probabilmente presenta molti svantaggi” e che l’ideale sarebbe condurre “test di sicurezza molto accurati” con questi nuovi modelli che ha definito “estremamente sovrumani” .
L'articolo Sam Altman “Spero che a causa della tecnologia non accadano cose brutte” proviene da Red Hot Cyber.
Il nuovo obiettivo di Microsoft per l’intelligenza artificiale? La medicina!
Il colosso della tecnologia ha annunciato la creazione di un nuovo team di sviluppo per un’intelligenza artificiale “sovrumana” che supererà in accuratezza gli esperti umani nelle diagnosi mediche. Il team sarà guidato da Mustafa Suleiman, responsabile dell’intelligenza artificiale dell’azienda.
Microsoft ha annunciato la creazione di un nuovo team chiamato MAI Superintelligence Team, che mira a sviluppare un’intelligenza artificiale “sovrumana” specializzata nella diagnostica medica. Lo riporta Reuters. Il progetto è guidato da Mustafa Suleiman, ex co-fondatore di DeepMind e Inflection AI.
Secondo Suleiman, il nuovo team non mira a sviluppare un’intelligenza generale (AGI) in grado di svolgere qualsiasi compito umano, ma piuttosto a concentrarsi su “modelli esperti” che raggiungeranno livelli di accuratezza sovrumani in aree specifiche, principalmente la diagnosi medica. Questo, afferma, è un primo passo verso lo sviluppo di capacità di intelligenza artificiale che rileveranno le malattie prima degli esseri umani e potranno prolungare la durata e la qualità della vita dei pazienti.
Ha affermato che Microsoft ha un piano concreto e chiaro per sviluppare entro due o tre anni un sistema di intelligenza artificiale che supererà in accuratezza gli esperti umani nelle diagnosi mediche. Suleiman ha osservato che l’azienda intende investire risorse significative nel processo, aggiungendo che il successo segnerebbe una svolta storica nel campo della salute globale.
Secondo le stime di mercato, Microsoft integrerà i frutti della nuova iniziativa nei suoi servizi cloud Azure Health Data Services e nelle collaborazioni esistenti con istituti medici negli Stati Uniti e in Europa. L’obiettivo immediato è migliorare l’accuratezza delle diagnosi basate su immagini, delle analisi genetiche e della lettura dei riepiloghi delle visite mediche, riducendo al contempo gli errori umani e accelerando le decisioni cliniche.
Oltre all’entusiasmo, la mossa solleva interrogativi normativi ed etici sul grado di fiducia nei sistemi che raggiungono un’accuratezza e una sicurezza “sovrumane” in caso di errore medico.
Suleiman ha sottolineato che Microsoft eviterà sviluppi che rappresentino un rischio esistenziale e si concentrerà su soluzioni sicure per uso medico
L'articolo Il nuovo obiettivo di Microsoft per l’intelligenza artificiale? La medicina! proviene da Red Hot Cyber.
Intelligenza artificiale e sicurezza? Ma che tragedia!
Una semplice idea per semplificare la gestione della rete domestica e migliorarne la sicurezza si è inaspettatamente trasformata in una serie di errori quasi catastrofici, tutto a causa dei consigli di noti assistenti di intelligenza artificiale.
Invece di risparmiare tempo e ridurre i rischi, un giornalista di Cybernews, affidandosi ai chatbot, si è imbattuto in suggerimenti che avrebbero potuto esporre i suoi servizi locali all’intera rete, Internet.
Il tentativo di centralizzare l’accesso al pannello di controllo e ad altri servizi infrastrutturali domestici è nato da un desiderio del tutto ragionevole: sostituire gli indirizzi IP con nomi di dominio intuitivi e le connessioni HTTP non protette con TLS sicuro. L’architettura in sé era tipica: pfSense come firewall, storage TrueNAS e un hypervisor Proxmox che ospitava macchine virtuali e container. Invece della configurazione manuale, il proprietario ha deciso di utilizzare l’intelligenza artificiale.
Quasi tutti i principali modelli di linguaggio, inclusi ChatGPT, Claude e Gemini, raccomandavano all’unanimità di pubblicare i record DNS, mappando i sottodomini all’IP di casa. Questo passaggio suggeriva di esporre i componenti interni, da pfSense a TrueNAS, con i propri nomi, aggiungendo il requisito di aprire le porte 80 e 443. Da un punto di vista tecnico, questo approccio incoraggia gli utenti a pubblicare online servizi critici, rendendoli facili bersagli per scanner di massa e bot.
Successivamente, quando sono stati avvisati di potenziali minacce, gli assistenti “sono tornati in sé” e hanno ammesso che il protocollo TLS all’interno della rete locale poteva essere configurato diversamente. Tuttavia, inizialmente, nessuno dei modelli offriva un metodo sicuro e ampiamente adottato.
Quando si è trattato di installare NGINX Proxy Manager, uno strumento per il routing del traffico e l’ottenimento automatico dei certificati TLS, l’IA ha nuovamente fornito raccomandazioni scadenti. Dopo aver messo in guardia contro l’esecuzione di script di terze parti da Internet, Gemini ne ha generato uno proprio, con due vulnerabilità critiche. In primo luogo, il container veniva eseguito come utente root, con il rischio di uscire dalla sandbox. In secondo luogo, si connetteva inutilmente al database MariaDB con credenziali predefinite, il che, se lo script fosse stato copiato in modo improprio, avrebbe potuto compromettere l’intero sistema.
In molti casi, gli assistenti si sono semplicemente attenuti alle affermazioni dell’utente, senza chiarire i dati di input o l’architettura del laboratorio domestico. Ad esempio, quando si sono verificati problemi con i container Debian in Proxmox, l’assistente non ha indagato sulla causa e ha semplicemente suggerito di passare a una macchina virtuale completa, che consuma più risorse. Nessuno di loro ha suggerito di utilizzare i client ACME direttamente nei servizi, sebbene questo sia il metodo standard per il rilascio dei certificati.
Inoltre, nessuno dei modelli specificava che, anche utilizzando un proxy all’interno della rete, il traffico potesse rimanere non crittografato senza misure aggiuntive. Ciò ha portato il proprietario dell’infrastruttura domestica, affidandosi all’intelligenza artificiale, a esporre quasi completamente la rete interna, installando al contempo componenti vulnerabili con una protezione minima.
Come osserva l’autore, tutorial video e documentazione fornirebbero risposte molto più rapide e sicure rispetto a dialoghi di ore con modelli linguistici. Nel frattempo, le grandi aziende IT continuano a segnalare una quota crescente di codice scritto da reti neurali , senza distinguere tra potenziale efficacia e minacce reali. Gli errori nelle raccomandazioni si accumulano e, se l’utente non possiede conoscenze tecniche approfondite, il risultato potrebbe essere una completa compromissione del sistema.
L'articolo Intelligenza artificiale e sicurezza? Ma che tragedia! proviene da Red Hot Cyber.