Ghost: blog e newsletter italiane ha ricondiviso questo.

Napoli, in virgole: le fotografie di strada di Priscilla Carotenuto


The media in this post is not displayed to visitors. To view it, please go to the original post.

Nello sguardo lieto di Priscilla Carotenuto scoviamo le sembianze di un legame profondo con la città di Napoli


Dalle balaustre di una delle più antiche costruzioni medievali di Napoli, la gente si tuffa, veloce, fulminea, eseguendo un salto, che nel vuoto che intercorre tra il mare e la nuda pietra, si tramuta, nel preciso congiungersi degli emisferi, umano e naturale, in puro afflato di vita. È una magia, quella del salto dal Castel dell'Ovo; vista e rivista, davanti agli schermi dei nostri Smartphone; eppure immancabile, nella nostra esistenza: perché nello sporgersi da quelle alture, mentre scegliamo, di getto, se abbracciare il vuoto o sostare increduli sulla terraferma, qualcosa si muove, dentro di noi: qualcosa ci rimane attaccato alla pelle, e non viene più via.


Leggi il meglio della cultura fotografica in formato Newsletter🎴


Una storia, un lavoro o un autore emergente nel mondo della fotografia italiana ogni settimana raccontati in una Newsletter esclusiva. La lettura ideale per chi vuole capirne qualcosa di più sulle immagini e i suoi eroi, mentre stai in giro a fare la spesa. Non perderti le prossime uscite. Iscriviti ora per riceverle gratuitamente sulla tua email.

Iscrivimi!
Email sent! Check your inbox to complete your signup.

Letta da migliaia di Streepher italiani ✓

Quando Priscilla Carotenuto, fotografa di strada napoletana, muove il suo sguardo su tali scene, c'è da chiedersi se queste inizieranno, prima o poi, ad annoiarci, a farci volgere dall'altra parte; il ripetersi perpetuo di situazioni del quotidiano che ormai vogliono, o devono, per terzi, essere privi di qualsiasi senso.

La percezione di inquietudine è però brevissima. Scompare, lestamente, amalgamandosi presto nella calda sicurezza di una gestualità che sa di casa. Priscilla è nata qui, a Napoli. È la sua città di appartenenza. Tuttavia, il suo sguardo rifugge da qualsiasi semplificazione. Non ammicca al pubblico; va a fondo, dove spesso lo sguardo di molti tende ad andare altrove. Le sue fotografie disegnano l'ossatura di una favola che parla di lei e di una Napoli avvolta in un velo di coloratissimo mistero. Un mistero che si lascia guardare, lambire, ascoltare; e da cui, ultimamente, ho intravisto le fattezze di uno spirito fotografico purissimo.
Napoli, 2022. Immagine di © Priscilla Carotenuto
Priscilla vive ora a Roma, ma la sua passione per la strada rimane ancora ben radicata nei suoi interessi. «Avvicinarmi alla Street Photography - mi racconta lei - è stato come riaccendere una fiammella spenta da tempo. Ognuno di noi ne ha una dentro di se, di fiamma sopita. Saperla trovare e farla crescere è ciò che ci permette di annientare lo stato di alienazione dovuto alle preoccupazioni della vita quotidiana. Ecco, fotografare in strada è quella cosa che alimenta giornalmente la mia fiammella; averne scoperto l'origine ha cambiato completamente il mio modo di vedere la città e le persone». Un modo di raccontare le cose con discrezione, mi vien da dire, alla Vivian Maier - che lei ama -, e che traspare in ogni fotografia.

Le immagini di Priscilla sono continue interpunzioniche ci guidano nelle dinamiche di una città che non vuole farsi catturare. O almeno, che tenta invano di scappare agli occhi dei più esigenti. Quando vogliono, le inquadrature di Priscilla, si fanno divertenti, accoglienti: una coppia che si accartoccia in strada per ascoltare un audio segreto; ma sanno essere anche profondamente malinconiche, tenere, interrogative, se il gesto del fotografare incontra il sentire dell'artista. "Non c'è una regola precisa, quando abbiamo a che fare con la fotografia", sembrano suggerirci le sue inquadrature. È lì, nello scon-volgersi delle cose, che inizia la vera opera.
Napoli, 2022. Immagine di © Priscilla Carotenuto
La scelta della palette dei colori è cruciale, in questo legame ancestrale con il tempo, le persone, lo spazio: con Napoli. I rossi, i blu e i gialli contribuiscono a delineare l'espandersi delle motivazioni dietro alla cattura di un istante preciso. Sono come fari in lontananza, una luce, che confermano la presenza di un IO.

L'intervento di Priscilla sul quotidiano si nota anche dove il soggetto umano, seppur accennato, manca, a favore di altro. Un blu come gli altri, quello del mare, stringe un accordo segreto con l'osservatore, per poi cadere vertiginosamente nel giallo di una tovaglia lasciata sopra un segnale stradale. Sembra una fotografia come le altre, quella citata; tuttavia rimaniamo imbambolati, scoprendo, sullo sfondo, nel punto più in alto, due aquiloni che creano una perfetta linea verticale. Un divieto, che lascia presagire la fine di un sogno, sovrastato da due serendipità che per un fotografo di strada valgono oro. Pochi elementi, ma da soli significativi.
Napoli, 2024. Immagine di © Priscilla Carotenuto
L'occhio di Priscilla Carotenuto rispecchia le intenzioni di una fotografa che ama rimanere libera. Non guarda un luogo seguendo un argomento preciso, né vuol fare emergere sottintesi di carattere politico o sociale. Cattura, e si lascia catturare.

Un approccio alla strada che Priscilla descrive come "rassicurante", costruito per adattarsi alla sua personalità. «Di natura sono una persona discreta; un tratto che magari non si sposa perfettamente con questo tipo di fotografia», continua lei, per messaggi. «Ho quindi cercato di bilanciare l'accesa curiosità che ho per tutto ciò che ho intorno cercando nell'ordinario un particolare che ti faccia sorridere, che ti faccia stare bene. Per questo spesso fotografo senza una presenza umana. È l'aurea speciale che manifestano le situazioni del quotidiano ad interessarmi davvero».

I suoi frammenti sono così cartoline di una realtà che tenta in tutti i modi di prendersi sul serio, senza però mai riuscirci davvero. Guardando a fondo le scene che caratterizzano lo spirito della fotografa napoletana avviene come un cortocircuito, dovuto alla rivelazione di atmosfere che travalicano l'ordinario. Quando Priscilla si accosta ai suoi soggetti - perlopiù giovani, luoghi e tracce della cultura napoletana - sentiamo che qualcosa non torna, nell'operazione. È come se si aprissero delle lunghe faglie nel terreno, e da lì fuoriuscisse qualcosa di insospettabile: echi di sogni e miti molto lontani da noi e al contempo vicinissimi.
Napoli, 2023. Immagine di © Priscilla Carotenuto
Una fantasticheria tipicamente letteraria, mi viene da pensare, quella di voler scovare l'intromissione di un malfunzionamento nella monotonia del quotidiano; un'attinenza alle cose che solo alcuni fotografi riescono a custodire intatta nel tempo, e a tramandarla altrove. D'altronde avere a che fare con quella parte di noi, quella che ci vuole ingenui e sognatori, è una sfida complessa, seppur oggi vitale.

Attraverso l'immediato, e mai banale, sguardo di Priscilla, siamo così accolti nelle fantasie di una realtà piena di buoni propositi. Non sono solo frammenti del visibile, i suoi, ma vere e proprie manifestazioni di una creatura vivente che lancia cenni di intesa, nella speranza che qualcuno li colga, che sappia renderli "concreti".
Napoli, 2023. Immagine di © Priscilla Carotenuto
«Fotografare a Napoli è un buon terreno di partenza», conclude Priscilla, e vedendo quali immagini riesce a tirare fuori da lì, non posso che essere d'accordo con lei. Continua: «In città, hai la difficoltà del caos e la ripetizione di scene già viste e riviste. Ma questo ti può far solo da scuola. Ci sono occasioni in cui puoi sentirti più sicuro nell'avvicinarti e altre in cui percepisci che è meglio rimanere in disparte. Come diceva Meyerowitz, "devi andare incontro alla folla, non seguirla", solo così puoi captare i segnali. Vedi, la vera sfida è capire come trasformare tutto ciò facendolo confluire nel tuo personale registro visivo. Se mi guardo indietro, alle prime uscite fotografiche con mio fratello [Stefano Carotenuto, anche lui un bravissimo fotografo di strada, ndr.] sento di avere acquistato maggior fiducia in me stessa. Oggi fotografo ciò a cui sono più legata».

Io non so come si fotografi una città come questa, come Napoli. Cosa sia giusto mettere nell'inquadratura e cosa no. Quanto ci si possa sentire colpevoli di reiterare momenti che magari andrebbero goduti individualmente. Ciononostante, rimango incredulo di fronte alla straordinaria potenza di segnali che solo il quotidiano, visto in questi contesti, e se guardato in profondità, riesce a donarci. Segno che il disincanto, per Priscilla Carotenuto, sia un fantasma ancora lontano, e di questo me ne compiaccio - anzi, ce ne compiaciamo tutti - molto.
Capri, 2023. Immagine di © Priscilla Carotenuto
Una straordinaria sensibilità quella di Priscilla Carotenuto, che dal suolo scivoloso degli scogli di una Napoli in rapida evoluzione ci fa vivere la sensazione di stare seduti su una montagna russa; una scala, che dal basso all'alto, dalla città alla spiaggia, dalla testa ai piedi, ci porta a riscoprire una strana meraviglia: un punto di vista che credevamo essersi ormai esaurito, e che invece vive ancora.

Chi è Priscilla Carotenuto?


Priscilla Carotenuto è una fotografa napoletana. Il suo stile è farcito di ironia, ardore e ottimismo verso la vita. Le sue fotografie sono una strenua ricerca di intime scene di quotidianità colte sul nascere. Scatta prevalentemente a Napoli e dintorni, a colori (anche se non disdegna il bianco e nero!). Qui il suo Instagram.


Fare la differenza ✌︎


Uno spazio, un momento, un'istante dedicati totalmente alla fotografia italiana e a quella meno sotto i riflettori. Con un tuo piccolo contributo, possiamo continuare insieme a rendere questa direzione editoriale non più un'eccezione alla regola ma un esempio da seguire: fare, insomma, la differenza nel settore fotografia in Italia. Vuoi essere dei nostri?
Dona o Abbonati al Blog

Questa voce è stata modificata (6 mesi fa)
Ghost: blog e newsletter italiane ha ricondiviso questo.

Mova: arriva Mobius 60, il suo primo robot aspirapolvere con cambio del panno automatico


Basato sul concetto di “pulizia personalizzata per ciscun ambiente" il robot aspirapolvere offre una precisione intelligente a ogni angolo della casa, adattando la strategia di pulizia al tipo di pavimento e arredamento
The media in this post is not displayed to visitors. To view it, please go to the original post.


La pulizia smart continua a evolvere e così Mova che alza ancora una volta l’asticella con il lancio di MOBIUS 60. Basato sul concetto di “AI-Zoned Custom Cleaning”, questo robot offre una precisione intelligente a ogni angolo della casa, adattando la strategia di pulizia a ogni tipo di pavimento, arredamento e stile di vita. MOVA MOBIUS 60 è disponibile sul sito ufficiale MOVA.

Tre set di panni per una pulizia più smart


Il cuore di MOBIUS 60 è MopSwap Hub, il primo sistema di lavaggio multi-tessuto con cambio panno automatico di MOVA. Potenziato da un avanzato riconoscimento AI, esso è in grado di identificare sia il tipo di stanza che il materiale del pavimento su cui si trova - per poi abbinare automaticamente il mocio e la formula detergente ideali.
Mobius 60 identifica lo scopo e il tipo di pavimento di ogni zona e personalizza la puliziaMobius 60 identifica lo scopo e il tipo di pavimento di ogni zona e personalizza la pulizia
Attraverso l’app MOVAhome, MOBIUS 60 non si limita a mappare la casa ma apprende il nostro stile di vita. Utilizzando il riconoscimento AI, esso identifica lo scopo e il tipo di pavimento di ogni zona, e personalizza la pulizia. Per gli spazi abitativi raffinati, con pavimenti in legno o laminato, Plush Mop (giallo) dona una particolare attenzione alla pulizia, non solo evitandone la precoce usura ma nutrendolo delicatamente. Al riguardio, tramite l’app è possibile scegliere le modalità Clean & Nourish (pulizia e nutrimento) o Nourish Only (solo nutrimento); in questo modo, durante il lavaggio il robot infonderà nel panno, del tutto automaticamente, una miscela per la cura del legno che aderisce alle fibre morbide e viene delicatamente passata sulla superficie, ripristinando la lucentezza naturale del legno, preservandone il calore, la texture e la brillantezza.
ThermoHold Mop si attiva a 40°C per sciogliere i residui di grasso e salsaThermoHold Mop si attiva a 40°C per sciogliere i residui di grasso e salsa
Nelle cucine e nelle sale da pranzo frenetiche, dove le macchie d’olio e gli schizzi si accumulano più velocemente di quanto si riesca a pulirle, ThermoHold Mop (rosso) si attiva a 40°C per sciogliere i residui di grasso e salsa, consentendo di risparmiare tempo mentre si mantengono le piastrelle lucide. Inoltre, su aree aperte e percorsi quotidiani, HyperClean Mop (blu) rimuove efficacemente lo sporco, le impronte e i peli di animali domestici che rimangono attaccati sulla superficie del pavimento, mantenendo l'ambiente domestico immacolato e fresco.
Il sistema DuoSolution eroga la miglior formula di detergenti per ogni ambienteIl sistema DuoSolution eroga la miglior formula di detergenti per ogni ambiente
A sostegno di questa routine perfetta, DuoSolution System eroga la miglior formula di detergenti per ogni ambiente - neutra per l’uso di tutti i giorni, pulizia profonda per le zone unte, e cura delicata per il legno. Ogni ciclo si lascia alle spalle un profumo leggero e rinfrescante che segna la fine di un lavaggio e l’inizio di una casa più pulita e tranquilla.

Sterilizzazione profonda


La pulizia non è solo una questione di estetica ma prima di tutto igiene. ThermoWash System a 100°C di MOBIUS 60 utilizza la sterilizzazione ad alta temperatura per sciogliere le macchie ostinate ed eliminare il 99,99% di batteri e virus dalle fibre del mocio (secondo i dato forniti da Mova). Man mano che la stazione di lavaggio del panno si riscalda, l’acqua calda penetra in profondità nel tessuto, eliminando il grasso e lo sporco, trasformando il calore in una potente energia purificante. Il processo è completato dalla sterilizzazione UV nella stazione base, che garantisce che ogni mocio risulti non solo visibilmente pulito, ma anche realmente depurato.
ThermoWash System utilizza la sterilizzazione ad alta temperatura per sciogliere le macchie ostinateThermoWash System utilizza la sterilizzazione ad alta temperatura per sciogliere le macchie ostinate

Potenza dinamica


MOBIUS 60 è equipaggiato con un motore ad alta velocità TurboForce8 esclusivo di MOVA, in grado di fornire un’aspirazione di 30.000 Pa, mentre mantiene il rumore al minimo. Sviluppato su misura, il motore lavora in sinergia con la doppia spazzola a rullo TroboWave e un sistema di piastra a pressione con potenziamento automatico che si adatta dinamicamente a ogni superficie: in pratica, quando il robot rileva tappeti o fessure profonde nel pavimento, la piastra a pressione si abbassa automaticamente per formare una camera semi-sigillata, una “zona di micropressurizzazione” che intensifica la forza di aspirazione, estraendo polvere, capelli e detriti nascosti in profondità nelle fibre. Su superfici piane, la piastra si solleva automaticamente per risparmiare energia mantenendo un’aspirazione efficiente.
La potenza di aspirazione arriva a 30.000 paLa potenza di aspirazione arriva a 30.000 paLa tecnologia StepMaster consente al robot di superare soglie fino a 8 cmLa tecnologia StepMaster consente al robot di superare soglie fino a 8 cm

Copertura totale della casa


La tecnologia StepMaster 2.0 System aggiornata consente al robot di superare binari di porte scorrevoli, tappeti spessi e pavimenti irregolari, salendo su soglie fino a 8 cm. Sotto il telaio elegante, i piedini robotici retrattili simulano un movimento realistico di “salita-attraversamento-ripristino”, permettendogli di scivolare tra le gambe delle sedie, i binari delle porte e i giocattoli sparsi, senza rimanere bloccato. Questa adattabilità intelligente fa sì che il robot raggiunga ogni angolo nascosto per una copertura completa di tutta la casa.

Ghost: blog e newsletter italiane ha ricondiviso questo.

L’inverno senza riparo a Gaza


Sulla Striscia di Gaza piove forte, e le temperature scendono, ma gli aiuti umanitari continuano a entrare a stento. Tra le altre notizie: il primo cedimento di Trump sui dazi, per le elezioni in Campania Meloni si gioca il condono edilizio del 2023, e l’

L’inverno si avvicina inesorabilmente anche nella Striscia di Gaza, e le condizioni meteorologiche iniziano a peggiorare. Le forti piogge hanno allagato molte tende, e l’abbassarsi delle temperature rende ogni notte più difficile trovare soluzioni alternative per gli sfollati. Abdel Qader Sabbah e Sharif Abdel Kouddous raccontano della situazione difficilissima direttamente da Gaza città, dove molte strade sono completamente allagate, e le piogge forti hanno fatto anche direttamente crollare alcune tende. In tutta la Striscia di Gaza restano ancora quasi 1,5 milioni di persone sfollate. Su X, il docente universitario Ori Goldberg commenta: “Gaza sta annegando. Israele sta intenzionalmente torturando milioni di persone, ritardando l'ingresso di tende e altri beni di prima necessità per la sopravvivenza fisica. I corpi in decomposizione, le acque reflue inesistenti, la mancanza di alloggi e di servizi sanitari, sono tutti la perpetrazione consapevole di un genocidio.” (X / Drop Site / X)

L’UNRWA ha di nuovo accusato le autorità israeliane di ostacolare deliberatamente l’ingresso degli aiuti umanitari nella Striscia di Gaza. Il commissario generale Lazzarini ha sottolineato che il mandato dell’UNRWA dovrebbe essere tutelato dal diritto internazionale — e che quindi Israele dovrebbe allentare le restrizioni all’azione dell’agenzia. Per l’UNRWA è un momento particolarmente difficile: dopo i molti tagli ai finanziamenti, annunciati sull’onda delle accuse israeliane — per le quali poi non si sono mai prodotte prove materiali — le finanze dell’agenzia sono al minimo. Ci sono le risorse per pagare gli stipendi del personale solo fino alla fine di novembre, e al momento non ci sono garanzie che si potranno pagare gli operatori per il mese di dicembre. Il taglio che ha avuto l’impatto più drastico, ovviamente è quello statunitense. (Al Jazeera)

This post is for subscribers only


Become a member to get access to all content
Subscribe now

Ghost: blog e newsletter italiane ha ricondiviso questo.

Musk pagato mille miliardi, SoftBank vende le azioni Nvidia, GPT-5.1 — il meglio della settimana!


The media in this post is not displayed to visitors. To view it, please go to the original post.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Buon sabato,
questa settimana è iniziata con l'approvazione da parte del consiglio di Tesla di un mega pacchetto retributivo di mille miliardi di dollari per Elon Musk. C'è anche stato un colpo di scena: SoftBank, tutto a un tratto, ha venduto tutte le sue azioni Nvidia. Poi è uscito GPT-5.1, Waymo arriva in autostrada, iPhone Air viene posticipato, e tanto altro ancora. Buona lettura!

Unisciti


I tuoi 5 minuti di notizie tech ogni giorno

Iscriviti
Email sent! Check your inbox to complete your signup.

No spam. Cancellati quando vuoi.

Notizie della settimana


Una selezione delle notizie più rilevanti della settimana.

Approvato pacchetto da mille miliardi di dollari per Elon Musk


Business
Con il 75% di favorevoli, il consiglio di Tesla ha votato a favore della retribuzione da mille miliardi di dollari per Musk, che avverrà se Tesla raggiungerà certi obiettivi. Il pacchetto serve a incentivare il CEO verso il consolidamento nel mercato di EV, robot umanoidi, robotaxi e semiconduttori, puntando a 8,5mila miliardi di dollari di capitalizzazione di mercato. È stato votato anche a favore degli investimenti di Tesla in xAI.
~
Fonte: The Wall Street Journal
Alternativa in italiano: Wired Italia

Leggi tutto

Perché c'è stata tensione?

Perché Elon Musk ha dichiarato che avrebbe abbandonato l'azienda se gli azionisti non avessero votato a favore dell'accordo. Il problema è che nel 2018 gli azionisti hanno votato a favore di un pacchetto retributivo da 56 miliardi di dollari — quindi molto minore ma pur sempre "storico" — che fu annullato da un tribunale minore perché ritenuto "eccessivo e ingiusto" dal giudice.

SoftBank ha venduto tutte le sue azioni di Nvidia


Finanza
Masayoshi Son, fondatore di SoftBank, ha venduto l'intera partecipazione di 5,8 miliardi di dollari (32,1 milioni di azioni) in Nvidia per raccogliere capitale e finanziare OpenAI per 22,5 miliardi di dollari, oltre che un hub di produzione in Arizona. La decisione ha fatto scendere le azioni Nvidia, ma è vista come una mossa strategica per i piani di SoftBank.
~
Fonte: TechCrunch
Alternativa in italiano: Startmag

Leggi tutto

Le scommesse di Son

Nel 2000 decise di investire 20 milioni di dollari in Alibaba, che in seguito ha raggiunto un valore di 150 miliardi di dollari, recuperando le perdite subite dopo il crollo della bolla dot-com. Non tutte le sue decisioni sono state vincenti; l'investimento in WeWork, ad esempio, ha causato a SoftBank perdite per 11,5 miliardi di dollari in capitale e 2,2 miliardi di dollari in debito dopo il fallimento dell'IPO.

OpenAI lancia GPT-5.1


Intelligenza Artificiale
OpenAI ha rilasciato GPT-5.1, un aggiornamento che renderebbe il chatbot più intelligente ed espressivo. Ha introdotto i modelli Instant e Thinking, migliorando risposte e comprensione. Sono state ampliate anche le opzioni di personalità e stili di conversazione. L'annuncio arriva dopo che GPT-5 aveva subito molte critiche portando OpenAI anche a reintrodurre il modello 4o.
~
Fonte: The Verge
Alternativa in italiano: 01net

Leggi tutto

Quali sono state le critiche verso GPT-5?

Il problema alla base è stato il troppo hype intorno al modello, che è stato anticipato come un "salto significativo verso l'AGI" quando a molti è sembrato semplicemente un'evoluzione piuttosto che una rivoluzione. Appena uscito ci sono stati problemi legati al poco controllo sulla scelta del modello e in tanti hanno criticato l'accondiscenza eccessiva nel modo di parlare.

Waymo porta i robotaxi in autostrada per la prima volta


Tecnologia
Waymo, la compagnia di Alphabet (Google) che offre robotaxi, ha annunciato l'introduzione di corse autonome sulle autostrade di San Francisco, Los Angeles e Phoenix. Inizialmente per utenti selezionati, l'espansione mira a offrire viaggi più rapidi. Waymo estenderà il servizio anche a San Jose e sarà la prima a fornire corse completamente senza conducente su autostrada.
~
Fonte: The Guardian
Alternativa in italiano: Quotidiano Motori

Leggi tutto

La crescita inarrestabile di Waymo

Waymo quest'anno ha raggiunto le 250.000 corse settimanali, contro le 150.000 settimanali dell'anno precedente, mentre i ricavi stimati sono saliti intorno ai 125 milioni di dollari solo nel 2024, con previsioni di triplicare nel 2025 (ancora da confermare). Nonostante ciò, l'azienda sostiene ancora perdite superiori al miliardo di dollari l’anno e ci sono aziende cinesi come Baidu Robotaxi che l'hanno raggiunta equiparando lo stesso dato di 250.000 corse a settimana.

Apple ritarda l'arrivo dell'iPhone Air


Big tech
Apple ha posticipato il lancio della prossima generazione di iPhone Air, inizialmente prevista per l'autunno 2026, a causa delle vendite deludenti della versione attuale. Nonostante il design ultrasottile fosse la sua principale novità, l'iPhone Air ha deluso i consumatori per la batteria ridotta e la singola fotocamera posteriore, a fronte di un prezzo elevato.
~
Fonte: MacRumors
Alternativa in italiano: Macitynet

Leggi tutto

Come ne uscirà Apple?

Gli ultimi due anni hanno visto Apple cadere in turbine di odio e critiche. Il sentiment dei clienti è negativo e la batosta più grande è arrivata con le promesse mai mantenute sull'intelligenza artificiale. Apple chiaramente non vive più quel momentum classico degli anni di Jobs e si ritrova intrappolata nel cercare di innovare prodotti come smartphone o computer che però hanno già raggiunto un certo limite di progresso. Così l'unico modo per tornare competitiva sono i wearable e l'IA ma su entrambi ad oggi non sta andando molto bene.

Il progetto della città futuristica in Arabia Saudita sta fallendo


Business
Il mega-progetto urbanistico Neom dell'Arabia Saudita, incluso la città lineare "The Line", è in grave difficoltà e a rischio fallimento, con almeno 50 miliardi di dollari già spesi. Il principe Mohammed ha ridimensionato drasticamente la prima fase — gli investimenti esteri non si sono concretizzati. Architetti e lavoratori esprimono dubbi sulla sua realizzabilità.
~
Fonte: Gizmodo
Alternativa in italiano: non pervenuta

Leggi tutto

È stato scoperto come "leggere" le immagini del cervello


Intelligenza Artificiale
Un team giapponese ha sviluppato il "mind captioning", un metodo che genera descrizioni testuali di immagini "percepite" o immaginate dal cervello, basandosi sull'attività cerebrale rilevata tramite MRI e successivamente elaborata tramite IA. Il sistema traduce quindi l'attività neurale in linguaggio, funzionando anche per i ricordi visivi.
~
Fonte: ZME Science
Alternativa in italiano: Pantarei News

Leggi tutto

Leggere la mente

Anche questo è un trend seguitissimo in Morning Tech. Tempo fa abbiamo scritto un editoriale su un esperimento di Meta che concludeva con successo la trascrizione dei pensieri di utenti a cui era stato chiesto di scrivere un testo tramite una tastiera da computer. Inoltre seguiamo i lavori di Neuralink, Synchron e poche altre startup che sono concentrate sul controllo di device (come cursori o bracci robotici) tramite il pensiero. Siamo ancora lontani da poter dire di essere in grado di leggere la mente di un essere umano ma l'obiettivo è tutt'altro che poco realistico e tante sono anche le questioni che si sollevano attorno alla privacy.

Yann LeCun potrebbe lasciare Meta per avviare una startup


Startup
Yann LeCun, premio Turing 2018, pioniere dell'IA e alla guida di Meta da oltre un decennio, sta esplorando l'idea di lasciare l'azienda per avviare una startup. Il suo progetto si concentrerebbe sui "world models", una tecnologia che serve ad addestrare i modelli orientata al raggiungimento della superintelligenza.
~
Fonte: The Wall Street Journal
Alternativa in italiano: Wired Italia

Leggi tutto

L'importanza dei world model

Questo è un altro dei temi fondamentali da seguire in questi anni. L'addestramento su dati come testo, audio e video non basta più — sia perché internet è stata praticamente completamente "crawlata", che perché i siti web si stanno chiudendo e proteggendo. I world model sono una sorta di "simulazione mentale", per intendersi, dove l'IA può sperimentare, sbagliare e comprendere l'effetto delle proprie azioni — un addestramento quindi più sul "come si vive" piuttosto che sull'elaborazione teorica di informazioni.

Chi è Yann LeCun?

Yann LeCun è un informatico francese considerato uno dei padri dell’intelligenza artificiale moderna. Professore alla New York University e capo scienziato per l’AI di Meta, è noto per aver sviluppato negli anni ’80 le reti neurali convoluzionali, oggi alla base di tecnologie come il riconoscimento facciale e la guida autonoma. Nel 2018 ha ricevuto il Turing Award, l’equivalente del Nobel per l’informatica, insieme a Geoffrey Hinton e Yoshua Bengio, per il lavoro pionieristico nel deep learning.

Letture interessanti


Della settimana, in lingua inglese.

Il programmatore quarantennale


codefol.io (eng)

Esclusivo: Altman e Masa sostengono il piano di un 27enne di costruire un nuovo Bell Labs Ultra


corememory.com (eng)

Lavoro, dopo il lavoro: appunti di un neolaureato disoccupato che osserva la crisi del mercato del lavoro


urlahmed.com (eng)

Un milione di lavoratori nel settore AI in Cina contro i 20mila americani


entropytown.com (eng)

I bambini geneticamente modificati sono vietati. I giganti tech stanno comunque cercando di crearne uno.


wsj.com (eng)

Dentro Cursor


joincolossus.com (eng)

Notizie veloci


Della settimana, in lingua inglese.

La Danimarca pronta a vietare le piattaforme di social media ai minori di 15 anni


reuters.com (eng)

La fotocamera selfie trasparente "under-display" e il Face ID sono stati posticipati al 2027


appleinsider.com (eng)

I dirigenti di Tesla Cybertruck e Model Y si sono appena dimessi


insideevs.com (eng)

La nuova funzione di riepilogo degli audiolibri di Spotify utilizza l'IA per ricordarti la storia finora raccontata


theverge.com (eng)

Anthropic annuncia un piano da 50 miliardi di dollari per la costruzione di data center negli Stati Uniti


theguardian.com (eng)

Video della settimana

youtube.com/embed/Zphax4f6Rls?…

Sima 2 di Google DeepMind


Parliamo spesso di "world model", quei mondi simulati che rappresentano il futuro dell'addestramento. Google DeepMind ad oggi è in prima linea con lo sviluppo di questi prodotti e ieri ha presentato SIMA 2 in un bellissimo video riepilogativo.

Vedi video su youtube.com (eng - 1:37)

Unisciti


I tuoi 5 minuti di notizie tech ogni giorno

Iscriviti
Email sent! Check your inbox to complete your signup.

No spam. Cancellati quando vuoi.


La mia storia
Morning Tech non è solo un progetto editoriale. È il risultato di tentativi, passioni, errori e scoperte. In questa email ti porto un po’ dietro le quinte, tra le righe della mia storia.
Morning TechAmir Ati


I primi 10 mesi di Morning Tech
Leggo molti commenti sui social in cui vi rivolgete a Morning Tech usando il “voi”, ma la verità è che ci sono solo io dietro. Buon inizio di anno nuovo, ho iniziato a scrivere questo post il 30 dicembre e oggi, il 2 gennaio, lo sto ancora aggiustando. Com’è andata
Morning TechAmir Ati


Si può fare Morning Tech da soli?
Fino a prova contraria.
Morning TechAmir Ati


Come selezioniamo le notizie?

Ogni notizia crea migliaia di articoli speculativi. Morning Tech si occupa di trovare il fatto originale e di riportartelo con un riassunto e una narrativa imparziale. Tutte le fonti sono validate tramite bias-checker e risultano positive ai controlli di fact-checking degli ultimi cinque anni.

Che vuol dire essere indipendenti?

Morning Tech sopravvive anche grazie agli sponsor della newsletter ma questi non hanno alcuna influenza sulla selezione editoriale. Abbiamo deciso di dire no agli investitori in modo da mantenere una voce disinteressata e a servizio della cultura e dell'informazione. Andiamo avanti grazie al tuo supporto.


Approvato pacchetto da mille miliardi di dollari per Elon Musk


In breve:


Con il 75% di favorevoli, il consiglio di Tesla ha votato a favore della retribuzione da mille miliardi di dollari per Musk, che avverrà se Tesla raggiungerà certi obiettivi. Il pacchetto serve a incentivare il CEO verso il consolidamento nel mercato di EV, robot umanoidi, robotaxi e semiconduttori, puntando a 8,5mila miliardi di dollari di capitalizzazione di mercato. È stato votato anche a favore degli investimenti di Tesla in xAI.

Riassunto completo:


  • Gli azionisti Tesla hanno approvato un pacchetto retributivo per il CEO Elon Musk, che include azioni per un valore potenziale fino a mille miliardi di dollari se l'azienda raggiungerà ambiziosi obiettivi di mercato.
  • L'accordo è stato supportato da oltre il 75% dei voti degli azionisti, nonostante l'opposizione di alcuni grandi investitori istituzionali e consulenti di voto.
  • Musk aveva precedentemente minacciato di lasciare Tesla qualora il pacchetto fosse stato respinto, dichiarando di voler una quota di proprietà sufficiente per la sua visione aziendale.
  • Il piano mira a incentivare Musk a guidare Tesla verso nuovi prodotti e settori, come veicoli autonomi, robotaxi e robot umanoidi, espandendo la capitalizzazione di mercato a 8,5 trilioni di dollari.
  • Il pacchetto si compone di 12 tranche di azioni, con Musk che otterrebbe circa l'1% delle azioni attuali per ogni traguardo sbloccato, come una capitalizzazione di 2 trilioni o la vendita di un milione di robot.
  • Una proposta separata per autorizzare il consiglio di Tesla a investire in xAI, la società di intelligenza artificiale di Musk, è anch'essa passata con un numero maggiore di voti favorevoli.
  • Il precedente pacchetto retributivo di Musk del 2018, il più grande mai registrato prima di questo, è oggetto di una disputa legale presso la Corte Suprema del Delaware, dopo che un tribunale inferiore lo aveva annullato.
Perché c'è stata tensione?

Perché Elon Musk ha dichiarato che avrebbe abbandonato l'azienda se gli azionisti non avessero votato a favore dell'accordo. Il problema è che nel 2018 gli azionisti hanno votato a favore di un pacchetto retributivo da 56 miliardi di dollari — quindi molto minore ma pur sempre "storico" — che fu annullato da un tribunale minore perché ritenuto "eccessivo e ingiusto" dal giudice.

Questo testo è un riassunto del seguente articolo (eng): The Wall Street Journal

Alternativa in italiano:

Perché gli azionisti di Tesla hanno accettato di dare a Elon Musk un mega-stipendio da mille miliardi
Il pacchetto retributivo senza precedenti è legato a una serie di ambiziosi obiettivi e serve a convincere l’imprenditore a mantenere il focus sulla casa
Wired ItaliaAarian Marshall


Ghost: blog e newsletter italiane ha ricondiviso questo.

Lampughe a Tiro di Jig


Spesso le lampughe cacciano lontano da riva, troppo per raggiungerle con l’esca giusta. Ma c’è una soluzione, laboriosa ma efficace. Vediamo cosa fare per portarle a tiro di jig.
The media in this post is not displayed to visitors. To view it, please go to the original post.

L’autore con una lampuga appena pescata con la tecnica descritta nell’articolo.

di Robert Panai - Sembrerebbe che quest’anno sia proprio quello giusto. Le lampughe sono tra le catture più ambite nello spinning dalla scogliera. Hanno una livrea verde e oro brillantissima che permette di individuarle anche da decine di metri di distanza. Cacciano appena sotto la superficie e i loro attacchi sono potenti e spettacolari. Dotate di un corpo sottile e idrodinamico, anche esemplari sul chilo sono in grado di esprimere una forza enorme e non si arrendono mai. Ma sono sfuggenti, appaiono nello spot di pesca improvvisamente e se non si è pronti e con la giusta attrezzatura, in pochi minuti spariscono. La stagione migliore per cercare di insidiarle dalla scogliera è l’autunno. Complice un’estate molto calda e la temperatura del mare che continua a restare abbastanza alta, le lampughe sono arrivate nelle coste del nord Sardegna in grande quantità, ma le catture rimanevano poche e sporadiche, poiché agli avvistamenti difficilmente seguivano gli strike. Personalmente, ho da subito tentato la loro cattura, ma inizialmente senza alcun risultato.
Scogliera che si affaccia su acque profonde: classico spot da lampughe.
Le vedevo, questo si, ma il più delle volte nuotavano troppo lontano, a una distanza inarrivabile per la mia attrezzatura. In più, anche gli esemplari più grossi attaccano maggiormente esche piccole e cioè quelle che simulano il piccolo pesce foraggio di cui vanno ghiotte ma che non raggiungono mai distanze considerevoli. Sembrava una situazione davvero sconfortante. Le lampughe arrivavano, cacciavano a qualche decina di metri dalla scogliera; io le vedevo muoversi per intere serate ma mi era impossibile cacciarle. Dopo tante uscite infruttuose ho affinato la tecnica giusta. Si tratta di organizzare il tutto in anticipo. Con una canna da shore jigging, appena si scorgono le lampughe in caccia lontano dalla riva, si lancia una grossa gomma con una pesante testina piombata. Questa arriva molto più lontano di un piccolo jig. Le lampughe, incuriosite dalla grossa esca in gomma le nuotano vicino, senza mai attaccarla. A questo punto, quando sono “a tiro di jig” si imbraccia la canna con già pronta l’esca giusta e si lancia vicino al branco. Chiaramente non è una tecnica infallibile e spesso i predatori, con una potente scodata, riacquistano il mare aperto. Ma alcune volte la loro curiosità le spinge ad attaccare e… sbam! Avere una lampuga in canna è un’esperienza da fare almeno una volta nella vita.
Il boga grip permette di maneggiare le prede senza lederle, mantenendo le mani a debita distanza dall’esca e quindi dalle insidiose ancorette.

Questa voce è stata modificata (6 mesi fa)
Ghost: blog e newsletter italiane ha ricondiviso questo.

Oneplus 15: un nuovo smartphone che ridefinisce gli standard tra i flagship


Un salto di due generazioni in potenza, intelligenza e design in termini di prestazioni, fotocamera avanzata e intelligenza artificiale
The media in this post is not displayed to visitors. To view it, please go to the original post.


OnePlus ha presentato l’attesissimo OnePlus 15, un upgrade di due generazioni che stabilisce un nuovo standard per gli smartphone di fascia alta. OnePlus 15 integra in modo armonioso prestazioni potenti, un sistema fotografico di livello professionale, funzioni di intelligenza artificiale pratiche e personalizzate, e un design iconico e raffinato.

Una nuova standard di potenza


Il brand ancora una volta ha alzato l’asticella delle prestazioni smartphone introducendo un’innovativa architettura a triplo chip che lavora in sinergia per offrire una fluidità senza precedenti. Al cuore del dispositivo si trova la piattaforma mobile Snapdragon 8 Elite Gen 5, con prestazioni all’avanguardia di CPU e GPU; in supporto, un chip tattile che consente una risposta istantanea del tocco a 3200Hz e un chip Wi-Fi indipendente, progettato per offrire connessioni più forti e stabili. L'intera configurazione, gode di un sistema di raffreddamento realizzato con materiali di grado aerospaziale, tra cui l’isolamento in aerogel e la grafite bianca, che consente di mantenere prestazioni stabili e costanti anche durante lunghe sessioni di gioco o attività ad alta intensità.



Il nuovo OnePlus 15 da diverse angolazioni

Per gli appassionati di gaming, OnePlus 15 è dotato di un giroscopio UAV con una precisione di ±4000 DPS. Questo sensore ad alta sensibilità traduce con estrema accuratezza anche i movimenti più sottili della mano in un controllo di gioco preciso, riducendo al minimo la deriva per mantenere una mira stabile anche con ottiche ad alto ingrandimento.

Il display


Forte della sua esperienza nel garantire display estremamente fluidi, OnePlus introduce per la prima volta nel settore un display 1.5K LTPO a 165Hz, che combina la nitidezza a livello retina con l'estrema fluidità. Lo schermo è inoltre certificato TÜV Rheinland Intelligent Eye Care 5.0, per un comfort visivo ottimizzato.
Il sistema di raffreddamento 360 Cryo-Velocity Cooling System, con materiali di grado aerospaziale, consentendo di mantenere prestazioni stabili e costanti anche durante attività ad alta intensità

La batteria


A sostenere queste prestazioni troviamo una batteria da 7300mAh Silicon NanoStack, con una composizione al 15% di silicio. Progettata per garantire resistenza e affidabilità, OnepPlus garantisce il mantenimento oltre l’80% della capacità anche dopo 4 anni di utilizzo. Con la ricarica cablata SUPERVOOC da 120W, che ripristina la carica completa in circa 39 minuti, e il supporto alla ricarica wireless AIRVOOC da 50W, OnePlus 15 assicura prestazioni al massimo livello per tutta la giornata, senza interruzioni.

Next-Gen Imaging


Sul OnePlus 15, l’imaging inaugura un nuovo capitolo con il DetailMax Engine che lavora insieme a un versatile array di tre fotocamere da 50MP. La base hardware include una fotocamera principale da 50MP con stabilizzazione ottica dell’immagine, una fotocamera ultra-wide da 50MP con autofocus sia per scene ampie che per macro ravvicinate, e una lente teleobiettivo periscopica da 50MP con zoom ottico 3,5x e zoom lossless di alta qualità 7x. Il DetailMax Engine migliora questo setup attraverso la fotografia computazionale intelligente, inclusi la modalità Ultra Clear 26MP per catturare dettagli intricati in piena luce, Clear Burst per scatti nitidi in movimento e Clear Night Engine per fotografie notturne più pulite. Per la creazione di video, OnePlus 15 supporta la registrazione in 4K 120fps Dolby Vision, insieme al supporto LOG per una flessibile color grading e anteprime LUT in tempo reale.

Design elegante


L’approccio sofisticato al design del OnePlus 15 ne esalta ogni singolo dettaglio. Il sistema fotografico è disposto con precisione geometrica, le cornici sono ultra-sottili da 1,15 mm e gli angoli arrotondati. Questo design, senza soluzione di continuità, è reso possibile dalla tecnologia avanzata di Low Injection Pressure Over-molding (Lipo), che massimizza lo spazio dello schermo mantenendo l’integrità strutturale. L’attenzione ai dettagli si estende all’intero form factor, con un telaio piatto dai bordi arrotondati e una distribuzione ottimizzata del peso 50/50. Lo smartphone è disponibile in tre finiture premium: Infinite Black con vetro AG avanzato, Sand Storm con un telaio innovativo trattato MAO, 3,4 volte più duro dell’alluminio convenzionale e 1,3 volte più resistente del titanio, e Ultra Violet con un rivestimento a doppia texture sensibile alla luce.
Gli strumenti AI aggiuntivi includono AI Writer per la redazione e sintesi dei contenuti, AI Recorder per la trascrizione in tempo reale delle riunioni con identificazione del parlante, e AI Portrait Glow per il miglioramento intelligente delle fotoGli strumenti AI aggiuntivi includono AI Writer per la redazione e sintesi dei contenuti, AI Recorder per la trascrizione in tempo reale delle riunioni con identificazione del parlante, e AI Portrait Glow per il miglioramento intelligente delle foto
Il OnePlus 15 stabilisce anche un nuovo standard di durata per i flagship grazie alle sue certificazioni complete IP66, IP68, IP69 e IP69K – il sistema di protezione più completo nel settore. Questo ampio sistema di classificazioni garantisce un’eccellente resistenza contro polvere, immersione in acqua fino a 2 metri per 30 minuti e persino getti d’acqua ad alta pressione e alta temperatura fino a 80°C, rendendo il OnePlus 15 uno dei smartphone flagship più resistenti disponibili.

Prezzo e disponibilità


Il OnePlus 15 è disponibile al prezzo di 979 euro nella versione da 12+256 GB di RAM e 1129 euro nella versione da 16+512 GB di RAM. Acquistando il device tramite OnePlus.com si potrà usufruire di uno sconto speciale di 100 euro sulla variante con maggiore memoria. Inoltre, potranno essere scelti diversi prodotti o accessori gratuiti del valore fino a 349 euro e i primi 100 acquirenti, oltre al regalo gratuito sopra menzionato, riceveranno anche un DJI Osmo Mobile 7, stabilizzatore per fotocamera mobile, in omaggio.

Ghost: blog e newsletter italiane ha ricondiviso questo.

La durissima trattativa all’ONU per il futuro di Gaza


Stati Uniti, Russia e Cina discutono in modo acceso sulla forma di governo per il futuro della Striscia di Gaza. Tra le altre notizie: cosa si dice di Trump nelle mail di Epstein, l’accordo bipartisan per la riforma del reato di violenza sessuale, Blue Or

Il piano di Washington e Israele, per un governo temporaneo che esautori sia l’attuale governo di Gaza che l’Autorità palestinese dalla gestione del “dopoguerra” a Gaza potrebbe arenarsi in Consiglio di sicurezza delle Nazioni Unite. Secondo fonti diplomatiche di Associated Press, sia Russia che Cina — entrambe con diritto di veto — hanno chiesto la rimozione del “Consiglio di pace” dalla risoluzione statunitense. Il piano statunitense prevede, come ricorderete, la formazione di un organo con un mandato internazionale, che dovrebbe governare su Gaza fino al 2027, con una presenza effettivamente solo nominale da parte dei politici palestinesi. Mosca e Pechino danno voce alle preoccupazioni di alcuni loro alleati arabi, che hanno sollevato preoccupazioni per la mancanza di un qualsiasi ruolo di transizione per l’Autorità palestinese, e per la mancanza di obiettivi specifici per la formazione di uno stato palestinese. Preoccupa anche che la risoluzione non metta nero su bianco condizioni e tempistiche per il ritiro definitivo delle IDF dai territori palestinesi, cosa che fattualmente vuol dire che la decisione spetta ad Israele. La diplomazia di entrambi i paesi ha fatto intendere che per non mettere il veto sulla risoluzione statunitense il testo deve essere drasticamente ridotto, sostanzialmente limitandosi a istruire la formazione di una forza di stabilizzazione — ma sotto il controllo diretto del Consiglio di sicurezza, senza la formazione di una struttura di governo locale. (the Times of Israel)

La diplomazia russa ha fatto un passo più avanti, presentando una propria bozza per una risoluzione su Gaza, per sfidare il testo statunitense. Lo è proprio a livello formale: la missione russa al Consiglio di sicurezza ha definito il proprio testo una “controproposta,” “ispirata dalla bozza statunitense.” “L'obiettivo della nostra bozza è consentire al Consiglio di Sicurezza di sviluppare un approccio equilibrato, accettabile e unificato per ottenere una cessazione sostenibile delle ostilità.” Nel testo non compare, come richiesto separatamente, nessun “Consiglio di pace.” La controproposta di Mosca ha infastidito molto la diplomazia statunitense, secondo cui “i tentativi di seminare discordia ora – mentre l'accordo su questa risoluzione è in fase di negoziazione attiva – hanno conseguenze gravi, tangibili e del tutto evitabili per i palestinesi a Gaza.” (Reuters)

I diplomatici statunitensi, nel frattempo, hanno fatto circolare una propria seconda revisione della loro risoluzione, accettando che deve essere formalizzato un ruolo per un governo palestinese della Striscia di Gaza: “Dopo che il programma di riforma dell'Autorità Nazionale Palestinese sarà stato fedelmente portato avanti e la riqualificazione di Gaza sarà progredita, potrebbero finalmente esserci le condizioni per un percorso credibile verso l'autodeterminazione e la statualità palestinese. Gli Stati Uniti stabiliranno un dialogo tra Israele e i palestinesi per concordare un orizzonte politico per una coesistenza pacifica e prospera.” Nel passaggio in cui si descrive il governo del “Consiglio di pace,” inoltre, si specifica che la sua autorità deve essere per necessità “transitoria.” (X)

This post is for subscribers only


Become a member to get access to all content
Subscribe now

Ghost: blog e newsletter italiane ha ricondiviso questo.

400esima rassegna 🥳 - Microsoft e i chip di OpenAI, Waymo in autostrada, Valve presenta una console


I tuoi 5 minuti di aggiornamento mattutino.
The media in this post is not displayed to visitors. To view it, please go to the original post.

La rassegna di oggi è gentilmente sponsorizzata da Ghost.

Buon venerdì,
innanzitutto buona 400esima rassegna! Devo dire la verità: l'altro giorno ho ridato un'occhiata ai conti e questo counter è iniziato senza calcolare il primo mese e mezzo in cui ho inviato la rassegna a una quarantina di persone, quindi probabilmente il numero è anche maggiore ma ormai teniamo quello! Oggi parleremo di OpenAI che è entrata nel mondo dei chip, lo ha fatto un paio di mesi fa annunciando una collaborazione con Broadcom e oggi vedremo lo zampino di Microsoft. Poi parleremo di Waymo robotaxi che tocca finalmente l'autostrada; vedremo tre prodotti annunciati dal colosso dei videogiochi per PC Valve, e tanto altro ancora. Buona lettura!

Podcast quotidiano


Con il commento di Amir Ati.

Il podcast quotidiano è disponibile solo per i supporter.

Notizie dal mondo


Le news di oggi, selezionate a mano.

Microsoft utilizzerà i progetti di chip di OpenAI


Big Tech
Microsoft sfrutterà il lavoro di OpenAI per i chip. In particolare, OpenAI sta collaborando con Broadcom perché quest'ultima produca chip progettati dall'azienda di Sam Altman. Microsoft ha un accordo con OpenAI che gli dà accesso a qualsiasi ambito di ricerca fino al 2030, quindi può permettersi di "inglobare" il lavoro progettuale sui chip di OpenAI.
~
Fonte: Bloomberg
Alternativa in italiano: non pervenuta

Leggi tutto

Perché è importante?

Perché la situazione chip è complessa: da un lato rappresentano uno dei settori più importanti al mondo adesso, ma dall'altro tutte le grandi aziende produttrici subiscono il domino inarrivabile di Nvidia. Solo Google ultimamente avrebbe tirato fuori la v7 delle sue TPU che inizia ad avvicinarsi all'impero di Jensen Huang, dominato dalle Blackwell. Per OpenAI tuffarsi in questo mondo è molto ambizioso, ma con la forza produttiva di Broadcom e l'adozione da parte di Microsoft le carte in tavola possono cambiare.

Unisciti


I tuoi 5 minuti di notizie tech ogni giorno

Iscriviti
Email sent! Check your inbox to complete your signup.

No spam. Cancellati quando vuoi.

Waymo porta i robotaxi in autostrada per la prima volta


Tecnologia
Waymo, la compagnia di Alphabet (Google) che offre robotaxi, ha annunciato l'introduzione di corse autonome sulle autostrade di San Francisco, Los Angeles e Phoenix. Inizialmente per utenti selezionati, l'espansione mira a offrire viaggi più rapidi. Waymo estenderà il servizio anche a San Jose e sarà la prima a fornire corse completamente senza conducente su autostrada.
~
Fonte: The Guardian
Alternativa in italiano: Quotidiano Motori

Leggi tutto

La crescita inarrestabile di Waymo

Waymo quest'anno ha raggiunto le 250.000 corse settimanali, contro le 150.000 settimanali dell'anno precedente, mentre i ricavi stimati sono saliti intorno ai 125 milioni di dollari solo nel 2024, con previsioni di triplicare nel 2025 (ancora da confermare). Nonostante ciò, l'azienda sostiene ancora perdite superiori al miliardo di dollari l’anno e ci sono aziende cinesi come Baidu Robotaxi che l'hanno raggiunta equiparando lo stesso dato di 250.000 corse a settimana.


GENTILMENTE SPONSORIZZATI DA


Ghost


Che tu voglia inviare una newsletter, pubblicare articoli, creare il tuo sito web o semplicemente avere un luogo dove scrivere, Ghost è la scelta giusta.

Morning Tech usa Ghost e il nostro sogno è quello di vederlo diffuso di più in Italia. Il team di sviluppatori è fantastico, la tecnologia è open-source, solida, sicura e velocissima.

La community mondiale è grande: Ghost viene utilizzato da famosi giornali indipendenti come 404 Media, Tangle e Platformer.

Con Morning Tech hai uno sconto del 10% su qualsiasi piano tu voglia sottoscrivere, dai un'occhiata 👇
Scopri ora

Il colosso dei videogiochi per PC Valve presenta una nuova console


Gaming
Valve ha presentato un nuovo ecosistema di prodotti in arrivo nel 2026, concepiti come una famiglia di dispositivi. Tra questi, il visore VR Steam Frame (wireless e leggero, non richiede un pc), la console da salotto Steam Machine (un PC gaming compatto, successore dello Steam Deck) e il riprogettato Steam Controller (con doppio stick e trackpad).
~
Fonte: PC Gamer
Alternativa in italiano: Multiplayer

Leggi tutto

Matthew McConaughey e Michael Caine firmano un accordo vocale con ElevenLabs


Intelligenza Artificiale
Gli attori Matthew McConaughey e Michael Caine hanno siglato un accordo con ElevenLabs, la più efficace società di AI-generated audio, per la creazione e l'utilizzo delle loro voci all'interno del software. McConaughey, già investitore di ElevenLabs, otterrà la generazione in automatico della versione in spagnolo della sua newsletter "Lyrics of Livin", letta tramite la sua stessa voce. ElevenLabs lancerà "Iconic Voices Marketplace", offrendo voci di celebrità, inclusa quella di Caine.
~
Fonte: The Guardian
Alternativa in italiano: DDAy

Leggi tutto

Dalla negazione alla comprensione

Quando le società AI hanno iniziato a copiare gli stili estetici di disegnatori famosi, o quando grandi aziende, proprio come OpenAI, hanno "accidentalmente" riprodotto la voce di Scarlett Johanson, si è sollevato un polverone, tenuto in piedi in prima linea dal sindacato SAG-AFTRA. Oggi le cose stanno cambiando: le aziende sono più attente ai consensi e molte celebrity si stanno prestando, previa regolare contratto. Inoltre, non sono poche quelle che stanno investendo in IA, come Leonardo di Caprio e Ashton Kutcher.

Chad: il nuovo prodotto di Y Combinator che sembrava uno scherzo


Startup
Clad Labs, tramite Y Combinator, ha lanciato "Chad: The Brainrot IDE". Si tratta di un editor di codice con assistente IA che fa partire "passatempi stupidi" come "video su TikTok, swipe su Tinder, videogiochi demenziali" ogni volta che stai aspettando la risposta elaborata dell'IA. Una volta che il task è compiuto, la finestra di "passatempo brainrot" si chiude. Secondo loro permette di dosare lo svago senza cascare nel tunnel dello smartphone.
~
Fonte: TechCrunch
Alternativa in italiano: non pervenuta

Leggi tutto

Letture interessanti


In lingua inglese.

La guerra fredda dell'IA che ridefinirà tutto


wsj.com (eng)

Il programmatore quarantennale


codefol.io (eng)

Scienziati rivelano stati di luce quantistica nascosti con una luminosità record 300.000 volte più alta


interestingengineering.com (eng)

Notizie veloci


In lingua inglese.

iOS 26.2 beta aggiunge nuova personalizzazione al Liquid Glass, allarmi nell'app Promemoria e altro ancora


techcrunch.com (eng)

Fisici del MIT osservano prove chiave della superconduttività non convenzionale nel grafene ad angolo magico


mit.edu (eng)

La nuova funzione di riepilogo degli audiolibri di Spotify utilizza l'IA per ricordarti la storia finora raccontata


theverge.com (eng)

Anthropic annuncia un piano da 50 miliardi di dollari per la costruzione di data center negli Stati Uniti


theguardian.com (eng)

Video del giorno

youtube.com/embed/Zphax4f6Rls?…

Sima 2 di Google DeepMind


Parliamo spesso di "world model", quei mondi simulati che rappresentano il futuro dell'addestramento. Google DeepMind ad oggi è in prima linea con lo sviluppo di questi prodotti e ieri ha presentato SIMA 2 in un bellissimo video riepilogativo.

Vedi video su youtube.com (eng - 1:37)

Unisciti


I tuoi 5 minuti di notizie tech ogni giorno

Iscriviti
Email sent! Check your inbox to complete your signup.

No spam. Cancellati quando vuoi.


La mia storia
Morning Tech non è solo un progetto editoriale. È il risultato di tentativi, passioni, errori e scoperte. In questa email ti porto un po’ dietro le quinte, tra le righe della mia storia.
Morning TechAmir Ati


I primi 10 mesi di Morning Tech
Leggo molti commenti sui social in cui vi rivolgete a Morning Tech usando il “voi”, ma la verità è che ci sono solo io dietro. Buon inizio di anno nuovo, ho iniziato a scrivere questo post il 30 dicembre e oggi, il 2 gennaio, lo sto ancora aggiustando. Com’è andata
Morning TechAmir Ati


Si può fare Morning Tech da soli?
Fino a prova contraria.
Morning TechAmir Ati


Come selezioniamo le notizie?

Ogni notizia crea migliaia di articoli speculativi. Morning Tech si occupa di trovare il fatto originale e di riportartelo con un riassunto e una narrativa imparziale. Tutte le fonti sono validate tramite bias-checker e risultano positive ai controlli di fact-checking degli ultimi cinque anni.

Che vuol dire essere indipendenti?

Morning Tech sopravvive anche grazie agli sponsor della newsletter ma questi non hanno alcuna influenza sulla selezione editoriale. Abbiamo deciso di dire no agli investitori in modo da mantenere una voce disinteressata e a servizio dell'informazione. Andiamo avanti grazie al tuo supporto. Fatti sentire.


Microsoft utilizzerà i progetti di chip di OpenAI


In breve:


Microsoft sfrutterà il lavoro di OpenAI per i chip. In particolare, OpenAI sta collaborando con Broadcom perché quest'ultima produca chip progettati dall'azienda di Sam Altman. Microsoft ha un accordo con OpenAI che gli dà accesso a qualsiasi ambito di ricerca fino al 2030, quindi può permettersi di "inglobare" il lavoro progettuale sui chip di OpenAI.

Riassunto completo:


  • Microsoft Corp. intende utilizzare l'accesso allo sviluppo di semiconduttori per intelligenza artificiale personalizzati di OpenAI per supportare i propri sforzi interni nella produzione di chip.
  • Satya Nadella, Chief Executive Officer di Microsoft, ha dichiarato che l'azienda avrà accesso a tutte le innovazioni di sistema di OpenAI, con l'obiettivo di implementarle e poi estenderle.
  • Un accordo rivisto tra le due società garantisce a Microsoft l'accesso ai modelli di OpenAI fino al 2032 e alla ricerca fino al 2030, o fino al raggiungimento dell'intelligenza artificiale generale.
  • I diritti di proprietà intellettuale di Microsoft derivanti da tale accordo non includono l'hardware consumer di OpenAI.
  • OpenAI prevede di progettare chip e hardware di rete su misura in collaborazione con Broadcom Inc., un'azienda di semiconduttori.
  • Microsoft ha intrapreso lo sviluppo di chip interni ma ha registrato meno successi in questo campo rispetto ad alcuni concorrenti nel cloud, come Google di Alphabet Inc.
  • Microsoft combinerà i design di OpenAI con il lavoro del proprio team, beneficiando dei diritti di proprietà intellettuale relativi a queste innovazioni.
Perché è importante?

Perché la situazione chip è complessa: da un lato rappresentano uno dei settori più importanti al mondo adesso, ma dall'altro tutte le grandi aziende produttrici subiscono il domino inarrivabile di Nvidia. Solo Google ultimamente avrebbe tirato fuori la v7 delle sue TPU che inizia ad avvicinarsi all'impero di Jensen Huang, dominato dalle Blackwell. Per OpenAI tuffarsi in questo mondo è molto ambizioso, ma con la forza produttiva di Broadcom e l'adozione da parte di Microsoft le carte in tavola possono cambiare.

Questo testo è un riassunto del seguente articolo (eng): Bloomberg

Alternativa in italiano: non pervenuta


Ghost: blog e newsletter italiane ha ricondiviso questo.

Microsoft utilizzerà i progetti di chip di OpenAI


Può farlo grazie a un accordo che gli dà proprietà intellettuale fino al 2030.

In breve:


Microsoft sfrutterà il lavoro di OpenAI per i chip. In particolare, OpenAI sta collaborando con Broadcom perché quest'ultima produca chip progettati dall'azienda di Sam Altman. Microsoft ha un accordo con OpenAI che gli dà accesso a qualsiasi ambito di ricerca fino al 2030, quindi può permettersi di "inglobare" il lavoro progettuale sui chip di OpenAI.

Riassunto completo:


  • Microsoft Corp. intende utilizzare l'accesso allo sviluppo di semiconduttori per intelligenza artificiale personalizzati di OpenAI per supportare i propri sforzi interni nella produzione di chip.
  • Satya Nadella, Chief Executive Officer di Microsoft, ha dichiarato che l'azienda avrà accesso a tutte le innovazioni di sistema di OpenAI, con l'obiettivo di implementarle e poi estenderle.
  • Un accordo rivisto tra le due società garantisce a Microsoft l'accesso ai modelli di OpenAI fino al 2032 e alla ricerca fino al 2030, o fino al raggiungimento dell'intelligenza artificiale generale.
  • I diritti di proprietà intellettuale di Microsoft derivanti da tale accordo non includono l'hardware consumer di OpenAI.
  • OpenAI prevede di progettare chip e hardware di rete su misura in collaborazione con Broadcom Inc., un'azienda di semiconduttori.
  • Microsoft ha intrapreso lo sviluppo di chip interni ma ha registrato meno successi in questo campo rispetto ad alcuni concorrenti nel cloud, come Google di Alphabet Inc.
  • Microsoft combinerà i design di OpenAI con il lavoro del proprio team, beneficiando dei diritti di proprietà intellettuale relativi a queste innovazioni.
Perché è importante?

Perché la situazione chip è complessa: da un lato rappresentano uno dei settori più importanti al mondo adesso, ma dall'altro tutte le grandi aziende produttrici subiscono il domino inarrivabile di Nvidia. Solo Google ultimamente avrebbe tirato fuori la v7 delle sue TPU che inizia ad avvicinarsi all'impero di Jensen Huang, dominato dalle Blackwell. Per OpenAI tuffarsi in questo mondo è molto ambizioso, ma con la forza produttiva di Broadcom e l'adozione da parte di Microsoft le carte in tavola possono cambiare.

Questo testo è un riassunto del seguente articolo (eng): Bloomberg

Alternativa in italiano: non pervenuta

Ghost: blog e newsletter italiane ha ricondiviso questo.

Chad: il nuovo prodotto di Y Combinator che sembrava uno scherzo


Ti propone contenuti "brainrot" ma promette di migliorare la tua produttività.
The media in this post is not displayed to visitors. To view it, please go to the original post.

In breve:


Clad Labs, tramite Y Combinator, ha lanciato "Chad: The Brainrot IDE". Si tratta di un editor di codice con assistente IA che fa partire "passatempi stupidi" come "video su TikTok, swipe su Tinder, videogiochi demenziali" ogni volta che stai aspettando la risposta elaborata dell'IA. Una volta che il task è compiuto, la finestra di "passatempo brainrot" si chiude. Secondo loro permette di dosare lo svago senza cascare nel tunnel dello smartphone.

Riassunto completo:


  • Clad Labs, una startup supportata da Y Combinator (un acceleratore di startup), ha lanciato un nuovo prodotto chiamato "Chad: The Brainrot IDE".
  • Si tratta di un ambiente di sviluppo integrato (IDE) per la programmazione che, durante l'attesa del completamento delle attività dell'intelligenza artificiale, consente agli sviluppatori di dedicarsi ad attività di svago (come giochi, social media o dating app) all'interno di una finestra dello stesso IDE.
  • I fondatori di Clad Labs sostengono che l'IDE aumenti la produttività degli sviluppatori, permettendo loro di distrarsi senza dover passare ad altri dispositivi o browser, riducendo così il cosiddetto "context switching".
  • L'idea è stata percepita da molti come insolita e alcuni l'hanno inizialmente scambiata per uno scherzo, portando a dibattiti su come la realtà della Silicon Valley sia diventata così bizzarra da essere difficile da parodiare.
  • Le reazioni sui social media, in particolare su X (piattaforma social), sono state contrastanti, con alcuni che hanno definito il prodotto una "rage bait" (strategia di marketing che provoca indignazione per attirare attenzione), tra cui Jordi Hays, co-conduttore di un podcast tecnologico.
  • Richard Wang, fondatore di Clad Labs, ha replicato che il prodotto non intendeva essere una "rage bait", ma punta a diventare un apprezzato ambiente di codifica assistito dall'intelligenza artificiale per sviluppatori che amano le app consumer.
  • "Chad: The Brainrot IDE" è attualmente in fase di beta chiusa e non è ancora disponibile al pubblico, con l'azienda che mira a costruire una comunità di utenti che apprezzano l'idea.

Questo testo è un riassunto del seguente articolo (eng):

‘Chad: The Brainrot IDE’ is a new Y Combinator-backed product so wild, people thought it was fake | TechCrunch
Chad: The Brainrot IDE is an actual product that pairs vibe coding with brainrot activities like gambling, Tinder and games.
TechCrunchJulie Bort


Alternativa in italiano: non pervenuta

Ghost: blog e newsletter italiane ha ricondiviso questo.

Waymo porta i robotaxi in autostrada per la prima volta


Sarà la prima a farlo.
The media in this post is not displayed to visitors. To view it, please go to the original post.

In breve:


Waymo, la compagnia di Alphabet (Google) che offre robotaxi, ha annunciato l'introduzione di corse autonome sulle autostrade di San Francisco, Los Angeles e Phoenix. Inizialmente per utenti selezionati, l'espansione mira a offrire viaggi più rapidi. Waymo estenderà il servizio anche a San Jose e sarà la prima a fornire corse completamente senza conducente su autostrada.

Riassunto completo:


  • Waymo, la compagnia di Alphabet che sviluppa veicoli a guida autonoma, inizierà a offrire corse robotaxi sulle autostrade di San Francisco, Los Angeles e Phoenix.
  • Questo servizio sarà inizialmente accessibile agli utenti con accesso anticipato, con l'obiettivo di fornire viaggi più rapidi, fluidi ed efficienti.
  • L'iniziativa rappresenta la prima volta che un robotaxi di Waymo opera su autostrada e rende la compagnia la prima a offrire corse senza conducente su questo tipo di strada.
  • Contemporaneamente, Waymo sta espandendo le sue operazioni anche a San Jose, includendo l'aeroporto internazionale Mineta San Jose, il suo secondo aeroporto servito.
  • Waymo è attualmente l'unica azienda negli Stati Uniti a gestire un servizio di robotaxi a pagamento con oltre 1.500 veicoli senza conducenti di sicurezza o monitor a bordo.
  • Sebbene la guida in autostrada sia considerata meno complessa del traffico cittadino, essa introduce nuove sfide legate alle alte velocità, come le immissioni di veicoli e le uscite.
  • La compagnia ha sviluppato nuovi protocolli specifici per le autostrade in collaborazione con le pattuglie stradali e le agenzie di sicurezza locali per gestire questi scenari.

La crescita inarrestabile di Waymo

Waymo quest'anno ha raggiunto le 250.000 corse settimanali, contro le 150.000 settimanali dell'anno precedente, mentre i ricavi stimati sono saliti intorno ai 125 milioni di dollari solo nel 2024, con previsioni di triplicare nel 2025 (ancora da confermare). Nonostante ciò, l'azienda sostiene ancora perdite superiori al miliardo di dollari l’anno e ci sono aziende cinesi come Baidu Robotaxi che l'hanno raggiunta equiparando lo stesso dato di 250.000 corse a settimana.

Questo testo è un riassunto del seguente articolo (eng):

Waymo announces that its robotaxis will drive freeways for the first time
Google subsidiary to offer services on San Francisco, LA and Phoenix freeways as it scales expansion amid competition
The GuardianGuardian staff and agency


Alternativa in italiano:

Waymo batte Tesla e porta i robotaxi in autostrada - Quotidiano Motori
Waymo estende il servizio di robotaxi alle autostrade in tre città USA, aprendo ai trasferimenti veloci verso aeroporti e nuove aree urbane.
Quotidiano MotoriGianluca Pezzi

Ghost: blog e newsletter italiane ha ricondiviso questo.

Il colosso dei videogiochi per PC Valve presenta una nuova console


Un vero e proprio competitor di Xbox e PlayStation.
The media in this post is not displayed to visitors. To view it, please go to the original post.

In breve:


Valve ha presentato un nuovo ecosistema di prodotti in arrivo nel 2026, concepiti come una famiglia di dispositivi. Tra questi, il visore VR Steam Frame (wireless e leggero, non richiede un pc), la console da salotto Steam Machine (un PC gaming compatto, successore dello Steam Deck) e il riprogettato Steam Controller (con doppio stick e trackpad).

Riassunto completo:


  • Valve ha presentato tre nuovi prodotti – il visore VR Steam Frame, la console da salotto Steam Machine e il controller Steam Controller – progettati per formare un ecosistema coeso in uscita nel 2026.
  • Lo Steam Frame è un visore VR wireless e autonomo, dotato di processore Snapdragon 8 Gen 3 e SteamOS, non richiede un PC da gioco ma può connettersi a uno per PCVR ad alta fedeltà. Include lenti pancake, tracking inside-out e eye tracking.
  • Il visore presenta un design modulare con una fascia staccabile per batteria e altoparlanti, oltre a uno slot di espansione frontale per futuri aggiornamenti.
  • La Steam Machine è un PC gaming compatto da salotto, successore più potente dello Steam Deck, con CPU AMD Zen 4 a 6 core, GPU RDNA 3, 16GB di RAM e SteamOS, offrendo prestazioni circa sei volte superiori allo Steam Deck.
  • Il nuovo Steam Controller è la seconda versione di Valve, include due thumbstick TMR (Tunnel Magnetoresistance) resistenti al drift, due trackpad e controlli giroscopici, progettato per sostituire l'uso del mouse dal divano.
  • Il controller supporta connettività Bluetooth, cablata o tramite un “puck” a 2.4 GHz incluso, che garantisce bassa latenza e può collegare fino a quattro controller, fungendo anche da caricatore.
  • Tutti e tre i prodotti saranno disponibili nelle stesse regioni in cui è già presente lo Steam Deck, inclusi USA, Canada, UK, Germania, Francia e alcuni paesi asiatici e Australia tramite distributori.

Questo testo è un riassunto del seguente articolo (eng):

Valve announces three new products: here’s what you need to know
Good things come in threes?
PC GamerJacob Ridley


Alternativa in italiano:

Non solo Steam Machine: tutti gli annunci di Valve, tra specifiche tecniche e informazioni non dette
Valve presenta Steam Machine, Steam Frame e un nuovo Steam Controller, ampliando il suo ecosistema hardware. Nessuna novità invece per Steam Deck 2, ancora in attesa del chip ideale.
Multiplayer.itRaffaele Staccini

Ghost: blog e newsletter italiane ha ricondiviso questo.

Matthew McConaughey e Michael Caine firmano un accordo vocale con ElevenLabs


Matthew è già investitore della società.
The media in this post is not displayed to visitors. To view it, please go to the original post.

In breve:


Gli attori Matthew McConaughey e Michael Caine hanno siglato un accordo con ElevenLabs, la più efficace società di AI-generated audio, per la creazione e l'utilizzo delle loro voci all'interno del software. McConaughey, già investitore di ElevenLabs, otterrà la generazione in automatico della versione in spagnolo della sua newsletter "Lyrics of Livin", letta tramite la sua stessa voce. ElevenLabs lancerà "Iconic Voices Marketplace", offrendo voci di celebrità, inclusa quella di Caine.

Riassunto completo:


  • Gli attori Matthew McConaughey e Michael Caine hanno stretto un accordo con ElevenLabs, una società newyorkese specializzata in intelligenza artificiale per la generazione di voci.
  • L'accordo consente a ElevenLabs di creare versioni delle loro voci generate dall'intelligenza artificiale, nell'intento di risolvere una "sfida etica chiave" nel rapporto tra intelligenza artificiale e Hollywood.
  • Matthew McConaughey, che è anche investitore nella società dal 2022, permetterà l'uso della sua voce AI per tradurre in audio spagnolo la sua newsletter, "Lyrics of Livin'".
  • ElevenLabs sta lanciando "Iconic Voices Marketplace", una piattaforma che consentirà ai brand di utilizzare voci di celebrità ufficialmente licenziate e generate tramite intelligenza artificiale.
  • La voce distintiva di Michael Caine è stata aggiunta all'offerta del Marketplace, affiancandosi a quelle di altre personalità, sia del passato che contemporanee, come John Wayne e Liza Minnelli.
  • Gli attori coinvolti hanno espresso il desiderio di utilizzare l'innovazione dell'intelligenza artificiale per amplificare e preservare le voci, piuttosto che sostituirle, raggiungendo un pubblico più ampio.
  • ElevenLabs, valutata circa 6,6 miliardi di dollari, segue la tendenza di altre collaborazioni tra celebrità e aziende di intelligenza artificiale, come gli accordi di Meta con figure come Judi Dench.

Dalla negazione alla comprensione

Quando le società AI hanno iniziato a copiare gli stili estetici di disegnatori famosi, o quando grandi aziende, proprio come OpenAI, hanno "accidentalmente" riprodotto la voce di Scarlett Johanson, si è sollevato un polverone, tenuto in piedi in prima linea dal sindacato SAG-AFTRA. Oggi le cose stanno cambiando: le aziende sono più attente ai consensi e molte celebrity si stanno prestando, previa regolare contratto. Inoltre, non sono poche quelle che stanno investendo in IA, come Leonardo di Caprio e Ashton Kutcher.

Questo testo è un riassunto del seguente articolo (eng):

Matthew McConaughey and Michael Caine sign voice deal with AI company
The voices of the Oscar-winning actors can now be used to create AI-generated versions in a new deal with ElevenLabs
The GuardianBenjamin Lee


Alternativa in italiano:

Matthew McConaughey e Michael Caine si fanno clonare la voce. Trovato accordo con ElevenLabs
La voce di Caine si aggiungerà a quella di altre figure popolari, come Alan Turing e Judy Garland, fra le voci iconiche utilizzabili
DDay.itMassimiliano Di Marco

Ghost: blog e newsletter italiane ha ricondiviso questo.

Steam Machine è ufficiale: 4K e 60 FPS, Valve vuole ridefinire il concetto di Console


Valve annuncia la sua nuova console da salotto per il 2026, un sistema SFF con APU AMD Zen 4/RDNA 3 e 16GB di RAM GDDR5.
The media in this post is not displayed to visitors. To view it, please go to the original post.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Dopo il successo di Steam Deck, Valve punta a conquistare il salotto svelando la sua visione definitiva per il PC da divano dopo aver annunciato Steam Controller 2 e il nuovo headset VR Steam Frame: scopriamo la nuova Steam Machine, in arrivo nel 2026.

L'azienda ha svelato un dispositivo in formato SFF (Small Form Factor), un cubo di circa 16 cm progettato per essere posizionato sotto la TV, ma con una potenza dichiarata sei volte superiore a quella di Steam Deck, sufficiente per gestire il gaming in 4K a 60 FPS sfruttando l'upscaling FSR.

A differenza del primo tentativo, questa nuova Steam Machine è un prodotto interamente progettato da Valve, basato su hardware AMD semi-custom di classe desktop, ottimizzato per essere silenzioso e fresco anche sotto carico. Il cuore del sistema è una CPU AMD Zen 4 a 6 core e 12 thread (fino a 4.8 GHz, 30W TDP) affiancata da una potente GPU RDNA3 con 28 Compute Unit (fino a 2.45 GHz, 110W TDP), sulla carta l'equivalente di una Radeon RX 7400, perciò bisognerà aspettarsi vistosi compromessi sul fronte qualitativo per mantenere il framerate, soprattutto a risoluzioni superiori al 1080p.

Per supportare questa architettura, Valve ha adottato una configurazione di memoria ibrida, dotando la macchina di 16 GB di RAM DDR5 per il sistema e 8 GB di VRAM GDDR6 dedicata esclusivamente alla grafica. L'alimentatore è integrato nello chassis, eliminando la necessità di ingombranti blocchi esterni. Il sistema operativo nativo sarà SteamOS 3 (basato su Arch), garantendo un'esperienza console plug-and-play con avvio rapido e salvataggi cloud.



Come per Deck, verrà introdotto un programma "Steam Machine Verified" per certificare la compatibilità dei giochi.
Tuttavia, Valve ribadisce la natura aperta del dispositivo: resta un PC su cui gli utenti possono installare applicazioni alternative o persino un secondo sistema operativo, come Windows.

Il dispositivo sarà disponibile in due modelli (SSD NVMe da 512 GB o 2 TB), entrambi espandibili tramite microSD. La connettività è di alto livello, con Wi-Fi 6E, Bluetooth 5.3, Ethernet Gigabit, DisplayPort 1.4 (fino a 8K/60Hz), HDMI 2.0 (4K/120Hz), USB-C e USB-A. La Steam Machine è inoltre pensata come hub centrale dell'ecosistema Steam: integra un adattatore wireless per lo Steam Controller (permettendo l'accensione dal divano) ed è l'host ideale per lo streaming verso Steam Deck e il nuovo Steam Frame.


Steam Controller 2 ufficiale con switch meccanici, Hall Effect e trackpad aptico


Accanto all'annuncio di Steam Machine, Valve ha ufficialmente presentato il nuovo Steam Controller, un dispositivo che promette di correggere tutte le criticità del suo divisivo predecessore e di unificare l'esperienza di gioco su tutto l'ecosistema Steam. In arrivo a inizio 2026, il pad è stato riprogettato da zero per offrire il massimo della personalizzazione senza sacrificare l'ergonomia.

La novità più attesa è l'adozione di levette magnetiche TMR basate su sensori Hall Effect per garantire massima precisione e, soprattutto, eliminando alla radice il problema del "drifting".

I due iconici trackpad da 34,5 mm rimangono il cuore dell'esperienza, ma sono stati aggiornati con motori aptici LRA (Linear Resonant Actuators) per un feedback "ad alta definizione" (HD Haptic) e una migliore sensibilità alla pressione. Anche i pulsanti frontali (A/B/X/Y) e il D-pad abbandonano la membrana in favore di switch meccanici clicky, per un feeling più reattivo. Il design integra quattro pulsanti posteriori configurabili e introduce una nuova funzione chiamata Grip Sense: aree capacitive lungo l'impugnatura che attivano il giroscopio (IMU a 6 assi) semplicemente stringendo il controller, permettendo una mira di precisione immediata.

La connettività è stata ripensata per la versatilità. Nella confezione è incluso lo Steam Controller Puck, un innovativo accessorio magnetico che funge sia da trasmettitore wireless a 2.4 GHz (con una latenza dichiarata di 4ms) che da base di ricarica. Il controller supporta comunque anche il Bluetooth 5.3 e la connessione cablata USB-C. La batteria interna da 8.39 Wh promette oltre 35 ore di gioco.



Naturalmente, il controller è progettato per Steam Input, garantendo una personalizzazione totale e l'accesso immediato a migliaia di configurazioni della community.
Una caratteristica unica è la presenza di LED a infrarossi, che ne permettono il tracciamento da parte delle telecamere del nuovo visore Steam Frame, consentendo di utilizzare il gamepad tradizionale per giocare a titoli 2D su uno schermo virtuale in VR.


Ghost: blog e newsletter italiane ha ricondiviso questo.

Ecco Steam Frame: il visore VR ibrido con Snapdragon 8 Gen 3 per streaming PC e standalone


Valve annuncia Steam Frame, un visore VR ibrido con display 2160x2160, lenti pancake e trasmissione a bassa latenza.
The media in this post is not displayed to visitors. To view it, please go to the original post.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Insieme all'annuncio di Steam Controller 2, Valve ha presentato lo Steam Frame, un visore per la realtà virtuale che promette di unificare l'intera libreria di Steam (sia VR che tradizionale) in un unico dispositivo ibrido con un lancio previsto per l'inizio del 2026.

Progettato per il comfort, il visore è leggero (440g totali) e bilanciato, grazie alla batteria ricaricabile da 21.6 Wh integrata nella fascia posteriore, eliminando cavi e configurazioni complesse.
La vera innovazione però risiede nella sua duplice natura. Da un lato, è un potente client di streaming: un adattatore wireless dedicato da 6 GHz (incluso) crea un collegamento a bassa latenza con il PC mentre il visore utilizza doppie antenne radio (una per lo streaming, una per il Wi-Fi) per garantire stabilità.

Per ottimizzare la qualità dello streaming, Valve introduce la trasmissione foveata: utilizzando i dati del tracciamento oculare interno (gestito da due telecamere), il sistema indirizza i pixel alla massima qualità solo dove l'occhio sta guardando, promettendo un miglioramento di 10 volte nella larghezza di banda effettiva.
L'ottica è altrettanto di alto livello, con lenti pancake personalizzate e due display LCD da 2160x2160 per occhio (fino a 144 Hz). L'audio è affidato a un sistema a doppio altoparlante stereo per lato, disposti in direzioni opposte per annullare le vibrazioni che potrebbero interferire con il tracciamento (gestito da quattro telecamere esterne).



Dall'altro lato, lo Steam Frame è un vero e proprio visore VR stand-alone basato su SteamOS: alimentato da un processore Snapdragon 8 Gen 3, 16 GB di RAM LPDDR5X e storage UFS (fino a 1 TB) espandibile via microSD, come Steam Deck sarà supportato da un programma di verifica "Steam Frame Verified" per i giochi (VR e non) che funzioneranno nativamente sul dispositivo.

I controller sono progettati con un design a gamepad diviso per passare agilmente tra VR e giochi 2D.
Oltre al tracciamento 6-DoF e capacitivo delle dita per la VR, includono tutti i comandi tradizionali: D-pad, ABXY, grilletti e, soprattutto, levette magnetiche (TMR) anti-drift. L'alimentazione è affidata a una singola batteria AA per controller, per un'autonomia di circa 40 ore.


Steam Controller 2 ufficiale con switch meccanici, Hall Effect e trackpad aptico


Accanto all'annuncio di Steam Machine, Valve ha ufficialmente presentato il nuovo Steam Controller, un dispositivo che promette di correggere tutte le criticità del suo divisivo predecessore e di unificare l'esperienza di gioco su tutto l'ecosistema Steam. In arrivo a inizio 2026, il pad è stato riprogettato da zero per offrire il massimo della personalizzazione senza sacrificare l'ergonomia.

La novità più attesa è l'adozione di levette magnetiche TMR basate su sensori Hall Effect per garantire massima precisione e, soprattutto, eliminando alla radice il problema del "drifting".

I due iconici trackpad da 34,5 mm rimangono il cuore dell'esperienza, ma sono stati aggiornati con motori aptici LRA (Linear Resonant Actuators) per un feedback "ad alta definizione" (HD Haptic) e una migliore sensibilità alla pressione. Anche i pulsanti frontali (A/B/X/Y) e il D-pad abbandonano la membrana in favore di switch meccanici clicky, per un feeling più reattivo. Il design integra quattro pulsanti posteriori configurabili e introduce una nuova funzione chiamata Grip Sense: aree capacitive lungo l'impugnatura che attivano il giroscopio (IMU a 6 assi) semplicemente stringendo il controller, permettendo una mira di precisione immediata.

La connettività è stata ripensata per la versatilità. Nella confezione è incluso lo Steam Controller Puck, un innovativo accessorio magnetico che funge sia da trasmettitore wireless a 2.4 GHz (con una latenza dichiarata di 4ms) che da base di ricarica. Il controller supporta comunque anche il Bluetooth 5.3 e la connessione cablata USB-C. La batteria interna da 8.39 Wh promette oltre 35 ore di gioco.



Naturalmente, il controller è progettato per Steam Input, garantendo una personalizzazione totale e l'accesso immediato a migliaia di configurazioni della community.
Una caratteristica unica è la presenza di LED a infrarossi, che ne permettono il tracciamento da parte delle telecamere del nuovo visore Steam Frame, consentendo di utilizzare il gamepad tradizionale per giocare a titoli 2D su uno schermo virtuale in VR.


Ghost: blog e newsletter italiane ha ricondiviso questo.

LG: presentato il nuovo UltraGear, il primo monitor gaming al mondo che integra la tecnologia Tandem OLED


Il nuovo monitor è dotato di display OLED di quarta generazione che assicura immagini più luminose e dai colori più brillanti con certificazione Vesa Display Hdr 500
The media in this post is not displayed to visitors. To view it, please go to the original post.


LG Electronics ha presentato UltraGear OLED 27GX700A, il primo monitor gaming al mondo che integra la tecnologia Tandem OLED di quarta generazione. Progettato per i gamer più esigenti, questo modello da 27 pollici offre un’esperienza immersiva, con immagini e luminosità eccezionali e prestazioni fluide per giochi d’azione frenetici.

La tecnologia OLED di quarta generazione


Basato sulla tecnologia OLED di quarta generazione, il nuovissimo 27GX700A utilizza Primary RGB Tandem per migliorare la luminosità e l’accuratezza dei colori. A differenza del design tradizionale OLED, che genera un singolo strato di luce rossa, verde e blu, il modello di quarta generazione di LG adotta una struttura di emissione a 4 strati, separando i livelli rosso e verde in strati individuali. Questa innovativa architettura consente al nuovo UltraGear di offrire fino a 1500nit di luminosità, creando un’esperienza visiva più immersiva sia nelle scene luminose sia in quelle più scure. Inoltre, il monitor è stato certificato da UL Solutions per le prestazioni “Perfect Black” ed è il primo monitor gaming OLED al mondo a ottenere la certificazione VESA DisplayHDR True Black 500, il riferimento del settore per la qualità dei neri e l’accuratezza nella riproduzione dei colori. Capace di rivelare dettagli sottili anche nelle scene più buie, il monitor infatti garantisce un contrasto straordinario, grazie a neri profondi e luci brillanti; questo consente ai gamer di individuare nemici nascosti nell’ombra e di esplorare dungeon oscuri con maggiore coinvolgimento e chiarezza visiva.
Il monitor UltraGear Oled utilizza Primary RGB Tandem per migliorare la luminosità e l’accuratezza dei colori Il monitor UltraGear Oled utilizza Primary RGB Tandem per migliorare la luminosità e l’accuratezza dei colori

Gameplay scorrevole e reattivo, ideale per i gamer più competitivi


Il monitor UltraGear è progettato per offrire prestazioni gaming di livello superiore grazie alla risoluzione QHD (2.560 x 1.440), al tempo di risposta ultra-rapido di 0.03ms (GTG) e alla frequenza di aggiornamento di 280Hz. Grazie alle sue elevate prestazioni cromatiche, il monitor copre il 99,5% dello spazio colore DCI-P3, offrendo immagini vivide e realistiche. Inoltre, per garantire un maggiore comfort visivo, il monitor è caratterizzato da tecnologie avanzate che minimizzano l’emissione di luce blu più dannosa per la vista, riducendo in questo modo l’affaticamento degli occhi durante le sessioni di gioco più intense. Inoltre, il rivestimento Anti-Glare & Low Reflection riduce i riflessi al minimo, rendendo più semplice la visione di tutto quello che accade nello schermo anche in stanze molto luminose.
Questo monitor integra la funzione Dual Mode, che offre la possibilità di passare tra la modalità 4K a 165Hz per i giochi graficamente ricchi e la modalità FHD a 330HzQuesto monitor integra la funzione Dual Mode, che offre la possibilità di passare tra la modalità 4K a 165Hz per i giochi graficamente ricchi e la modalità FHD a 330Hz

UltraGear, una linea in continua espansione


Il nuovo monitor unisce perfettamente le prestazioni a un design elegante e minimalista. Il display Virtually Borderless su 4 lati e le cornici sottili aumentano il senso di immersività e risulta più funzionale anche per le configurazioni con due o tre monitor. Per completare la gamma, LG introduce sul mercato anche il modello 32GX850A, un monitor con schermo OLED di terza generazione con certificazione VESA DisplayHDR True Black 400 che garantisce un’esperienza di altissimo livello. Il display 4K da 32 pollici con refresh rate a 165Hz permette di vivere il gaming in modo nuovo, anche grazie alla presenza di HDMI 2.1 che consente di giocare con console next-gen o PC con le più recenti schede video. Come altri modelli della linea, questo monitor integra la funzione Dual Mode, che offre la possibilità di passare senza interruzioni tra la modalità 4K a 165Hz per i giochi graficamente ricchi e la modalità FHD a 330Hz per le azioni più frenetiche, consentendo di personalizzare la propria esperienza di gioco.

UltraGear, una linea in continua espansione


I monitor da gaming OLED LG UltraGear 27GX700A e 32GX850A sono disponibili nei negozi di elettronica di consumo fisici e online al prezzo rispettivamente di 899 euro e 999 euro.

Ghost: blog e newsletter italiane ha ricondiviso questo.

Steam Controller 2 ufficiale con switch meccanici, Hall Effect e trackpad aptico


Il nuovo controller di Valve per il 2026 unisce stick Hall Effect, trackpad HD Haptic e micro-switch meccanici per l'esperienza definitiva.
The media in this post is not displayed to visitors. To view it, please go to the original post.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Accanto all'annuncio di Steam Machine, Valve ha ufficialmente presentato il nuovo Steam Controller, un dispositivo che promette di correggere tutte le criticità del suo divisivo predecessore e di unificare l'esperienza di gioco su tutto l'ecosistema Steam. In arrivo a inizio 2026, il pad è stato riprogettato da zero per offrire il massimo della personalizzazione senza sacrificare l'ergonomia.

La novità più attesa è l'adozione di levette magnetiche TMR basate su sensori Hall Effect per garantire massima precisione e, soprattutto, eliminando alla radice il problema del "drifting".

I due iconici trackpad da 34,5 mm rimangono il cuore dell'esperienza, ma sono stati aggiornati con motori aptici LRA (Linear Resonant Actuators) per un feedback "ad alta definizione" (HD Haptic) e una migliore sensibilità alla pressione. Anche i pulsanti frontali (A/B/X/Y) e il D-pad abbandonano la membrana in favore di switch meccanici clicky, per un feeling più reattivo. Il design integra quattro pulsanti posteriori configurabili e introduce una nuova funzione chiamata Grip Sense: aree capacitive lungo l'impugnatura che attivano il giroscopio (IMU a 6 assi) semplicemente stringendo il controller, permettendo una mira di precisione immediata.

La connettività è stata ripensata per la versatilità. Nella confezione è incluso lo Steam Controller Puck, un innovativo accessorio magnetico che funge sia da trasmettitore wireless a 2.4 GHz (con una latenza dichiarata di 4ms) che da base di ricarica. Il controller supporta comunque anche il Bluetooth 5.3 e la connessione cablata USB-C. La batteria interna da 8.39 Wh promette oltre 35 ore di gioco.



Naturalmente, il controller è progettato per Steam Input, garantendo una personalizzazione totale e l'accesso immediato a migliaia di configurazioni della community.
Una caratteristica unica è la presenza di LED a infrarossi, che ne permettono il tracciamento da parte delle telecamere del nuovo visore Steam Frame, consentendo di utilizzare il gamepad tradizionale per giocare a titoli 2D su uno schermo virtuale in VR.


Ecco Steam Frame: il visore VR ibrido con Snapdragon 8 Gen 3 per streaming PC e standalone


Insieme all'annuncio di Steam Controller 2, Valve ha presentato lo Steam Frame, un visore per la realtà virtuale che promette di unificare l'intera libreria di Steam (sia VR che tradizionale) in un unico dispositivo ibrido con un lancio previsto per l'inizio del 2026.

Progettato per il comfort, il visore è leggero (440g totali) e bilanciato, grazie alla batteria ricaricabile da 21.6 Wh integrata nella fascia posteriore, eliminando cavi e configurazioni complesse.
La vera innovazione però risiede nella sua duplice natura. Da un lato, è un potente client di streaming: un adattatore wireless dedicato da 6 GHz (incluso) crea un collegamento a bassa latenza con il PC mentre il visore utilizza doppie antenne radio (una per lo streaming, una per il Wi-Fi) per garantire stabilità.

Per ottimizzare la qualità dello streaming, Valve introduce la trasmissione foveata: utilizzando i dati del tracciamento oculare interno (gestito da due telecamere), il sistema indirizza i pixel alla massima qualità solo dove l'occhio sta guardando, promettendo un miglioramento di 10 volte nella larghezza di banda effettiva.
L'ottica è altrettanto di alto livello, con lenti pancake personalizzate e due display LCD da 2160x2160 per occhio (fino a 144 Hz). L'audio è affidato a un sistema a doppio altoparlante stereo per lato, disposti in direzioni opposte per annullare le vibrazioni che potrebbero interferire con il tracciamento (gestito da quattro telecamere esterne).



Dall'altro lato, lo Steam Frame è un vero e proprio visore VR stand-alone basato su SteamOS: alimentato da un processore Snapdragon 8 Gen 3, 16 GB di RAM LPDDR5X e storage UFS (fino a 1 TB) espandibile via microSD, come Steam Deck sarà supportato da un programma di verifica "Steam Frame Verified" per i giochi (VR e non) che funzioneranno nativamente sul dispositivo.

I controller sono progettati con un design a gamepad diviso per passare agilmente tra VR e giochi 2D.
Oltre al tracciamento 6-DoF e capacitivo delle dita per la VR, includono tutti i comandi tradizionali: D-pad, ABXY, grilletti e, soprattutto, levette magnetiche (TMR) anti-drift. L'alimentazione è affidata a una singola batteria AA per controller, per un'autonomia di circa 40 ore.


Questa voce è stata modificata (6 mesi fa)
Ghost: blog e newsletter italiane ha ricondiviso questo.

Prusa CORE One L: stampa 3D a 200% del volume in formato compatto


Prusa lancia la versione "Large" della sua stampante CoreXY, con volume raddoppiato, un nuovo piano riscaldato e camera attiva a 60°C.
The media in this post is not displayed to visitors. To view it, please go to the original post.

Come promesso durante il lancio della Prusa CORE One, l'architettura CoreXY si dimostra "incredibilmente agile nei progetti futuri": durante il Prusa Day 2025, Josef Průša ha presentato ufficialmente la Prusa CORE One L, l'espansione di grande formato della famiglia.
youtube.com/embed/teAbKrSuBHA?…
La nuova stampante chiusa è pensata per ingegneri, maker e creator che necessitano di produrre prototipi di grandi dimensioni o caschi in un unico pezzo, senza dover tagliare i modelli.
La vera impresa nello sviluppo di questa macchina risiede nell'ottimizzazione dello spazio: la CORE One L è solo il 10% più grande della sorella minore, ma offre un volume di stampa superiore del 200% (circa 30 litri, 300x300x330 mm), rimanendo abbastanza compatta per una scrivania. Per raggiungere questo obiettivo, pur mantenendo il robusto esoscheletro in acciaio, Prusa ha riprogettato la macchina utilizzando pannelli laterali in alluminio leggero, risultando persino 0,5 kg più leggera del modello base.

La novità tecnica più rilevante è invece il nuovo piano riscaldato CA a convezione. Per risolvere il problema delle stampe di grande formato (deformazioni e angoli freddi), Prusa ha utilizzato un solido blocco di alluminio fuso e fresato con un sistema a doppio circuito. Questo garantisce un riscaldamento ultra-uniforme (variazione di temperatura inferiore a 2°C sul 99% della superficie). Inoltre, per la prima volta, la stampante utilizza due ventole poste sotto il piano per riscaldare attivamente la camera fino a 60°C tramite convezione forzata, un sistema che velocizza il riscaldamento dell'ambiente di stampa ed è ideale per materiali avanzati come ABS, ASA e policarbonato. La gestione termica è ora completamente automatizzata, con una presa d'aria superiore che si apre e chiude da sola a seconda del materiale selezionato (es. PLA).

Per garantire velocità di stampa elevate anche con materiali tecnici, la CORE One L viene fornita con un ugello Bondtech CHT ad alto flusso e un ugello resistente all'usura.
Come la sorella minore, la L è progettata per la massima affidabilità e precisione, introducendo la nuova funzione "Consistent Surfaces" in PrusaSlicer per ridurre i VFA (artefatti verticali) ed eliminare le strisce lucide/opache. A livello hardware, la gestione dell'alimentazione è stata resa più intelligente: la stampante analizza la forma d'onda della tensione per distinguere automaticamente tra reti a 110V e 230V, configurando il piano riscaldato per prestazioni costanti.

La One L è disponibile solo in versione assemblata e precalibrata di fabbrica e include una fotocamera 1080p e un corso Prusa Academy. La manutenzione è semplificata, con la possibilità di sostituire l'ugello in 30 secondi.

🍿 pic.twitter.com/HyRMewZC7g
— Josef Prusa (@josefprusa) August 26, 2025


Prusa ha posto forte accento sulla sicurezza, rendendo disponibile al lancio una Critical Infrastructure Edition con una scheda madre personalizzata priva di Wi-Fi, pensata per settori governativi o della difesa. L'ecosistema rimane aperto, ma con la garanzia di poter funzionare completamente offline.

La CORE One L è inoltre già predisposta per l'accessorio MMU3, che permetterà la stampa a cinque filamenti e sarà disponibile all'inizio del 2026. La produzione è già in corso e la stampante è disponibile all'acquisto sull'e-shop ufficiale a partire da 1699 euro.

Ghost: blog e newsletter italiane ha ricondiviso questo.

Al via la Pescasub dei 4 Mori


"Trofeo Fishing Time": parte da S’Arena Scoada una stagione da record per la pesca in apnea sarda.
The media in this post is not displayed to visitors. To view it, please go to the original post.

S’Arena Scoada, 26 ottobre – Si è aperta con il Trofeo Fishing Time una nuova stagione da record per la pesca in apnea sarda, che quest’anno vedrà ben nove gare in calendario. La manifestazione, organizzata dalla Sardinia Spearfishing del presidente Renzo Fadda, ha inaugurato il campionato di qualificazione regionale, richiamando 40 atleti provenienti da tutta la Sardegna nelle limpide acque di S’Arena Scoada.

La giornata è stata baciata dal sole e da condizioni meteo ideali: un vento da terra teso ma mai eccessivo e una discreta visibilità in acqua, hanno accompagnato i concorrenti lungo le quattro ore di gara in un campo classico, teatro di numerose competizioni del passato.
Francesco Piras, uno dei migliori atleti sardi col ricco carniere con cui ha vinto la prova di S'Arena Scoada.
Il tratto meridionale, caratterizzato da un fondale di grotto alto, ha offerto scenari spettacolari e piu redditizi, infatti si sono registrati i carnieri migliori, con splendidi saraghi e corvine protagonisti della giornata. Verso nord, invece, i fondali con grotto basso e maggiore presenza di posidonia hanno favorito le catture di tordi, rendendo la gara varia e avvincente fino all’ultimo minuto.

Curioso anche l’avvistamento di diverse cernie di grandi dimensioni, specie non catturabile in gara, che sembravano quasi consapevoli del proprio status, rimanendo immobili davanti ai sub in una scena insolita anche per i più esperti.
Il promettente Edoardo Delrio, sorsese, secondo classificato.
Terminata la competizione alle 12:30, atleti e giudici si sono ritrovati al ristorante “Entu e Sole”, dove, tra racconti di mare e convivialità, si è rinnovata la magia dello spirito sportivo che contraddistingue queste gare. Poi, come sempre, è stata la bilancia a riportare tutti all’adrenalina della classifica finale.

A conquistare il primo gradino del podio è stato Francesco Piras della Corallo Sub di Alghero, uno dei più forti agonisti sardi degli ultimi anni. Seconda posizione per il giovane e promettente Edoardo Delrio dell'Apnea Team Sassari, seguito dall’esperto Daniele Petrollini della Marinetta Genova, veterano della disciplina.

Con questo risultato, i tre atleti iniziano a mettere un importante tassello verso la classifica finale, in vista dei campionati italiani di qualificazione, che quest’anno si disputeranno proprio ad Alghero, offrendo ai sardi il vantaggio di giocare “in casa”.
Daniele Petrollini, esperto veterano del nord Sardegna.
Una partenza entusiasmante, dunque, per una stagione che si preannuncia ricca di sfide, passione e mare sardo al centro della scena.
Classifica

Questa voce è stata modificata (6 mesi fa)
Ghost: blog e newsletter italiane ha ricondiviso questo.

Rilasciato GPT-5.1, La Gigabay di SpaceX, Yann LeCun potrebbe lasciare Meta


I tuoi 5 minuti di aggiornamento mattutino.
The media in this post is not displayed to visitors. To view it, please go to the original post.

The media in this post is not displayed to visitors. To view it, please go to the original post.

La rassegna di oggi è gentilmente sponsorizzata da Ghost.

Buon giovedì,
ieri è stato rilasciato GPT-5.1 con qualche novità di cui parleremo. Poi vedremo il progetto "Gigabay" di Musk che dovrebbe permettere una produzione annuale impressionante di razzi Starship; parleremo di Yann LeCun, pioniere dell'IA e alla guida di Meta da dieci anni, che potrebbe lasciare il posto per aprire una startup, e tanto altro ancora. Buona lettura!

Podcast quotidiano


Con il commento di Amir Ati.

Il podcast quotidiano è disponibile solo per i supporter.

Notizie dal mondo


Le news di oggi, selezionate a mano.

OpenAI lancia GPT-5.1


Intelligenza Artificiale
OpenAI ha rilasciato GPT-5.1, un aggiornamento che renderebbe il chatbot più intelligente ed espressivo. Ha introdotto i modelli Instant e Thinking, migliorando risposte e comprensione. Sono state ampliate anche le opzioni di personalità e stili di conversazione. L'annuncio arriva dopo che GPT-5 aveva subito molte critiche portando OpenAI anche a reintrodurre il modello 4o.
~
Fonte: The Verge
Alternativa in italiano: 01net

Leggi tutto

Quali sono state le critiche verso GPT-5?

Il problema alla base è stato il troppo hype intorno al modello, che è stato anticipato come un "salto significativo verso l'AGI" quando a molti è sembrato semplicemente un'evoluzione piuttosto che una rivoluzione. Appena uscito ci sono stati problemi legati al poco controllo sulla scelta del modello e in tanti hanno criticato l'accondiscenza eccessiva nel modo di parlare.

Unisciti


I tuoi 5 minuti di notizie tech ogni giorno

Iscriviti
Email sent! Check your inbox to complete your signup.

No spam. Cancellati quando vuoi.

SpaceX produrrà Starship a un ritmo impressionante


Spazio
Elon Musk ha annunciato la costruzione della “Gigabay”, un impianto SpaceX da 250 milioni di dollari a Starbase, Texas, progettato per produrre fino a 1.000 razzi Starship all’anno. Alta 115 metri e tra le più grandi strutture industriali al mondo, ospiterà 24 aree di lavoro per l’assemblaggio e la manutenzione dei razzi, con gru da 400 tonnellate. Il completamento è previsto per il 2026 e trasformerà Starbase in un polo di produzione a vasta scala.
~
Fonte: Teslarati
Alternativa in italiano: Tutto Tech

Leggi tutto

GENTILMENTE SPONSORIZZATI DA


Ghost


Che tu voglia inviare una newsletter, pubblicare articoli, creare il tuo sito web o semplicemente avere un luogo dove scrivere, Ghost è la scelta giusta.

Morning Tech usa Ghost e il nostro sogno è quello di vederlo diffuso di più in Italia. Il team di sviluppatori è fantastico, la tecnologia è open-source, solida, sicura e velocissima.

La community mondiale è grande: Ghost viene utilizzato da famosi giornali indipendenti come 404 Media, Tangle e Platformer.

Con Morning Tech hai uno sconto del 10% su qualsiasi piano tu voglia sottoscrivere, dai un'occhiata 👇
Scopri ora

Yann LeCun potrebbe lasciare Meta per avviare una startup


Startup
Yann LeCun, premio Turing 2018, pioniere dell'IA e alla guida di Meta da oltre un decennio, sta esplorando l'idea di lasciare l'azienda per avviare una startup. Il suo progetto si concentrerebbe sui "world models", una tecnologia che serve ad addestrare i modelli orientata al raggiungimento della superintelligenza.
~
Fonte: The Wall Street Journal
Alternativa in italiano: Wired Italia

Leggi tutto

L'importanza dei world model

Questo è un altro dei temi fondamentali da seguire in questi anni. L'addestramento su dati come testo, audio e video non basta più — sia perché internet è stata praticamente completamente "crawlata", che perché i siti web si stanno chiudendo e proteggendo. I world model sono una sorta di "simulazione mentale", per intendersi, dove l'IA può sperimentare, sbagliare e comprendere l'effetto delle proprie azioni — un addestramento quindi più sul "come si vive" piuttosto che sull'elaborazione teorica di informazioni.

Chi è Yann LeCun?

Yann LeCun è un informatico francese considerato uno dei padri dell’intelligenza artificiale moderna. Professore alla New York University e capo scienziato per l’AI di Meta, è noto per aver sviluppato negli anni ’80 le reti neurali convoluzionali, oggi alla base di tecnologie come il riconoscimento facciale e la guida autonoma. Nel 2018 ha ricevuto il Turing Award, l’equivalente del Nobel per l’informatica, insieme a Geoffrey Hinton e Yoshua Bengio, per il lavoro pionieristico nel deep learning.

Cryptoqueen incarcerata per aver rubato 5 miliardi di sterline in Bitcoin


Legge
La donna cinese Qian Zhimin è stata condannata a 11 anni e 8 mesi nel Regno Unito per riciclaggio di denaro. Ha frodato circa 120.000 pensionati cinesi con una finta società di criptovalute e prodotti hi-tech, fuggendo poi a Londra. La polizia ha sequestrato miliardi di sterline in Bitcoin e le vittime sperano di recuperare parte dei fondi. Il video della cattura nell'articolo originale.
~
Fonte: BBC
Alternativa in italiano: non pervenuta

Leggi tutto

Gli investimenti in data center hanno superato quelli in petrolio


Big tech
Secondo un rapporto dell'International Energy Agency (IEA), la spesa per i data center raggiungerà 580 miliardi di dollari, superando quella per il petrolio di 40 miliardi. Il consumo di elettricità, spinto dall’IA, quintuplicherà entro il 2030, creando pressioni sulle infrastrutture elettriche, già congestionate e lente da potenziare. Metà della domanda arriverà dagli Stati Uniti, seguiti da Europa e Cina. Entro il 2035, la maggior parte dell’energia proverrà da fonti rinnovabili, con supporto di gas e mini-reattori nucleari.
~
Fonte: TechCrunch
Alternativa in italiano: non pervenuta

Leggi tutto

Letture interessanti


In lingua inglese.

Esclusivo: Altman e Masa sostengono il piano di un 27enne di costruire un nuovo Bell Labs Ultra


corememory.com (eng)

Lavoro, dopo il lavoro: appunti di un neolaureato disoccupato che osserva la crisi del mercato del lavoro


urlahmed.com (eng)

Semiconduttori: il settore più importante al mondo


crackthemarket.substack.com (eng)

Assunzioni e mercato dei limoni


danluu.com (eng)

Notizie veloci


In lingua inglese.

Google afferma che il nuovo "Private AI Compute" basato su cloud è sicuro quanto l'elaborazione locale


arstechnica.com (eng)

Una causa legale di Google accusa criminali informatici cinesi di phishing su larga scala tramite messaggi di testo


cbsnews.com (eng)

Gemini in Google Drive ora può creare gli "audio overviews" dei PDF


9to5google.com (eng)

Video del giorno

youtube.com/embed/Ul6_QPfoVHg?…

Apple si è arresa con l'IA


Questo video di ColdFusion spiega molto bene la situazione attuale di Apple e menziona tanti degli aspetti che ripetiamo assiduamente in MT quando si tratta di parlare dei ritardi e delle sfide impossibili che sta vivendo l'azienda di Cupertino.

Vedi video su youtube.com (eng - 13:09)

Unisciti


I tuoi 5 minuti di notizie tech ogni giorno

Iscriviti
Email sent! Check your inbox to complete your signup.

No spam. Cancellati quando vuoi.


La mia storia
Morning Tech non è solo un progetto editoriale. È il risultato di tentativi, passioni, errori e scoperte. In questa email ti porto un po’ dietro le quinte, tra le righe della mia storia.
Morning TechAmir Ati


I primi 10 mesi di Morning Tech
Leggo molti commenti sui social in cui vi rivolgete a Morning Tech usando il “voi”, ma la verità è che ci sono solo io dietro. Buon inizio di anno nuovo, ho iniziato a scrivere questo post il 30 dicembre e oggi, il 2 gennaio, lo sto ancora aggiustando. Com’è andata
Morning TechAmir Ati


Si può fare Morning Tech da soli?
Fino a prova contraria.
Morning TechAmir Ati


Come selezioniamo le notizie?

Ogni notizia crea migliaia di articoli speculativi. Morning Tech si occupa di trovare il fatto originale e di riportartelo con un riassunto e una narrativa imparziale. Tutte le fonti sono validate tramite bias-checker e risultano positive ai controlli di fact-checking degli ultimi cinque anni.

Che vuol dire essere indipendenti?

Morning Tech sopravvive anche grazie agli sponsor della newsletter ma questi non hanno alcuna influenza sulla selezione editoriale. Abbiamo deciso di dire no agli investitori in modo da mantenere una voce disinteressata e a servizio dell'informazione. Andiamo avanti grazie al tuo supporto. Fatti sentire.


OpenAI lancia GPT-5.1


In breve:


OpenAI ha rilasciato GPT-5.1, un aggiornamento che renderebbe il chatbot più intelligente ed espressivo. Ha introdotto i modelli Instant e Thinking, migliorando risposte e comprensione. Sono state ampliate anche le opzioni di personalità e stili di conversazione. L'annuncio arriva dopo che GPT-5 aveva subito molte critiche portando OpenAI anche a reintrodurre il modello 4o.

Riassunto completo:


  • OpenAI ha rilasciato GPT-5.1, descritto come un "aggiornamento" del modello di intelligenza artificiale GPT-5, che mira a rendere ChatGPT più intelligente e gradevole nell'interazione.
  • L'aggiornamento introduce due nuovi modelli: GPT-5.1 Instant, che è più intelligente e segue meglio le istruzioni, e GPT-5.1 Thinking, più facile da capire e veloce nei compiti semplici.
  • Questi nuovi modelli verranno distribuiti agli utenti di ChatGPT durante questa settimana; i precedenti modelli GPT-5 rimarranno disponibili per tre mesi.
  • OpenAI ha ampliato le preimpostazioni di personalità per il tono conversazionale di ChatGPT, includendo opzioni come Professionale, Amichevole, Cinico e Nerd.
  • Inoltre, l'azienda sta introducendo un "esperimento" per nuove modalità di personalizzazione dello stile di ChatGPT direttamente dalle impostazioni, accessibile ad alcuni utenti questa settimana.
  • Il lancio di GPT-5.1 segue le critiche a GPT-5, rilasciato ad agosto, che non aveva soddisfatto le aspettative degli utenti per i miglioramenti incrementali. OpenAI aveva persino reintrodotto GPT-4o.
  • Microsoft, partner strategico di OpenAI, ha iniziato a integrare modelli rivali di Anthropic in prodotti come Copilot Researcher e GitHub Copilot, dopo le prestazioni non sufficienti di GPT-5.
Quali sono state le critiche verso GPT-5?

Il problema alla base è stato il troppo hype intorno al modello, che è stato anticipato come un "salto significativo verso l'AGI" quando a molti è sembrato semplicemente un'evoluzione piuttosto che una rivoluzione. Appena uscito ci sono stati problemi legati al poco controllo sulla scelta del modello e in tanti hanno criticato l'accondiscenza eccessiva nel modo di parlare.

Questo testo è un riassunto del seguente articolo (eng):

OpenAI says the brand-new GPT-5.1 is ‘warmer’ and has more ‘personality’ options
You can now toggle between Default, Professional, Friendly, Candid, Quirky, Efficient, Nerdy, and Cynical.
The VergeHayden Field


Alternativa in italiano:

OpenAI lancia GPT-5.1: Instant più naturale, Thinking più efficiente
OpenAI presenta GPT-5.1: modelli Instant e Thinking più naturali, accurati e personalizzabili. ChatGPT diventa più intelligente e adattivo.
01netInserisci il tuo nome


Ghost: blog e newsletter italiane ha ricondiviso questo.

OpenAI lancia GPT-5.1


Ha più personalità.
The media in this post is not displayed to visitors. To view it, please go to the original post.

In breve:


OpenAI ha rilasciato GPT-5.1, un aggiornamento che renderebbe il chatbot più intelligente ed espressivo. Ha introdotto i modelli Instant e Thinking, migliorando risposte e comprensione. Sono state ampliate anche le opzioni di personalità e stili di conversazione. L'annuncio arriva dopo che GPT-5 aveva subito molte critiche portando OpenAI anche a reintrodurre il modello 4o.

Riassunto completo:


  • OpenAI ha rilasciato GPT-5.1, descritto come un "aggiornamento" del modello di intelligenza artificiale GPT-5, che mira a rendere ChatGPT più intelligente e gradevole nell'interazione.
  • L'aggiornamento introduce due nuovi modelli: GPT-5.1 Instant, che è più intelligente e segue meglio le istruzioni, e GPT-5.1 Thinking, più facile da capire e veloce nei compiti semplici.
  • Questi nuovi modelli verranno distribuiti agli utenti di ChatGPT durante questa settimana; i precedenti modelli GPT-5 rimarranno disponibili per tre mesi.
  • OpenAI ha ampliato le preimpostazioni di personalità per il tono conversazionale di ChatGPT, includendo opzioni come Professionale, Amichevole, Cinico e Nerd.
  • Inoltre, l'azienda sta introducendo un "esperimento" per nuove modalità di personalizzazione dello stile di ChatGPT direttamente dalle impostazioni, accessibile ad alcuni utenti questa settimana.
  • Il lancio di GPT-5.1 segue le critiche a GPT-5, rilasciato ad agosto, che non aveva soddisfatto le aspettative degli utenti per i miglioramenti incrementali. OpenAI aveva persino reintrodotto GPT-4o.
  • Microsoft, partner strategico di OpenAI, ha iniziato a integrare modelli rivali di Anthropic in prodotti come Copilot Researcher e GitHub Copilot, dopo le prestazioni non sufficienti di GPT-5.

Quali sono state le critiche verso GPT-5?

Il problema alla base è stato il troppo hype intorno al modello, che è stato anticipato come un "salto significativo verso l'AGI" quando a molti è sembrato semplicemente un'evoluzione piuttosto che una rivoluzione. Appena uscito ci sono stati problemi legati al poco controllo sulla scelta del modello e in tanti hanno criticato l'accondiscenza eccessiva nel modo di parlare.

Questo testo è un riassunto del seguente articolo (eng):

OpenAI says the brand-new GPT-5.1 is ‘warmer’ and has more ‘personality’ options
You can now toggle between Default, Professional, Friendly, Candid, Quirky, Efficient, Nerdy, and Cynical.
The VergeHayden Field


Alternativa in italiano:

OpenAI lancia GPT-5.1: Instant più naturale, Thinking più efficiente
OpenAI presenta GPT-5.1: modelli Instant e Thinking più naturali, accurati e personalizzabili. ChatGPT diventa più intelligente e adattivo.
01netInserisci il tuo nome

Ghost: blog e newsletter italiane ha ricondiviso questo.

SpaceX produrrà Starship a un ritmo impressionante


Si tratta di 1.000 Starship all'anno.
The media in this post is not displayed to visitors. To view it, please go to the original post.

In breve:


Elon Musk ha annunciato la costruzione della “Gigabay”, un impianto SpaceX da 250 milioni di dollari a Starbase, Texas, progettato per produrre fino a 1.000 razzi Starship all’anno. Alta 115 metri e tra le più grandi strutture industriali al mondo, ospiterà 24 aree di lavoro per l’assemblaggio e la manutenzione dei razzi, con gru da 400 tonnellate. Il completamento è previsto per il 2026 e trasformerà Starbase in un polo di produzione a vasta scala.

Riassunto completo:


  • Elon Musk ha annunciato la costruzione della “Gigabay”, un nuovo impianto SpaceX da 250 milioni di dollari a Starbase, Texas, destinato a produrre fino a 1.000 razzi Starship all’anno.
  • La struttura sarà alta circa 115 metri e conterrà oltre 46 milioni di piedi cubi di spazio interno, rendendola uno dei più grandi edifici industriali al mondo.
  • Al suo interno ci saranno 24 aree di lavoro dedicate all’assemblaggio e alla manutenzione di Starship e Super Heavy, dotate di gru in grado di sollevare 400 tonnellate.
  • Quattro gru a torre sono già state installate e il completamento del cantiere è previsto per dicembre 2026.
  • L’obiettivo è trasformare Starbase da semplice sito di test a vero polo di produzione in grado di sostenere un ritmo di lanci molto più elevato.
  • Starship è il razzo pesante riutilizzabile di SpaceX, capace di trasportare fino a 150 tonnellate in orbita bassa e fino a 250 in modalità usa e getta.
  • Per Musk, Starship è un “razzo colonizzatore di pianeti” e rappresenta il passo fondamentale verso basi permanenti sulla Luna e su Marte.

Questo testo è un riassunto del seguente articolo (eng):

SpaceX’s next project will produce Starships at a level that sounds impossible
1,000 rockets per year is an insane number, especially considering Starship’s sheer size.
TESLARATISimon Alvarez


Alternativa in italiano:

SpaceX prepara la Gigabay, un complesso per costruire fino a 1.000 Starship all’anno
Elon Musk ha annunciato l’inizio dei lavori per la costruzione di Gigabay, un enorme impianto di produzione targato SpaceX
TuttoTech.netFrancesco Primerano

Ghost: blog e newsletter italiane ha ricondiviso questo.

Gli investimenti in data center hanno superato quelli in petrolio


Un altro segno che stiamo accedendo a una nuova era.
The media in this post is not displayed to visitors. To view it, please go to the original post.

In breve:


Secondo un rapporto dell'International Energy Agency (IEA), la spesa per i data center raggiungerà 580 miliardi di dollari, superando quella per il petrolio di 40 miliardi. Il consumo di elettricità, spinto dall’IA, quintuplicherà entro il 2030, creando pressioni sulle infrastrutture elettriche, già congestionate e lente da potenziare. Metà della domanda arriverà dagli Stati Uniti, seguiti da Europa e Cina. Entro il 2035, la maggior parte dell’energia proverrà da fonti rinnovabili, con supporto di gas e mini-reattori nucleari.

Riassunto completo:


  • Quest'anno, la spesa globale per i data center raggiungerà i 580 miliardi di dollari, superando l'investimento di 540 miliardi di dollari nelle nuove forniture di petrolio.
  • L'International Energy Agency (IEA) prevede che il consumo di elettricità dei data center per intelligenza artificiale aumenterà di cinque volte entro la fine del decennio, raddoppiando il consumo totale attuale di tutti i data center.
  • Circa la metà di questa crescita della domanda energetica si concentrerà negli Stati Uniti, con il resto principalmente in Europa e Cina, e la maggior parte dei nuovi data center è in fase di sviluppo in grandi aree urbane.
  • La rapida espansione dei data center sta creando sfide per le infrastrutture elettriche, tra cui la congestione della rete e lunghe code per le connessioni, che possono durare fino a dieci anni in alcune regioni.
  • La catena di approvvigionamento per l'aggiornamento della rete, che include componenti critici come cavi, minerali e trasformatori, presenta strozzature che stanno ritardando gli interventi.
  • Aziende come Amperesand e Heron Power stanno sviluppando trasformatori a stato solido per modernizzare la rete elettrica, ma le prime implementazioni su vasta scala richiederanno ancora tempo.
  • L'IEA stima che entro il 2035 le energie rinnovabili forniranno la maggior parte dell'elettricità per i nuovi data center, con circa 400 terawatt-ore, seguite dal gas naturale e potenzialmente dai piccoli reattori nucleari modulari.

Questo testo è un riassunto del seguente articolo (eng):

Data centers now attract more investment than finding new oil supplies | TechCrunch
In a shift, the world will spend $40 billion more on new data centers this year than it will on finding new sources of oil.
TechCrunchTim De Chant


Alternativa in italiano: non pervenuta

Ghost: blog e newsletter italiane ha ricondiviso questo.

Yann LeCun potrebbe lasciare Meta per avviare una startup


Una delle menti più importanti nel settore IA.
The media in this post is not displayed to visitors. To view it, please go to the original post.

In breve:


Yann LeCun, premio Turing 2018, pioniere dell'IA e alla guida di Meta da oltre un decennio, sta esplorando l'idea di lasciare l'azienda per avviare una startup. Il suo progetto si concentrerebbe sui "world models", una tecnologia che serve ad addestrare i modelli orientata al raggiungimento della superintelligenza.

Riassunto completo:


  • Yann LeCun, pioniere dell'intelligenza artificiale e vincitore del Turing Award, ha discusso con collaboratori e investitori la possibilità di lasciare Meta, dove ha guidato la ricerca sull'intelligenza artificiale per oltre dieci anni, per lanciare una propria startup.
  • La startup di LeCun si concentrerebbe sullo sviluppo di "world models", un approccio all'intelligenza artificiale differente dai Large Language Models (LLMs) che Meta sta perseguendo per raggiungere la superintelligenza.
  • Questo scenario segnerebbe la fine dell'era di LeCun alla guida di FAIR, la divisione di ricerca sull'intelligenza artificiale a lungo termine di Meta che lui stesso aveva fondato nel 2013, e che ha visto le risorse diminuire.
  • Meta ha recentemente riorganizzato i suoi sforzi sull'intelligenza artificiale, acquisendo il 49% di Scale AI per 14 miliardi di dollari e affidando la direzione dei progetti IA ad Alexandr Wang, CEO della startup.
  • In seguito a questa riorganizzazione, LeCun, 65 anni, si è trovato a riportare ad Alexandr Wang, 28 anni, e Meta ha tagliato circa 600 posti di lavoro nella sua divisione di intelligenza artificiale, inclusi alcuni in FAIR.
  • LeCun è diventato uno scettico riguardo alla capacità dei Large Language Models di portare alla superintelligenza, definendoli "più stupidi di un gatto" e promuovendo l'approccio dei "world models" ispirati all'apprendimento infantile.
  • Nonostante FAIR abbia prodotto il primo modello open-source di Meta, Llama, nel 2023 sotto la guida di LeCun, le versioni successive sono state sviluppate da un altro team e solo uno dei 14 ricercatori originali del progetto Llama lavora ancora in Meta.

L'importanza dei world model

Questo è un altro dei temi fondamentali da seguire in questi anni. L'addestramento su dati come testo, audio e video non basta più — sia perché internet è stata praticamente completamente "crawlata", che perché i siti web si stanno chiudendo e proteggendo. I world model sono una sorta di "simulazione mentale", per intendersi, dove l'IA può sperimentare, sbagliare e comprendere l'effetto delle proprie azioni — un addestramento quindi più sul "come si vive" piuttosto che sull'elaborazione teorica di informazioni.

Chi è Yann LeCun?

Yann LeCun è un informatico francese considerato uno dei padri dell’intelligenza artificiale moderna. Professore alla New York University e capo scienziato per l’AI di Meta, è noto per aver sviluppato negli anni ’80 le reti neurali convoluzionali, oggi alla base di tecnologie come il riconoscimento facciale e la guida autonoma. Nel 2018 ha ricevuto il Turing Award, l’equivalente del Nobel per l’informatica, insieme a Geoffrey Hinton e Yoshua Bengio, per il lavoro pionieristico nel deep learning.

Questo testo è un riassunto del seguente articolo (eng): The Wall Street Journal

Alternativa in italiano:

Cervelli in fuga da Meta, Yann LeCun ha deciso di fondare una sua startup sulle nuove architetture AI
Il responsabile della ricerca AI del colosso di Menlo Park e pioniere nella ricerca sul deep learning sarebbe già in trattative per raccogliere fondi. La decisione dopo la riorganizzazione interna voluta da Zuckerberg per rincorrere OpenAI
Wired ItaliaRiccardo Piccolo

Ghost: blog e newsletter italiane ha ricondiviso questo.

Cryptoqueen incarcerata per aver rubato 5 miliardi di sterline in Bitcoin


Ha frodato circa 120.000 pensionati cinesi.
The media in this post is not displayed to visitors. To view it, please go to the original post.

In breve:


La donna cinese Qian Zhimin è stata condannata a 11 anni e 8 mesi nel Regno Unito per riciclaggio di denaro. Ha frodato circa 120.000 pensionati cinesi con una finta società di criptovalute e prodotti hi-tech, fuggendo poi a Londra. La polizia ha sequestrato miliardi di sterline in Bitcoin e le vittime sperano di recuperare parte dei fondi. Il video della cattura nell'articolo originale.

Riassunto completo:


  • Qian Zhimin, donna cinese, è stata condannata a 11 anni e 8 mesi di reclusione nel Regno Unito per riciclaggio di denaro.
  • È accusata di aver frodato circa 120.000 pensionati in Cina attraverso la sua società Lantian Gerui, che prometteva investimenti in criptovalute e prodotti tecnologici.
  • L'azienda avrebbe in realtà operato uno schema Ponzi, sottraendo oltre 40 miliardi di yuan (4,2 miliardi di sterline) dai suoi investitori.
  • Dopo l'avvio di un'indagine in Cina nel 2017, Qian Zhimin è fuggita nel Regno Unito con un passaporto falso, stabilendosi in una lussuosa dimora a Hampstead.
  • La Metropolitan Police ha arrestato Qian Zhimin e sequestrato ingenti quantità di Bitcoin, valutate miliardi di sterline, in quella che è considerata una delle più grandi confische di criptovalute nella storia del Regno Unito.
  • Un processo civile sui "proventi del crimine" deciderà la sorte delle criptovalute sequestrate, con migliaia di vittime cinesi che cercano di recuperare i propri investimenti.
  • Il caso ha avuto gravi ripercussioni personali per molti investitori, causando perdite finanziarie, divorzi e, in alcuni casi, l'incapacità di accedere a cure mediche.

Questo testo è un riassunto del seguente articolo (eng):

Cryptoqueen who fled China for London mansion jailed over £5bn Bitcoin stash
Qian Zhimin bought cryptocurrency using funds stolen from thousands of Chinese pensioners, say police.
BBC News


Alternativa in italiano: non pervenuta

Ghost: blog e newsletter italiane ha ricondiviso questo.

Solo il 16,6% degli italiani ha competenze finanziarie minime: 7 podcast per iniziare a capirci qualcosa


In un’Italia in cui parlare di soldi è ancora un tabù, nel mese dell’educazione finanziaria, Podcastiamo racconta come (e perché) i podcast possono essere la nuova palestra di educazione finanziaria
The media in this post is not displayed to visitors. To view it, please go to the original post.


C’è un momento preciso in cui molti italiani si rendono conto di non sapere nulla di soldi. Può succedere davanti a un mutuo, alla prima busta paga o semplicemente guardando il conto corrente a fine mese e chiedendosi: “Ma dove sono finiti?”. Quel senso di smarrimento e inadeguatezza ha radici profonde: in Italia, parlare di soldi è ancora oggi un tabù. Non se ne parla a scuola, dove l’educazione finanziaria è quasi assente, né in famiglia, dove la gestione economica resta spesso un argomento scomodo. Il punto è che l’educazione economica e la cultura finanziaria sono ancora troppo distanti dalla quotidianità e il risultato è sotto gli occhi di tutti: secondo i dati OCSE-INFE 2023, solo il 16,6% degli italiani possiede competenze finanziarie minime accettabili. Anche l’indagine più recente della Banca d’Italia sull’alfabetizzazione finanziaria conferma questo triste trend: il punteggio medio di è di 10,6 su 20, tra i più bassi d’Europa. Eppure, proprio dove mancano linguaggi accessibili e spazi di confronto, i podcast possono fare da ponte: uno strumento leggero, diretto e sempre più scelto per avvicinarsi a temi complessi come risparmio, investimenti o gestione delle spese.
black Android smartphonePhoto by Kelly Sikkema / Unsplash

La finanza raccontata come una storia e non come una lezione


Sempre più persone stanno scoprendo che si possono acquisire competenze finanziarie ascoltando: mentre si va al lavoro, si cucina o si cammina. Secondo alcuni dati recenti, i podcast di economia e finanza sono seguiti oggi da circa 1 ascoltatore su 5 (20%) e rappresentano uno dei settori in più rapida crescita. Dimenticate i grafici boriosi, le tabelle incomprensibili e il linguaggio accademico, solo voci reali che raccontano come gestire il proprio denaro partendo dalle esperienze quotidiane, dallo stipendio che non basta alle prime scelte di investimento. La curiosità sta sorpassando la paura di “non capire” anche grazie ad alcune caratteristiche che rendono il formato podcast perfetto per abbattere questo tabù: è intimo, non giudicante, e permette di imparare senza sentirsi esposti.

“L’Italia ha un problema culturale più che tecnico: il denaro è ancora vissuto come un argomento privato, non come una competenza da sviluppare - sottolinea Constantijn Vereecken di Podcastiamo - il formato audio, invece, abbatte le barriere: permette di imparare ascoltando, senza sentirsi giudicati o fuori posto. È per questo che i podcast stanno diventando la nuova aula di alfabetizzazione economica, accessibile per tutti”.



Screenshot dall'App Podcastiamo

7 podcast italiani per capire (bene) la finanza


Novembre, mese dell’educazione finanziaria, è il momento giusto per iniziare a “investire” nella propria cultura imprenditoriale. Ecco sette podcast italiani che secondo Podcastiamo rendono l’educazione finanziaria più accessibile e, alle volte, anche divertente. Niente lezioni frontali, solo storie, errori condivisi e consigli pratici per prendere decisioni più consapevoli un episodio alla volta:

  1. Squattrinati: storie reali di chi parte da zero e impara a gestire il denaro con realismo e ironia. Ogni puntata affronta il rapporto con i soldi nella vita quotidiana, dagli errori comuni alle piccole conquiste economiche, mostrando che la finanza personale può essere alla portata di tutti.
  2. Pecunia: spiega la finanza personale in modo diretto e chiaro. Dalla gestione del risparmio agli investimenti, ogni episodio offre strumenti pratici per comprendere meglio il valore del denaro e migliorare la propria autonomia economica, senza tecnicismi.
  3. The Bull - il podcast di finanza personale: spaziando dai mercati alla finanza e all’attualità economica, il podcast aiuta a orientarsi tra notizie globali e scelte quotidiane, spiegando in modo semplice come funzionano le dinamiche finanziarie e quali strategie possono aiutare a prendere decisioni più consapevoli.
  4. Storie di economia e finanza: racconto divulgativo che collega i grandi temi dell’economia alla vita di tutti i giorni. Attraverso esempi concreti e un linguaggio chiaro, spiega concetti come inflazione, tassi di interesse e crescita economica, trasformando la finanza in una storia comprensibile per chiunque.
  5. Educati e finanziati: progetto dedicato a diffondere la cultura economica in modo pratico e applicabile. Ogni episodio offre consigli, strategie e strumenti utili per imparare a gestire le proprie risorse, con un linguaggio adatto a chi si avvicina per la prima volta al mondo della finanza personale.
  6. Grano: racconta il denaro attraverso le scelte economiche quotidiane. Dalla busta paga agli investimenti, dagli stipendi all’inflazione, ogni episodio affronta temi di attualità finanziaria con uno stile diretto e comprensibile, trasformando la finanza in un dialogo tra persone.
  7. Finanza personale in 5 minuti: ogni episodio offre spunti concreti e informazioni utili per migliorare le proprie abitudini economiche, capire come funzionano risparmi e investimenti e gestire in modo più consapevole le scelte finanziarie di ogni giorno.
Ghost: blog e newsletter italiane ha ricondiviso questo.

Igfa e Tommy Gifford Awards


The media in this post is not displayed to visitors. To view it, please go to the original post.

Il 30 ottobre 2025 ci siamo recati a Fort Lauderdale, in Florida, per rendere omaggio ai vincitori dell'edizione di quest'anno dei Tommy Gifford Awards dell'International Game Fishing Association (IGFA): i capitani, le guide e i membri dell'equipaggio che hanno plasmato il nostro sport e lasciato un segno indelebile non solo nell'attività di pesca in mare di oggi, ma anche nel suo futuro.

“I Tommy Gifford Awards rendono omaggio ai visionari che hanno ridefinito la pesca sportiva grazie alla loro ingegnosità, passione e abilità senza pari”, ha affermato Jason Schratwieser, presidente dell'IGFA. “Questi capitani e membri dell'equipaggio sono la colonna portante del nostro sport e la loro eredità è fonte di ispirazione per i pescatori di tutto il mondo”.

È un sentimento perfettamente rappresentato da ciascuno dei meritevoli vincitori di quest'anno: il costruttore di barche della Carolina del Nord Capitano John Bayliss; il mentore internazionale Capitano Billy Borer; il pioniere della pesca del trevally gigante in superficie Capitano Barry Cross; il pioniere della pesca a vista del branzino striato Capitano Paul Dixton; il detentore del record e maestro della pesca al pesce spada Capitano Gene Grimes; e il celebre specialista hawaiano del marlin Capitano Kevin Nakamura.

Ecco i cinque motivi per cui gli IGFA Tommy Gifford Awards sono uno degli eventi terrestri preferiti da Strike dell'anno:

Rendono omaggio a un eroe di Strike

Lavorando a Miami e Bimini per diventare probabilmente il più grande skipper di charter in acque salate di tutti i tempi, il capitano Tommy Gifford ha svelato il segreto delle specie trofeo che avevano lasciato perplessi i pescatori per decenni, e la sua abilità nel leggere le condizioni dell'oceano e il comportamento dei pesci lo ha reso il primo riferimento per gli sportivi seri, tra cui lo scrittore Ernest Hemingway. Il suo approccio ai sistemi di pesca ha stabilito standard che resistono ancora oggi: ad esempio, è stato un pioniere nell'uso degli outrigger e il primo a catturare un marlin blu dell'Atlantico con queste innovazioni all'avanguardia. Sebbene sia morto nel 1970, questi premi onorano un'eredità che ha trasformato la pesca d'altura in un'attività legittima di cui oggi siamo tutti appassionati.

Sono assegnati dai migliori ai migliori

Proprio come le calzature Strike sono realizzate da pescatori per pescatori, ogni vincitore del Tommy Gifford Award viene selezionato dai nomi più rispettati di questo sport. Questo approccio “dalla comunità, per la comunità” crea fiducia e legittimità sia in Strike che nei TG Awards, soprattutto considerando che il Legendary Captains & Crews Committee dell'IGFA, un panel esclusivo composto dai grandi nomi della pesca d'altura di oggi, è alla guida del processo di selezione.

Mettono in evidenza le più grandi innovazioni della pesca in mare

Questi premi sono un'occasione per applaudire i geni che si dedicano al perseguimento dei più grandi progressi tecnologici e creativi nel nostro sport, una passione che riversiamo anche nelle nostre tecnologie calzaturiere e nelle nostre innovazioni in termini di prestazioni. Questo è particolarmente vero quest'anno. Le tattiche rivoluzionarie del capitano australiano Barry Cross, ad esempio, hanno influenzato il modo in cui il mondo pesca il GT e il marlin con attrezzatura leggera, mentre l'approccio all'avanguardia del capitano John Bayliss alla costruzione di barche ha innalzato il livello delle prestazioni in alcuni dei tornei più prestigiosi d'America.

Celebriamo i mentori più ispiratori del nostro sport

Mentre la nostra attenzione verso soluzioni tessili più sostenibili è guidata dall'impegno a proteggere i nostri oceani per le generazioni future, molti dei vincitori di quest'anno hanno lavorato instancabilmente per fornire ai futuri pescatori le competenze e le conoscenze necessarie per godersi il nostro sport anche negli anni a venire. Nessuno incarna meglio questo spirito nella selezione di quest'anno del capitano Billy Borer, il cui amore per la condivisione gratuita delle sue conoscenze con i membri dell'equipaggio ha contribuito a lanciare la carriera di molti dei migliori capitani di charter di oggi.

Promuovono il lavoro fondamentale dell'Igfa

Non sorprende che siamo immensamente orgogliosi di essere stati selezionati come partner ufficiali dell'IGFA per le calzature. E mai come ora, quando il nostro reciproco rispetto per le acque e le specie che le popolano viene messo in evidenza in occasione di eventi come questo. Qualsiasi opportunità di stimolare un dibattito nei media e nella comunità su una pesca più responsabile e stimolante è sempre degna di essere celebrata.

strike-footwear.com

Questa voce è stata modificata (6 mesi fa)
Ghost: blog e newsletter italiane ha ricondiviso questo.

Trump ha promesso la pace a Gaza. Ma la sua amministrazione non ci crede


Un retroscena rivela i dubbi dei funzionari statunitensi sull’effettiva implementazione dell’accordo di Sharm. Tra le altre notizie: due attacchi in India e in Pakistan, il blocco dei siti porno in Italia, e i fischietti stampati in 3D contro l’ICE

Alcuni funzionari dell’amministrazione Trump II sono sempre più scettici sulla tenuta dell’accordo di “pace” tra Israele e Hamas, e temono che potrebbe crollare da un momento all’altro. Lo rivela un retroscena di POLITICO, che ha potuto visionare documenti presentati durante un summit tra membri dell’esercito e del nuovo Centro di coordinamento civile-militare, che dovrebbe supervisionare la situazione a Gaza. Per spiegare lo scetticismo e i timori del personale statunitense: in una delle diapositive viste da POLITICO, titolata “Come passiamo dalla fase 1 alla fase 2?”, erano elencati i punti da implementare nelle rispettive fasi dell’accordo di Sharm. Le due colonne erano collegate da una freccia con sopra un punto interrogativo. Non è chiaro chi abbia preparato i documenti: pubblicamente il dipartimento di Stato sostiene che ci sia grande entusiasmo per il piano, ma a porte chiuse i funzionari dicono quello che è evidente anche agli osservatori esterni — che nella migliore delle ipotesi c’è il rischio che l’accordo si impaludi, e nella peggiore che crolli in modo catastrofico. In un’altra slide si indica che la politica deve essere quella del “non fare domande e non dare risposte,” e che per la riuscita dell’accordo bisognava usare “le istituzioni dell’Autorità palestinese,” ma “senza leadership politica.” Uno dei partecipanti al simposio chiosa: “Il piano di attuazione concreta dell'accordo di pace è separato dall'accordo stesso. Tutti volano a 40.000 piedi di altezza” 12 chilometri, “e nessuno parla di operazioni o tattiche,” confermando che in realtà, finora, il dipartimento di Stato statunitense non ha ancora effettivamente avuto voce in capitolo nell’implementazione dell’accordo. (POLITICO)

This post is for subscribers only


Become a member to get access to all content
Subscribe now

Ghost: blog e newsletter italiane ha ricondiviso questo.

Compressione di modelli Transformer: guida completa a pruning, quantizzazione e distillazione


Scopri le tecniche più efficaci per comprimere modelli di machine learning: pruning, quantizzazione, knowledge distillation e altro. Guida completa con esempi pratici, vantaggi e trade-off per ottimizzare latenza, memoria e throughput in produzione.
The media in this post is not displayed to visitors. To view it, please go to the original post.

Tabella dei Contenuti


Nel mondo della Data Science, l’attenzione è quasi interamente focalizzata sul miglioramento dell’accuratezza del modello, relegando l’efficienza a una preoccupazione secondaria.

Tuttavia, quando un algoritmo esce dall'ambiente di prototipazione ed entra nell'ambiente di produzione per rispondere in tempo reale alle richieste degli utenti, le sue dimensioni e la ridotta velocità d'esecuzione si trasformano rapidamente in problemi concreti di performance.

Per affrontare questo divario tra accuratezza ed efficienza, la compressione dei modelli è emersa come una disciplina fondamentale: l'obiettivo è ridurre il numero di parametri e i requisiti computazionali senza sacrificare significativamente le prestazioni.

Questo articolo si propone come una guida pratica e approfondita per bilanciare accuratezza ed efficienza nell'intelligenza artificiale in produzione, esplorando le metriche di runtime essenziali che affiancano l'accuratezza.

🎙️
Riassumendo, l'articolo si concentrerà in particolare nel fornire al lettore una guida pratica, dalla teoria all'implementazione, delle quattro principali tecniche di compressione:

- Knowledge Distillation (Distillazione della Conoscenza)
- Pruning (Potatura)
- Low-Rank Factorization (Fattorizzazione a Basso Rango)
- Quantization (Quantizzazione)

Iniziamo.

Motivazioni per la model compression


Nel campo del Machine Learning c’è una continua corsa a costruire modelli sempre più profondi: architetture con milioni di parametri promettono prestazioni di punta nei benchmark. Purtroppo, la maggior parte delle competizioni online tende a premiare la massima precisione e a trascurare aspetti come peso del modello, tempi di risposta e costi di deployment.

In ambienti reali, invece, un algoritmo deve rispondere velocemente e con un uso ragionevole di memoria e potenza di calcolo. Questo cambiamento di prospettiva rende evidente che spesso un modello "troppo accurato" è anche inutilizzabile se rende il sistema lento o troppo costoso da mantenere.

Quando un sistema va in produzione deve rispettare vincoli hardware e fornire risposte in tempi ragionevoli. Latenza, throughput e footprint in memoria diventano parametri altrettanto importanti rispetto alla sola accuratezza.

Vedremo a breve nel dettaglio come questi indicatori siano importanti nel definire una strategia di ottimizzazione dei nostri sistemi.

Ad esempio, per un assistente vocale o un sistema di raccomandazione bisogna garantire risposte quasi istantanee - l’utente non accetterà mai di aspettare secondi, o addirittura minuti, per una predizione.

Oltre alla soddisfazione dell’utente, l’efficienza incide direttamente sui costi infrastrutturali. Model compression significa poter gestire più richieste con lo stesso hardware oppure usare hardware più economico.

Nei sistemi distribuiti, modelli più piccoli si replicano facilmente su più server e permettono di scalare in modo elastico con il traffico. Su dispositivi edge o mobili, ridurre dimensioni e consumo energetico è indispensabile affinché l’IA funzioni offline.

Metriche operative da considerare in produzione


Il processo di valutazione per un algoritmo di machine learning in generale, è volto a valutare se l'algoritmo è adatto al mondo reale, deve prendere in considerazione indicatori che non sono rivolti solo all'accuratezza del modello in accezione generale ma deve valutare anche altri aspetti che hanno un forte impatto in termini di fruibilità del servizio.

Tra gli indicatori più importanti troviamo:

  • Latenza in inferenza
  • Throughput
  • Dimensione del modello


Latenza in inferenza


La latenza è il tempo impiegato da un modello per ricevere un input, elaborarlo e produrre l’output. In un’analisi quantitativa, la latenza può essere scomposta in due componenti:

  • Il tempo necessario per eseguire le operazioni aritmetiche \(T_{\text{compute}}\)
  • Il tempo per trasferire i dati dalla memoria al processore \(T_{\text{memory}}\)

La formula spesso utilizzata per stimare la latenza è latency = max(T_memory, T_compute). Ridurre la dimensione delle matrici di pesi o usare rappresentazioni a precisione ridotta riduce sia il numero di operazioni che la quantità di dati da trasferire, migliorando direttamente la latenza

Throughput


Il throughput misura quante predizioni al secondo un modello è in grado di servire. A differenza della latenza, il throughput dipende dal numero di richieste simultanee e dall’efficienza con cui vengono eseguite in batch.

Riducendo la complessità del modello possiamo elaborare più richieste contemporaneamente, aumentando il numero di inferenze per unità di tempo

Dimensione del modello


Il footprint in memoria è la quantità di memoria necessaria per caricare e far girare un modello. Questa grandezza è determinata principalmente dal numero di parametri e dal tipo di dato utilizzato per rappresentarli.

Ad esempio, se tutti i pesi vengono rappresentati con variabili a 32 bit (float32), l’occupazione di memoria sarà quadrupla rispetto a una rappresentazione a 8 bit. La compressione agisce su questo fronte riducendo il numero di parametri o diminuendo il numero di bit necessari per rappresentarli

🙋
In breve:

- Latenza: tempo end-to-end per completare una singola inferenza (tipico: ms), dal dato in ingresso all’output del modello.

- Throughput: numero di inferenze completate per unità di tempo (tipico: esempi/s), dipende da batch size, parallelismo e I/O.

- Footprint in memoria: quantità di RAM/VRAM occupata da modello, pesi, attivazioni, buffer e runtime durante training/inferenza (picco rilevante).

Caso studio reale: "Netflix Prize"


La storia del Netflix Prize è un monito fondamentale nel mondo della Data Science. Nel 2006, Netflix lanciò una competizione pubblica con un premio di un milione di dollari per chi fosse riuscito a migliorare del 10% il suo algoritmo di raccomandazione. Sebbene un team abbia raggiunto l'obiettivo vincendo il premio nel 2009, quel modello non fu mai utilizzato in produzione.

Il motivo? Non la scarsa accuratezza, ma l'eccessiva complessità. Netflix dichiarò che i lievi guadagni in precisione non giustificavano lo sforzo di ingegnerizzazione richiesto per l'implementazione. Il modello vincente era troppo oneroso e lento per essere eseguito in tempo reale su milioni di utenti, rendendo il sistema insostenibilmente costoso.

Netflix scelse una soluzione più semplice ed efficiente, dimostrando che, in un ambiente di produzione reale, una piccola perdita di accuratezza può essere un compromesso accettabile a fronte di grandi risparmi in termini di costi e latenza.

💡
La storia del Netflix Prize insegna che una leggera perdita di precisione può essere più che compensata da una riduzione della complessità. In produzione è spesso preferibile un modello più leggero che risponda rapidamente e sia facile da mantenere, anche a costo di qualche punto percentuale di accuratezza.

Tecniche di compressione dei modelli


La compressione dei modelli comprende diverse tecniche che hanno l’obiettivo di ridurre dimensioni e complessità computazionale di un algoritmo senza comprometterne (troppo) la capacità predittiva. I benefici attesi sono molteplici: diminuzione della latenza, diminuzione del consumo di memoria, maggiore facilità di scalare il servizio e, in alcuni casi, anche una miglior generalizzazione. Le quattro strategie più diffuse sono:

  • Knowledge Distillation
  • Pruning
  • Low-Rank Factorization
  • Quantization


Knowledge Distillation


La distillazione della conoscenza è una tecnica introdotta da Hinton et al. per trasferire le competenze di un modello grande (teacher) in un modello più piccolo (student). Il modello studente viene addestrato non solo sui dati originali ma anche sulle soft probabilities emesse dal teacher, l’obiettivo è imitare la distribuzione delle probabilità del maestro e quindi riprodurne il comportamento. La distillazione può essere applicata a classificazione, regressione e persino a modelli generativi.
Generico approccio Teacher-Student per Knowledge Distillation. [source]
Un esempio emblematico è DistilBERT, versione compressa di BERT per il linguaggio naturale. Secondo un’analisi recente di Zilliz (settembre 2024), DistilBERT mantiene circa il 97 % della capacità di comprensione del linguaggio di BERT, pur essendo più piccolo del 40 % e più veloce del 60 % nelle operazioni di inferenza. Su dispositivi mobili, l’inferenza risulta addirittura più rapida del 71 %. Questi risultati mostrano come un modello distillato possa offrire un ottimo compromesso tra accuratezza e velocità.

Quindi nella pratica che cos'è la "Distillazione della Conscenza"? Il termine può essere scomposto come segue:

  • Conoscenza (Knowledge): In questo contesto, si riferisce alla comprensione, agli insight e alle informazioni che un modello di machine learning ha acquisito durante l'addestramento. Questa "conoscenza" è tipicamente rappresentata dai parametri del modello, dai pattern appresi e dalla sua capacità di fare previsioni.
  • Distillazione (Distillation): Significa trasferire o condensare questa conoscenza da un modello all'altro. Questo processo prevede di addestrare il modello student affinché ne mimi il comportamento del modello teacher, trasferendo così efficacemente gli insight appresi.

Si tratta essenzialmente di un processo in due fasi:

  1. Si addestra il modello grande (ad esempio, un'architettura complessa e lenta) in modo standard. Questo è il modello "teacher" (maestro).
  2. Si addestra un modello più piccolo e leggero, destinato a imitare il comportamento del modello più grande. Questo è il modello "student" (studente).

L'obiettivo principale della distillazione della conoscenza è proprio trasferire gli insight appresi dal teacher allo student. Ciò consente al modello student di raggiungere prestazioni paragonabili con un numero drasticamente inferiore di parametri e una ridotta complessità computazionale.

Il concetto ha un senso intuitivo: proprio come in un contesto accademico, il modello student potrebbe non eguagliare perfettamente le prestazioni del teacher, ma con un addestramento coerente, è possibile creare un modello più piccolo che sia quasi altrettanto performante del suo omologo più grande, ma molto più efficiente in produzione.

Pruning


La Potatura (Pruning) è una tecnica di compressione che consiste nell’eliminare (azzerare) pesi, neuroni o interi filter che contribuiscono in misura marginale alla capacità predittiva del modello. L'obiettivo è creare una rete più snella e veloce sfruttando la naturale "sovraparametrizzazione" dei modelli di deep learning.
Connessioni e neuroni prima e dopo il pruning. [source]
Le strategie principali si differenziano in base all'elemento che viene rimosso:

1. Pruning Non Strutturato (o Weight Pruning)


Questa è la forma più granulare: si rimuovono i singoli collegamenti (pesi) il cui valore assoluto è molto vicino allo zero, considerandoli ridondanti.

  • Vantaggi: Offre la massima compressione in termini di parametri. Se i pesi residui sono memorizzati come matrici sparse, si riduce notevolmente lo spazio di memoria richiesto.
  • Nota: Ricerche come quella di Han et al. dimostrano che cicli iterativi di addestramento e potatura possono eliminare una parte significativa delle connessioni mantenendo quasi inalterata l'accuratezza. Tuttavia, per ottenere un reale guadagno in velocità di inferenza, è spesso necessario un hardware specializzato che acceleri le operazioni sulle matrici sparse.


2. Pruning Strutturato (o Unit Pruning)


Questa strategia rimuove intere unità funzionali (neuroni, canali di convoluzione o strati completi). La topologia della rete viene modificata, riducendo drasticamente il numero di operazioni di moltiplicazione e accumulazione.

  • Vantaggi: Ha un impatto maggiore sulla dimensione del modello e, crucialmente, velocizza la rete sui device standard poiché elimina la necessità di eseguire calcoli inutili.
  • Sfida: La rimozione è più aggressiva. Richiede cautela nel selezionare le unità da eliminare, basandosi su metriche di importanza specifiche per evitare un degrado significativo dell'accuratezza.


Altre Strategie


Esistono varianti che affinano la selezione degli elementi da potare:

  • Pruning basato sull’Attivazione: Analizza le attivazioni dei neuroni sui dati di training e rimuove quelli che rimangono costantemente "spenti" (o inattivi), individuando efficacemente le ridondanze a livello di neurone.
  • Pruning basato sulla Ridondanza: Identifica e rimuove neuroni che, pur essendo attivi, mostrano risposte eccessivamente simili all'interno dello stesso strato, suggerendo una duplicazione della funzione.

L’approccio di potatura non è un’azione isolata. Se combinato con altre tecniche come la Quantizzazione, si possono ottenere risultati impressionanti:

  • Un pruning intelligente su AlexNet ha ridotto il modello di 9 volte, rendendolo circa 3 volte più veloce. Abbinandolo alla quantizzazione, la riduzione totale ha raggiunto un fattore di 35 volte.
  • Su VGG16, il solo pruning ha comportato una riduzione di 13 volte, che è salita a ben 49 volte con l'aggiunta della quantizzazione.

Questi risultati dimostrano che la potatura è uno strumento potente per la miniaturizzazione dei modelli e, in combinazione, può sbloccare livelli di efficienza cruciali per l'implementazione in edge computing e su larga scala.

Low-Rank Factorization


Molte reti neurali, in particolare i modelli complessi, utilizzano grandi matrici di pesi che sono spesso sovraparametrizzate, implicando che gran parte della loro informazione (o rango effettivo) è ridondante. La Fattorizzazione a Basso Rango è una tecnica che sfrutta questo concetto per comprimere il modello, approssimando la matrice di peso originale con il prodotto di due o più matrici più piccole.

Questa operazione si basa sul principio che non tutte le "direzioni" nello spazio dei pesi sono essenziali per rappresentare le trasformazioni apprese. Di conseguenza, la matrice originale può essere approssimata da una matrice con un rango inferiore (k) senza una significativa perdita d’informazione.

Tecniche classiche come la Scomposizione a Valori Singolari (SVD) o la decomposizione di Tucker scompongono la grande matrice di peso W nei suoi fattori (U,S,V). Scegliendo attentamente il rango k (il numero di valori singolari da mantenere), si ottiene un preciso compromesso tra la riduzione dei parametri e la fedeltà del modello compresso.

Una matrice dei pesi W, di dimensioni m × n e rango r, può essere decomposta in matrici più piccole utilizzando la decomposizione ai valori singolari (SVD), come illustrato nella figura seguente.
Low Rank Factorization. [source]
Secondo diverse panoramiche sulle tecniche di compressione, l'applicazione della Fattorizzazione a Basso Rango può portare a una riduzione del modello e a un miglioramento della velocità di inferenza del 30-50% sugli strati densi (Fully Connected).

Tuttavia, è importante notare che la decomposizione introduce un costo computazionale aggiuntivo durante l’addestramento (o il fine-tuning post-decomposizione) e che il rango ottimale deve essere individuato empiricamente per ogni architettura specifica.

Quantization


La Quantizzazione è una tecnica fondamentale che riduce la precisione numerica utilizzata per rappresentare sia i pesi che le attivazioni del modello. Tipicamente, i pesi di un modello vengono addestrati e memorizzati in virgola mobile a 32 bit (FP32); la quantizzazione mira a ridurli a formati a bassa precisione, come 16 bit (FP16), 8 bit (INT8) o, in alcuni casi estremi, a 4 o persino 1 bit.
Un esempio di quantizzazione da un float a 32 bit a un intero a 8 bit. [source]
Questa mappatura da FP32 a interi a bassa precisione comprime notevolmente i valori e, di conseguenza, la memoria utilizzata. Il vantaggio cruciale è che i processori e l'hardware specializzato (come le unità AI) possono eseguire le operazioni su dati a precisione ridotta in modo significativamente più rapido ed efficiente, abbattendo i tempi di inferenza.

Le due modalità principali per implementare la quantizzazione sono:

1. Quantizzazione Post-Training (PTQ)


In questa modalità, il modello viene prima addestrato interamente a precisione piena (FP32). Solo in un secondo momento, dopo l'addestramento, i pesi vengono convertiti alla precisione inferiore (ad esempio, INT8).

  • Pro: È la più rapida da implementare, non richiede tempo aggiuntivo di training.
  • Contro: Nonostante i miglioramenti in velocità e riduzione della memoria, la conversione a posteriori può causare una perdita di accuratezza (o precisione) dovuta agli errori di arrotondamento.


2. Quantizzazione Consapevole dell'Addestramento (Quantization-Aware Training - QAT)


In questo approccio, la logica della quantizzazione viene simulata durante l'intero processo di training o fine-tuning. Il modello impara quindi ad adattarsi alle limitazioni di precisione che saranno presenti in produzione.

  • Pro: Offre modelli più accurati rispetto alla PTQ, poiché il modello si addestra già tenendo conto degli effetti dell'arrotondamento.
  • Contro: Richiede un tempo di training aggiuntivo per simulare e integrare il processo di quantizzazione.

La combinazione della quantizzazione con il pruning ha dimostrato un'efficacia straordinaria: ad esempio, il binomio pruning + quantization su AlexNet ha ridotto la dimensione del modello di ben 35 volte, mentre su VGG16 la riduzione ha raggiunto un impressionante fattore di 49 volte, rendendo questi modelli utilizzabili in scenari edge o a bassissimo consumo energetico.

Implementazione Pratica delle Tecniche di Compressione


Questa sezione presenta l'implementazione dettagliata delle quattro principali tecniche di compressione dei modelli utilizzando PyTorch e il dataset MNIST come caso di studio. Ogni tecnica viene illustrata con codice funzionale, spiegazioni approfondite e risultati quantitativi.

Setup Iniziale


Prima di iniziare con le tecniche di compressione, è necessario preparare l'ambiente e caricare il dataset. Il setup include l'importazione delle librerie necessarie e la configurazione dei dataloader:

import sys
import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
import torchvision.transforms as transforms
import torch.nn.functional as F
import numpy as np
import pandas as pd
from time import time
from tqdm import tqdm
from torch.utils.data import DataLoader

Il dataset MNIST viene caricato con normalizzazione appropriata. I valori di normalizzazione (0.1307, 0.3081) rappresentano rispettivamente la media e la deviazione standard del dataset MNIST:
transform = transforms.Compose([
    transforms.ToTensor(), 
    transforms.Normalize((0.1307,), (0.3081,))
])

trainset = torchvision.datasets.MNIST(root='./data', train=True, 
                                      download=True, transform=transform)
trainloader = DataLoader(trainset, batch_size=64, shuffle=True)

testset = torchvision.datasets.MNIST(root='./data', train=False, 
                                     download=True, transform=transform)
testloader = DataLoader(testset, batch_size=64, shuffle=False)

Definiamo una funzione di valutazione che sarà riutilizzata per tutte le tecniche:
def evaluate(model):
    model.eval()
    correct = 0
    total = 0
    with torch.no_grad():
        for data in testloader:
            inputs, labels = data
            outputs = model(inputs)
            _, predicted = torch.max(outputs.data, 1)
            total += labels.size(0)
            correct += (predicted == labels).sum().item()
    return correct / total

Knowledge Distillation


La distillazione della conoscenza è una tecnica elegante che permette di trasferire le capacità di un modello complesso (teacher) a uno più leggero (student) attraverso l'imitazione delle distribuzioni di probabilità. Invece di imparare solo dalle etichette corrette (hard labels), lo student impara dalle "soft probabilities" del teacher, che contengono informazioni più ricche sulle relazioni tra le classi.

Architettura del Teacher Model


Il teacher è un modello convoluzionale con circa 70.000 parametri che include strati di convoluzione, pooling e fully connected:

class TeacherNet(nn.Module):
    def __init__(self):
        super(TeacherNet, self).__init__()
        self.conv1 = nn.Conv2d(1, 32, 5)  # 32 filtri convoluzionali 5x5
        self.pool = nn.MaxPool2d(5, 5)     # Max pooling 5x5
        self.fc1 = nn.Linear(32 * 4 * 4, 128)  # Layer fully connected
        self.fc2 = nn.Linear(128, 10)           # Output layer (10 classi)

    def forward(self, x):
        x = F.relu(self.conv1(x))
        x = self.pool(x)
        x = x.view(x.size(0), -1)
        x = F.relu(self.fc1(x))
        x = self.fc2(x)
        return x

Il training del teacher segue l'approccio standard di classificazione con cross-entropy loss:
teacher_model = TeacherNet()
teacher_optimizer = optim.Adam(teacher_model.parameters(), lr=0.001)
teacher_criterion = nn.CrossEntropyLoss()

for epoch in range(5):
    teacher_model.train()
    running_loss = 0.0
    
    for data in trainloader:
        inputs, labels = data
        teacher_optimizer.zero_grad()
        outputs = teacher_model(inputs)
        loss = teacher_criterion(outputs, labels)
        loss.backward()
        teacher_optimizer.step()
        running_loss += loss.item()
        
    teacher_accuracy = evaluate(teacher_model)
    print(f"Epoch {epoch + 1}, Loss: {running_loss / len(trainloader)}, "
          f"Accuracy: {teacher_accuracy * 100:.2f}%")

Il teacher model raggiunge rapidamente un'accuratezza elevata, attestandosi al 98.79% dopo 5 epoche.
Architettura dello Student Model


Lo student utilizza esclusivamente layer fully connected, eliminando completamente gli strati convoluzionali. Questa scelta architetturale riduce drasticamente sia il numero di parametri che la complessità computazionale:

class StudentNet(nn.Module):
    def __init__(self):
        super(StudentNet, self).__init__()
        self.fc1 = nn.Linear(28 * 28, 128)  # Input diretto dalle immagini appiattite
        self.fc2 = nn.Linear(128, 10)        # Output layer

    def forward(self, x):
        x = x.view(x.size(0), -1)  # Appiattisce l'immagine 28x28 in vettore 784
        x = F.relu(self.fc1(x))
        x = self.fc2(x)
        return x
Training con Knowledge Distillation


La funzione di loss è il cuore della distillazione. Utilizza la divergenza di Kullback-Leibler (KL) per misurare quanto le distribuzioni di probabilità dello student divergono da quelle del teacher. La KL divergence penalizza lo student quando le sue predizioni si allontanano da quelle del teacher:

def knowledge_distillation_loss(student_logits, teacher_logits):
    p_teacher = F.softmax(teacher_logits, dim=1)      # Probabilità teacher
    p_student = F.log_softmax(student_logits, dim=1)  # Log-probabilità student
    loss = F.kl_div(p_student, p_teacher, reduction='batchmean')
    return loss

Il processo di training dello student è diverso dal training standard. Non usiamo le etichette vere, ma le predizioni del teacher:
student_model = StudentNet()
student_optimizer = optim.Adam(student_model.parameters(), lr=0.001)

for epoch in range(5):
    student_model.train()
    running_loss = 0.0
    
    for data in trainloader:
        inputs, labels = data
        student_optimizer.zero_grad()
        student_logits = student_model(inputs)
        # Detach per evitare backpropagation attraverso il teacher
        teacher_logits = teacher_model(inputs).detach()
        loss = knowledge_distillation_loss(student_logits, teacher_logits)
        loss.backward()
        student_optimizer.step()
        running_loss += loss.item()
    
    student_accuracy = evaluate(student_model)
    print(f"Epoch {epoch + 1}, Loss: {running_loss / len(testloader)}, "
          f"Accuracy: {student_accuracy * 100:.2f}%")
Risultati e Confronto


I risultati dimostrano l'efficacia della distillazione:

  • Teacher Model: 98.79% accuratezza, tempo di inferenza 729 ms ± 21.4 ms
  • Student Model: 96.33% accuratezza, tempo di inferenza 627 ms ± 16.9 ms

Lo student mantiene il 97.5% delle performance del teacher con un'architettura molto più semplice e un'inferenza circa 14% più veloce. Questo dimostra che la conoscenza implicita nelle soft probabilities è molto più informativa delle semplici etichette binarie.

Pruning (Potatura)


Il pruning sfrutta il fatto che molte reti neurali sono sovraparametrizzate: gran parte dei loro pesi contribuiscono marginalmente alla capacità predittiva. Eliminando questi pesi ridondanti, possiamo ottenere modelli più compatti senza perdite significative di accuratezza.

Modello Base


Utilizziamo una rete fully connected con quattro layer per un totale di 566,528 parametri di peso:

class SimpleNet(nn.Module):
    def __init__(self):
        super(SimpleNet, self).__init__()
        self.fc1 = nn.Linear(28 * 28, 512)   # 401,920 parametri
        self.fc2 = nn.Linear(512, 256)       # 131,072 parametri
        self.fc3 = nn.Linear(256, 128)       # 32,768 parametri
        self.fc4 = nn.Linear(128, 10)        # 1,280 parametri

    def forward(self, x):
        x = x.view(x.size(0), -1)
        x = torch.relu(self.fc1(x))
        x = torch.relu(self.fc2(x))
        x = torch.relu(self.fc3(x))
        x = self.fc4(x)
        return x

Training standard del modello con Adam optimizer e cross-entropy loss:
net = SimpleNet()
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(net.parameters(), lr=0.001)

for epoch in range(5):
    running_loss = 0.0
    net.train()
    for data in trainloader:
        inputs, labels = data
        optimizer.zero_grad()
        outputs = net(inputs.view(-1, 28*28))
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()
    running_loss += loss.item()
    accuracy = evaluate(net)
    print(f"Epoch {epoch + 1}, Loss: {running_loss / len(trainloader)}, "
          f"Accuracy: {accuracy * 100:.2f}%")

torch.save(net, "net.pt")
Definizione della Soglia e Applicazione del Pruning


Il zero-pruning elimina tutti i pesi il cui valore assoluto è inferiore a una soglia λ. Per trovare il valore ottimale, esploriamo un range di soglie e misuriamo l'impatto su accuratezza e sparsità:

thresholds = np.linspace(0, 0.1, 11)  # 11 valori da 0.0 a 0.1
results = []
total_params = np.sum([param.numel() for name, param in net.named_parameters() 
                       if 'weight' in name])

for threshold in tqdm(thresholds):
    # Applica zero pruning: azzera pesi sotto soglia
    for name, param in net.named_parameters():
        if 'weight' in name:
            param.data[torch.abs(param.data) < threshold] = 0
            
    # Conta parametri azzerati
    zero_params = np.sum([torch.sum(param == 0).item() 
                         for name, param in net.named_parameters() 
                         if 'weight' in name])
    
    accuracy = evaluate(net)
    results.append([threshold, accuracy, total_params, zero_params])

results_df = pd.DataFrame(results, 
                         columns=["Threshold", "Accuracy", "Original Params", "Zero Params"])
results_df["Zero percentage"] = 100 * results_df["Zero Params"] / results_df["Original Params"]

I risultati mostrano chiaramente il trade-off tra compressione e accuratezza:
ThresholdAccuracyOriginal ParamsZero ParamsZero percentage
0.0096.34%566,52800.00%
0.0196.28%566,528120,37121.25%
0.0296.53%566,528238,15742.04%
0.0396.73%566,528346,54661.17%
0.0494.79%566,528422,96274.66%
0.0588.04%566,528465,20382.11%
0.0684.00%566,528488,37186.20%
0.0782.91%566,528504,69989.09%
0.0881.99%566,528517,32191.31%
0.0974.04%566,528527,21593.06%
0.1067.62%566,528534,92994.42%

La tabella rivela un punto ottimale intorno alla soglia 0.03: eliminiamo il 61% dei parametri con un miglioramento dell'accuratezza (da 96.34% a 96.73%). Questo fenomeno di miglioramento è dovuto alla regolarizzazione implicita del pruning, che riduce l'overfitting.

Selezione della Soglia Ottimale e Conversione Sparse


Basandoci sui risultati, selezioniamo threshold=0.03 e convertiamo il modello in formato sparse per ottenere reali benefici in memoria:

threshold = 0.03
net = torch.load('net.pt')

# Applica pruning con soglia ottimale
for name, param in net.named_parameters():
    if 'weight' in name:
        param.data[torch.abs(param.data) < threshold] = 0
Rappresentazione come Matrice Sparse
import scipy.sparse as sp

sparse_weights = []

# Conversione a formato CSR (Compressed Sparse Row)
for name, param in net.named_parameters():
    if 'weight' in name:
        np_weight = param.data.cpu().numpy()
        sparse_weights.append(sp.csr_matrix(np_weight))

Dimensione prima del pruning:
total_size = 0

for name, param in net.named_parameters():
    if 'weight' in name:
        tensor = param.data
        total_size += tensor.element_size() * tensor.numel()
        
tensor_size_mb = total_size / (1024**2)
print(f"Dimensione prima del pruning: {tensor_size_mb:.2f} MB")
# Output: 2.16 MB

Dimensione dopo il pruning (formato sparse):
total_size = 0

for w in sparse_weights:
    total_size += w.data.nbytes
    
csr_size_mb = total_size / (1024**2)
print(f"Dimensione dopo il pruning: {csr_size_mb:.2f} MB")
# Output: 0.84 MB

La compressione ottenuta è notevole: da 2.16 MB a 0.84 MB, una riduzione del 61% che corrisponde esattamente alla percentuale di parametri eliminati. Questo dimostra l'efficacia della rappresentazione sparse nel tradurre la sparsità logica in risparmio di memoria reale.

Low-Rank Factorization


La fattorizzazione a basso rango sfrutta il principio che molte matrici di pesi nelle reti neurali hanno un rango effettivo molto inferiore alle loro dimensioni nominali. Decomponendo una matrice W (m×n) in un prodotto di matrici più piccole, possiamo ridurre drasticamente il numero di parametri.

Setup e Architettura


Utilizziamo lo stesso modello SimpleNet con quattro layer fully connected:

class SimpleNet(nn.Module):
    def __init__(self):
        super(SimpleNet, self).__init__()
        self.fc1 = nn.Linear(28 * 28, 512)
        self.fc2 = nn.Linear(512, 256)
        self.fc3 = nn.Linear(256, 128)
        self.fc4 = nn.Linear(128, 10)

    def forward(self, x):
        x = x.view(x.size(0), -1)
        x = torch.relu(self.fc1(x))
        x = torch.relu(self.fc2(x))
        x = torch.relu(self.fc3(x))
        x = self.fc4(x)
        return x

net = SimpleNet()
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(net.parameters(), lr=0.001)

for epoch in range(5):
    net.train()
    running_loss = 0.0
    for data in trainloader:
        inputs, labels = data
        optimizer.zero_grad()
        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()
        running_loss += loss.item()
    accuracy = evaluate(net)
    print(f"Epoch {epoch + 1}, Loss: {running_loss / len(trainloader)}, "
          f"Accuracy: {accuracy * 100:.2f}%")
Funzione per il Calcolo delle Operazioni Minime


La moltiplicazione di matrici a catena può essere eseguita in ordini diversi, producendo costi computazionali differenti. Questa funzione ricorsiva calcola il numero minimo di operazioni:

def MatrixChainOrder(p, i, j):
    """
    Calcola il numero minimo di moltiplicazioni scalari necessarie
    per moltiplicare una catena di matrici.
    
    p: lista delle dimensioni [d0, d1, ..., dn] dove la matrice i ha dimensioni p[i-1] x p[i]
    i, j: indici della sottosequenza da considerare
    """
    if i == j:
        return 0
    
    _min = sys.maxsize
    
    # Prova tutte le possibili parentesizzazioni
    for k in range(i, j):
        count = (MatrixChainOrder(p, i, k) + 
                MatrixChainOrder(p, k + 1, j) + 
                p[i-1] * p[k] * p[j])
        
        if count < _min:
            _min = count
    
    return _min

source
Applicazione della Fattorizzazione attraverso Diversi Rank


Applichiamo la SVD (Singular Value Decomposition) al terzo layer (fc3) con dimensioni 128×256, esplorando diversi valori di rank:

rank_values = [128, 100, 90, 80, 60, 50, 40, 30, 20, 10, 5, 2, 1]
results = []
original_total_params = 128 * 256  # 32,768 parametri originali
batch_size = 32

# Decomposizione SVD del layer fc3
# W = U × S × V^T dove U (128×128), S (128×256 diagonale), V (256×256)
U, S, V = torch.svd(net.fc3.weight)

for rank in tqdm(rank_values):
    # Troncamento alle prime 'rank' componenti singolari
    U_low_rank = U[:, :rank]           # 128 × rank
    S_low_rank = torch.diag(S[:rank])  # rank × rank
    V_low_rank = V[:, :rank]           # 256 × rank

    # Ricostruzione: W ≈ U_r × S_r × V_r^T
    factorized_weight_matrix = torch.mm(U_low_rank, 
                                       torch.mm(S_low_rank, V_low_rank.t()))
    
    # Sostituzione dei pesi del layer
    net.fc3.weight = nn.Parameter(factorized_weight_matrix)
    
    # Calcolo operazioni per: [batch_size] × [256×rank] × [rank×rank] × [rank×128]
    weight_list = [batch_size, 256, rank, rank, 128]
    
    if rank == 128:
        # Matrice completa: nessuna fattorizzazione
        total_operations = batch_size * 256 * 128
    else:
        # Trova l'ordine ottimale di moltiplicazione
        total_operations = MatrixChainOrder(weight_list, 1, 4)

    # Valutazione con 7 run per stabilità statistica
    accuracies = 0
    total_time = 0
    for _ in range(7):
        start = time()
        accuracies += evaluate(net)    
        total_time += time() - start
    
    # Parametri totali: U (128×rank) + S (rank×rank) + V (256×rank)
    new_total_params = 128*rank + rank**2 + rank*256
    
    results.append([rank, 100*accuracies/7, original_total_params, 
                   new_total_params, total_operations, total_time/7])

results_df = pd.DataFrame(results, 
                         columns=["Rank", "Accuracy", "Original Params", 
                                 "New Params", "Operations", "Inference Time"])

I risultati mostrano il trade-off tra riduzione dei parametri e mantenimento dell'accuratezza:
RankAccuracyOriginal ParamsNew ParamsOperationsInference Time
12897.24%32,76865,5361,048,5761.27s
10097.24%32,76848,4001,548,8001.35s
9097.26%32,76842,6601,365,1201.41s
8097.26%32,76837,1201,187,8401.44s
6097.26%32,76826,640852,4801.41s
5097.23%32,76821,700694,4001.43s
4097.25%32,76816,960542,7201.50s
3097.23%32,76812,420397,4401.54s
2097.16%32,7688,080258,5601.57s
1097.24%32,7683,940126,0801.52s
580.23%32,7681,94562,2401.82s
234.73%32,76877224,7041.59s
119.08%32,76838512,3201.58s

La tabella rivela pattern interessanti:

  • Rank 60-100: Accuratezza praticamente identica al modello originale (~97.25%) con riduzione dei parametri del 18-48%
  • Rank 20-40: Perdita minima di accuratezza (<0.1%) con riduzione del 62-75%
  • Rank 10: Ancora 97.24% di accuratezza con solo 3,940 parametri (riduzione dell'88%)
  • Rank <10: Crollo drastico dell'accuratezza, indicando che il rango intrinseco della matrice è intorno a 10

Un aspetto controintuitivo è l'aumento dei parametri per rank=128 (da 32,768 a 65,536). Questo accade perché stiamo memorizzando tre matrici separate invece di una sola, senza alcun beneficio di compressione.

Quantization


La quantizzazione è la tecnica più immediata da implementare e offre benefici garantiti in termini di riduzione della memoria. Converte i pesi da rappresentazioni in virgola mobile a precisione piena (float32, 4 bytes) a rappresentazioni a precisione ridotta (int8, 1 byte).

Quantizzazione Dinamica Post-Training


PyTorch offre utility integrate che rendono la quantizzazione estremamente semplice:

# Quantizzazione del modello addestrato a int8
quantized_model = torch.quantization.quantize_dynamic(
    net,                    # Modello originale
    {torch.nn.Linear},      # Tipi di layer da quantizzare
    dtype=torch.qint8       # Tipo di dato target (int8)
)

# Valutazione immediata senza riaddestramento
quantized_accuracy = evaluate(quantized_model)
print(f"Quantized Model Accuracy: {quantized_accuracy * 100:.2f}%")
# Output: 97.24%
Vantaggi della Quantizzazione


La quantizzazione dinamica post-training offre diversi vantaggi:

  1. Semplicità: Una singola chiamata di funzione, nessun riaddestramento necessario
  2. Riduzione garantita: 4x riduzione teorica della dimensione (float32 → int8)
  3. Accuratezza preservata: Nel nostro caso, 97.24% identico al modello originale
  4. Accelerazione hardware: Su processori con supporto int8, le operazioni sono significativamente più veloci

La quantizzazione è particolarmente efficace quando combinata con altre tecniche. Ad esempio, applicando prima il pruning e poi la quantizzazione sui pesi rimanenti, si possono ottenere fattori di compressione superiori a 35x mantenendo accuratezza accettabile.

Confronto e considerazioni Finali


Ogni tecnica offre caratteristiche e trade-off specifici che la rendono più o meno adatta a scenari diversi:

Knowledge Distillation

  • Riduzione dell'accuratezza: ~2.5% (da 98.79% a 96.33%)
  • Accelerazione: ~14% più veloce
  • Ideale per: Trasferire conoscenza da ensemble o modelli molto grandi a architetture deployment-friendly

Pruning (soglia 0.03)

  • Riduzione parametri: 61%
  • Riduzione memoria: 61% (2.16 MB → 0.84 MB)
  • Accuratezza: 96.73% (miglioramento rispetto all'originale)
  • Ideale per: Modelli fully connected, deployment su dispositivi con memoria limitata

Low-Rank Factorization (rank 60)

  • Riduzione parametri: 18.7% (32,768 → 26,640 per il layer fc3)
  • Accuratezza: 97.26% (praticamente identica)
  • Ideale per: Layer densi specifici, controllo granulare della compressione

Quantization

  • Riduzione memoria: 4x teorica (float32 → int8)
  • Accuratezza: 97.24% (preservata completamente)
  • Ideale per: Implementazione rapida, deployment su hardware con accelerazione int8

La scelta della tecnica dipende dai vincoli specifici dell'applicazione: latenza target, memoria disponibile, accuratezza minima richiesta e capacità hardware. In scenari reali, la combinazione di più tecniche (ad esempio pruning + quantization) può sbloccare fattori di compressione molto superiori a quelli ottenibili con approcci singoli.

Questa voce è stata modificata (6 mesi fa)
Ghost: blog e newsletter italiane ha ricondiviso questo.

SoftBank vende tutte le azioni Nvidia, iPhone Air in ritardo, I profitti di Anthropic


I tuoi 5 minuti di aggiornamento mattutino.
The media in this post is not displayed to visitors. To view it, please go to the original post.

The media in this post is not displayed to visitors. To view it, please go to the original post.

La rassegna di oggi è gentilmente sponsorizzata da Ghost.

Buon mercoledì,
in un colpo di scena, ieri SoftBank, il gigante giapponese di Masayoshi Son, ha venduto tutte le sue azioni Nvidia. Poi vedremo i ritardi della prossima versione di iPhone Air e un articolo interessante del Wall Street Journal che afferma che Anthropic andrà in profit molto prima di OpenAI, ma noi cercheremo di approfondire perché questo non è un problema. Buona lettura!

Podcast quotidiano


Con il commento di Amir Ati.

Il podcast quotidiano è disponibile solo per i supporter.

Notizie dal mondo


Le news di oggi, selezionate a mano.

SoftBank ha venduto tutte le sue azioni di Nvidia


Finanza
Masayoshi Son, fondatore di SoftBank, ha venduto l'intera partecipazione di 5,8 miliardi di dollari (32,1 milioni di azioni) in Nvidia per raccogliere capitale e finanziare OpenAI per 22,5 miliardi di dollari, oltre che un hub di produzione in Arizona. La decisione ha fatto scendere le azioni Nvidia, ma è vista come una mossa strategica per i piani di SoftBank.
~
Fonte: TechCrunch
Alternativa in italiano: Startmag

Leggi tutto

Le scommesse di Son

Nel 2000 decise di investire 20 milioni di dollari in Alibaba, che in seguito ha raggiunto un valore di 150 miliardi di dollari, recuperando le perdite subite dopo il crollo della bolla dot-com. Non tutte le sue decisioni sono state vincenti; l'investimento in WeWork, ad esempio, ha causato a SoftBank perdite per 11,5 miliardi di dollari in capitale e 2,2 miliardi di dollari in debito dopo il fallimento dell'IPO.

Unisciti


I tuoi 5 minuti di notizie tech ogni giorno

Iscriviti
Email sent! Check your inbox to complete your signup.

No spam. Cancellati quando vuoi.

Apple ritarda l'arrivo dell'iPhone Air


Big tech
Apple ha posticipato il lancio della prossima generazione di iPhone Air, inizialmente prevista per l'autunno 2026, a causa delle vendite deludenti della versione attuale. Nonostante il design ultrasottile fosse la sua principale novità, l'iPhone Air ha deluso i consumatori per la batteria ridotta e la singola fotocamera posteriore, a fronte di un prezzo elevato.
~
Fonte: MacRumors
Alternativa in italiano: Macitynet

Leggi tutto

Come ne uscirà Apple?

Gli ultimi due anni hanno visto Apple cadere in turbine di odio e critiche. Il sentiment dei clienti è negativo e la batosta più grande è arrivata con le promesse mai mantenute sull'intelligenza artificiale. Apple chiaramente non vive più quel momentum classico degli anni di Jobs e si ritrova intrappolata nel cercare di innovare prodotti come smartphone o computer che però hanno già raggiunto un certo limite di progresso. Così l'unico modo per tornare competitiva sono i wearable e l'IA ma su entrambi ad oggi non sta andando molto bene.


GENTILMENTE SPONSORIZZATI DA


Ghost


Che tu voglia inviare una newsletter, pubblicare articoli, creare il tuo sito web o semplicemente avere un luogo dove scrivere, Ghost è la scelta giusta.

Morning Tech usa Ghost e il nostro sogno è quello di vederlo diffuso di più in Italia. Il team di sviluppatori è fantastico, la tecnologia è open-source, solida, sicura e velocissima.

La community mondiale è grande: Ghost viene utilizzato da famosi giornali indipendenti come 404 Media, Tangle e Platformer.

Con Morning Tech hai uno sconto del 10% su qualsiasi piano tu voglia sottoscrivere, dai un'occhiata 👇
Scopri ora

Anthropic è più vicina al profitto di OpenAI


Startup
Anthropic, l'azienda dietro Claude, e OpenAI stanno adottando strategie finanziarie opposte. Anthropic è più focalizzata su clienti aziendali e prevede il pareggio entro il 2028. OpenAI proietta invece ingenti perdite operative fino al 2030 a causa di massicci investimenti in infrastrutture di calcolo e ricerca, con impegni da 1,4mila miliardi di dollari.
~
Fonte: The Wall Street Journal
Alternativa in italiano: non pervenuta

Leggi tutto

Perché?

È lecito chiedersi perché due aziende tanto simili abbiano questo tipo di divario in termini di revenue a breve e medio termine. La verità è che Anthropic non ha le ambizioni di OpenAI, perché quest'ultima sta investendo in tantissimi settori diversi e mira a diventare letteralmente onnipresente: dalle scuole, all'università, al lavoro, alla vita privata delle persone. Una forza potenziale maggiore di Google per la ricerca o di Apple e Microsoft per i dispositivi che tieni in tasca ogni giorno. Le ambizioni di OpenAI sono più grandi di qualsiasi azienda tech statunitense e in un certo modo ricordano il modello delle "all-in-one" app cinesi come WeChat, che mirano ad occuparsi della tua vita a 360 gradi.

Sora per Android raggiunge quasi mezzo milione di installazioni nel primo giorno


Internet
L'app Sora di OpenAI, che permette di creare video con intelligenza artificiale, ha registrato circa 470.000 download nel suo primo giorno su Android. Il lancio ha superato quello su iOS di oltre quattro volte, grazie alla maggiore disponibilità geografica (USA, Canada, Giappone, Corea del Sud, Taiwan, Thailandia, Vietnam) e all'eliminazione del requisito di invito.
~
Fonte: TechCrunch
Alternativa in italiano: non pervenuta

Leggi tutto

Un fuoco fatuo

Come detto in passato, i video AI-generated sono pensati per gli addetti alla produzione audiovisiva e meno al consumer ordinario. È molto probabile che un feed come quello di Sora si stia vivendo adesso l'hype della novità ma che possa morire presto, soprattutto se pensiamo anche ad un certo livello di intolleranza che si sta generando nei confronti di questi artefatti. Per OpenAI non dovrebbe essere una sconfitta perché un massiccio utilizzo porta ad un massiccio addestramento.

Il progetto della città futuristica in Arabia Saudita sta fallendo


Business
Il mega-progetto urbanistico Neom dell'Arabia Saudita, incluso la città lineare "The Line", è in grave difficoltà e a rischio fallimento, con almeno 50 miliardi di dollari già spesi. Il principe Mohammed ha ridimensionato drasticamente la prima fase — gli investimenti esteri non si sono concretizzati. Architetti e lavoratori esprimono dubbi sulla sua realizzabilità.
~
Fonte: Gizmodo
Alternativa in italiano: non pervenuta

Leggi tutto

Letture interessanti


In lingua inglese.

È giunto il momento di una nuova era nel controllo delle specie invasive?


undark.org (eng)

Sir Tim Berners-Lee non pensa che l'intelligenza artificiale distruggerà il web


theverge.com (eng)

Meta Ray-Ban Display review: la prima generazione di Heads-Up Mobile Computing


uploadvr.com (eng)

Ecco come la magia della dinamica orbitale ha contribuito a salvare la prossima missione su Marte della NASA


arstechnica.com (eng)

Notizie veloci


In lingua inglese.

Tesla si prepara ad espandere Giga Texas con il nuovo stabilimento produttivo Optimus


teslarati.com (eng)

Google Play avviserà presto delle app che causano un consumo eccessivo della batteria


9to5google.com (eng)

Il nuovo design OLED del MacBook Pro potrebbe essere esclusivo dei modelli M6 Pro e M6 Max


9to5mac.com (eng)

I dirigenti di Tesla Cybertruck e Model Y si sono appena dimessi


insideevs.com (eng)

Threads si rivolge ai podcaster con nuove funzionalità


techcrunch.com (eng)

Video del giorno

youtube.com/embed/Sr0ywbjXD6k?…

XPENG Robotaxi


L'hanno presentata come "macchina parlante" oppure "un compagno che ti capisce". Oltre che le classiche funzioni di parcheggio autonomo e altro, questa vettura ti saluta quando ti vede e si esprime tramite due display che mimano due occhi.

Vedi video su youtube.com (eng - 1:40)

Unisciti


I tuoi 5 minuti di notizie tech ogni giorno

Iscriviti
Email sent! Check your inbox to complete your signup.

No spam. Cancellati quando vuoi.


La mia storia
Morning Tech non è solo un progetto editoriale. È il risultato di tentativi, passioni, errori e scoperte. In questa email ti porto un po’ dietro le quinte, tra le righe della mia storia.
Morning TechAmir Ati


I primi 10 mesi di Morning Tech
Leggo molti commenti sui social in cui vi rivolgete a Morning Tech usando il “voi”, ma la verità è che ci sono solo io dietro. Buon inizio di anno nuovo, ho iniziato a scrivere questo post il 30 dicembre e oggi, il 2 gennaio, lo sto ancora aggiustando. Com’è andata
Morning TechAmir Ati


Si può fare Morning Tech da soli?
Fino a prova contraria.
Morning TechAmir Ati


Come selezioniamo le notizie?

Ogni notizia crea migliaia di articoli speculativi. Morning Tech si occupa di trovare il fatto originale e di riportartelo con un riassunto e una narrativa imparziale. Tutte le fonti sono validate tramite bias-checker e risultano positive ai controlli di fact-checking degli ultimi cinque anni.

Che vuol dire essere indipendenti?

Morning Tech sopravvive anche grazie agli sponsor della newsletter ma questi non hanno alcuna influenza sulla selezione editoriale. Abbiamo deciso di dire no agli investitori in modo da mantenere una voce disinteressata e a servizio dell'informazione. Andiamo avanti grazie al tuo supporto. Fatti sentire.


SoftBank ha venduto tutte le sue azioni di Nvidia


In breve:


Masayoshi Son, fondatore di SoftBank, ha venduto l'intera partecipazione di 5,8 miliardi di dollari (32,1 milioni di azioni) in Nvidia per raccogliere capitale e finanziare OpenAI per 22,5 miliardi di dollari, oltre che un hub di produzione in Arizona. La decisione ha fatto scendere le azioni Nvidia, ma è vista come una mossa strategica per i piani di SoftBank.

Riassunto completo:


  • Masayoshi Son, fondatore di SoftBank, ha venduto l'intera partecipazione della sua azienda in Nvidia, pari a 5,8 miliardi di dollari, per concentrarsi su massicci investimenti nel settore dell'intelligenza artificiale.
  • Questa mossa include un impegno pianificato di 30 miliardi di dollari in OpenAI e la potenziale partecipazione in un centro di produzione di intelligenza artificiale da 1 trilione di dollari in Arizona.
  • La vendita delle 32,1 milioni di azioni Nvidia è avvenuta a un prezzo vicino al massimo storico del titolo, ma è la seconda volta che SoftBank esce da Nvidia; la prima, nel 2019, comportò una vendita che si è poi rivelata economicamente svantaggiosa.
  • L'annuncio della vendita ha provocato un calo del 3% delle azioni Nvidia, ma gli analisti suggeriscono che la decisione di SoftBank rifletta la necessità di capitale per i suoi ambiziosi piani nell'intelligenza artificiale, piuttosto che una visione negativa sul valore di Nvidia.
  • La comunità finanziaria si interroga se Masayoshi Son abbia intravisto opportunità nell'intelligenza artificiale che gli altri investitori non hanno ancora individuato.
Le scommesse di Son

Nel 2000 decise di investire 20 milioni di dollari in Alibaba, che in seguito ha raggiunto un valore di 150 miliardi di dollari, recuperando le perdite subite dopo il crollo della bolla dot-com. Non tutte le sue decisioni sono state vincenti; l'investimento in WeWork, ad esempio, ha causato a SoftBank perdite per 11,5 miliardi di dollari in capitale e 2,2 miliardi di dollari in debito dopo il fallimento dell'IPO.

Questo testo è un riassunto del seguente articolo (eng):

SoftBank’s Nvidia sale rattles market, raises questions | TechCrunch
Wall Street can’t help but wonder: does Son see something right now that others do not?
TechCrunchConnie Loizos


Alternativa in italiano:

Perché SoftBank ha venduto l’intera partecipazione in Nvidia? - Startmag
La holding giapponese SoftBank ha venduto la sua intera partecipazione in Nvidia per 5,8 miliardi di dollari.
StartmagMarco Dell’Aguzzo


Ghost: blog e newsletter italiane ha ricondiviso questo.

Sora per Android raggiunge quasi mezzo milione di installazioni nel primo giorno


Grazie anche all'espansione in più paesi, ma non ancora in Italia.
The media in this post is not displayed to visitors. To view it, please go to the original post.

In breve:


L'app Sora di OpenAI, che permette di creare video con intelligenza artificiale, ha registrato circa 470.000 download nel suo primo giorno su Android. Il lancio ha superato quello su iOS di oltre quattro volte, grazie alla maggiore disponibilità geografica (USA, Canada, Giappone, Corea del Sud, Taiwan, Thailandia, Vietnam) e all'eliminazione del requisito di invito.

Riassunto completo:


  • L'app Sora di OpenAI, che genera video con intelligenza artificiale, ha debuttato su Android con circa 470.000 download nel primo giorno, secondo i dati di Appfigures.
  • Questo risultato supera di oltre quattro volte il lancio su iOS, che aveva registrato circa 110.000 download rivisti nel primo giorno, con 360.000 installazioni in più.
  • La differenza è attribuibile alla maggiore disponibilità di Sora per Android, lanciata in USA, Canada, Giappone, Corea del Sud, Taiwan, Thailandia e Vietnam.
  • A differenza del lancio su iOS, inizialmente limitato a USA e Canada e disponibile solo su invito, OpenAI ha rimosso il requisito dell'invito per i principali mercati Android.
  • Sora consente agli utenti di creare video da prompt testuali, inclusa l'animazione di persone tramite la funzione Cameos, con un feed verticale simile a TikTok.
  • La versione iOS dell'app aveva già raggiunto oltre un milione di installazioni nella prima settimana e la vetta della classifica App Store negli Stati Uniti, posizionandosi oggi come quarta app gratuita.
  • Sora compete nel mercato delle app di intelligenza artificiale per video anche con Meta AI.

Un fuoco fatuo

Come detto in passato, i video AI-generated sono pensati per gli addetti alla produzione audiovisiva e meno al consumer ordinario. È molto probabile che un feed come quello di Sora si stia vivendo adesso l'hype della novità ma che possa morire presto, soprattutto se pensiamo anche ad un certo livello di intolleranza che si sta generando nei confronti di questi artefatti. Per OpenAI non dovrebbe essere una sconfitta perché un massiccio utilizzo porta ad un massiccio addestramento.

Questo testo è un riassunto del seguente articolo (eng):

Sora for Android saw nearly half a million installs on its first day | TechCrunch
This makes the Android launch more than 4x the size of the iOS launch, with 327% more installs (360,000) — but the firm notes that’s not an apples-to-apples comparison.
TechCrunchSarah Perez


Alternativa in italiano: non pervenuta

Ghost: blog e newsletter italiane ha ricondiviso questo.

SoftBank ha venduto tutte le sue azioni di Nvidia


Ma non è per screditare l'azienda di Huang.
The media in this post is not displayed to visitors. To view it, please go to the original post.

In breve:


Masayoshi Son, fondatore di SoftBank, ha venduto l'intera partecipazione di 5,8 miliardi di dollari (32,1 milioni di azioni) in Nvidia per raccogliere capitale e finanziare OpenAI per 22,5 miliardi di dollari, oltre che un hub di produzione in Arizona. La decisione ha fatto scendere le azioni Nvidia, ma è vista come una mossa strategica per i piani di SoftBank.

Riassunto completo:


  • Masayoshi Son, fondatore di SoftBank, ha venduto l'intera partecipazione della sua azienda in Nvidia, pari a 5,8 miliardi di dollari, per concentrarsi su massicci investimenti nel settore dell'intelligenza artificiale.
  • Questa mossa include un impegno pianificato di 30 miliardi di dollari in OpenAI e la potenziale partecipazione in un centro di produzione di intelligenza artificiale da 1 trilione di dollari in Arizona.
  • La vendita delle 32,1 milioni di azioni Nvidia è avvenuta a un prezzo vicino al massimo storico del titolo, ma è la seconda volta che SoftBank esce da Nvidia; la prima, nel 2019, comportò una vendita che si è poi rivelata economicamente svantaggiosa.
  • L'annuncio della vendita ha provocato un calo del 3% delle azioni Nvidia, ma gli analisti suggeriscono che la decisione di SoftBank rifletta la necessità di capitale per i suoi ambiziosi piani nell'intelligenza artificiale, piuttosto che una visione negativa sul valore di Nvidia.
  • La comunità finanziaria si interroga se Masayoshi Son abbia intravisto opportunità nell'intelligenza artificiale che gli altri investitori non hanno ancora individuato.

Le scommesse di Son

Nel 2000 decise di investire 20 milioni di dollari in Alibaba, che in seguito ha raggiunto un valore di 150 miliardi di dollari, recuperando le perdite subite dopo il crollo della bolla dot-com. Non tutte le sue decisioni sono state vincenti; l'investimento in WeWork, ad esempio, ha causato a SoftBank perdite per 11,5 miliardi di dollari in capitale e 2,2 miliardi di dollari in debito dopo il fallimento dell'IPO.

Questo testo è un riassunto del seguente articolo (eng):

SoftBank’s Nvidia sale rattles market, raises questions | TechCrunch
Wall Street can’t help but wonder: does Son see something right now that others do not?
TechCrunchConnie Loizos


Alternativa in italiano:

Perché SoftBank ha venduto l’intera partecipazione in Nvidia? - Startmag
La holding giapponese SoftBank ha venduto la sua intera partecipazione in Nvidia per 5,8 miliardi di dollari.
StartmagMarco Dell’Aguzzo

Ghost: blog e newsletter italiane ha ricondiviso questo.

Il progetto della città futuristica in Arabia Saudita sta fallendo


Già spesi 50 miliardi di dollari e poco interesse dall'estero.
The media in this post is not displayed to visitors. To view it, please go to the original post.

In breve:


Il mega-progetto urbanistico Neom dell'Arabia Saudita, incluso la città lineare "The Line", è in grave difficoltà e a rischio fallimento, con almeno 50 miliardi di dollari già spesi. Il principe Mohammed ha ridimensionato drasticamente la prima fase — gli investimenti esteri non si sono concretizzati. Architetti e lavoratori esprimono dubbi sulla sua realizzabilità.

Riassunto completo:


  • Il mega-progetto urbanistico Neom dell'Arabia Saudita, inclusa la città lineare "The Line", è in grave difficoltà e a rischio fallimento secondo un report del Financial Times che cita fonti interne.
  • "The Line", lunga 105 miglia e progettata per 9 milioni di persone entro il 2030, includeva elementi architettonici come un edificio capovolto ("the chandelier") ritenuti irrealizzabili dagli architetti.
  • Dopo aver speso almeno 50 miliardi di dollari, il principe Mohammed, che presiede Neom, ha ridimensionato drasticamente la prima fase del progetto.
  • Gli investimenti esteri cruciali per il finanziamento non si sono concretizzati, nonostante alcuni contributi da parte di ricche famiglie saudite.
  • I lavori di costruzione sono rallentati, ad eccezione della stazione sciistica di Trojena, e molti lavoratori e dirigenti nutrono seri dubbi sulla completa realizzazione del progetto.
  • Il fallimento di Neom, concepito per presentare l'Arabia Saudita come un hub tecnologico e innovativo, sta danneggiando la reputazione del Regno e la sua immagine di modernizzazione.
  • Contemporaneamente, l'Arabia Saudita sta investendo massicciamente nell'intelligenza artificiale, fornendo infrastrutture e data center, una strategia che finora si è dimostrata più efficace.

Che cos'è Neom?

Neom è un ambizioso progetto dell’Arabia Saudita per costruire una regione futuristica nel deserto del nord-ovest del Paese, con l’obiettivo di diversificare l’economia oltre il petrolio. Il suo elemento più iconico è “The Line”, una città lineare lunga 170 chilometri, composta da due grattacieli paralleli alti 500 metri e larghi 200, che ospiteranno fino a nove milioni di persone senza auto, strade o emissioni, grazie a un sistema di trasporto ad alta velocità e a energie rinnovabili. Oltre a The Line, Neom include progetti come Oxagon (una città industriale galleggiante), Trojena (un resort di montagna per le Olimpiadi invernali 2029) e Sindalah (un’isola turistica nel Mar Rosso), tutti pensati per creare un modello di urbanistica sostenibile e di lusso tecnologico.

Questo testo è un riassunto del seguente articolo (eng):

Saudi Arabia’s Dystopian Futuristic City Project Is Crashing and Burning
Who could have seen this coming?
GizmodoLucas Ropek


Alternativa in italiano: non pervenuta

Ghost: blog e newsletter italiane ha ricondiviso questo.

Apple ritarda l'arrivo dell'iPhone Air


I consumatori sono delusi.
The media in this post is not displayed to visitors. To view it, please go to the original post.

In breve:


Apple ha posticipato il lancio della prossima generazione di iPhone Air, inizialmente prevista per l'autunno 2026, a causa delle vendite deludenti della versione attuale. Nonostante il design ultrasottile fosse la sua principale novità, l'iPhone Air ha deluso i consumatori per la batteria ridotta e la singola fotocamera posteriore, a fronte di un prezzo elevato.

Riassunto completo:


  • Apple ha deciso di posticipare il lancio della prossima generazione di iPhone Air, inizialmente programmata per l'autunno 2026 insieme agli iPhone 18 Pro.
  • Questa decisione è dovuta alle vendite deludenti del modello attuale di iPhone Air, che dal suo lancio a settembre ha registrato un basso interesse da parte dei consumatori.
  • L'attuale iPhone Air si distingue per il suo design sottile da 5.6mm, la più grande innovazione estetica dal 2017, ma presenta compromessi come una batteria più piccola e una singola fotocamera posteriore.
  • Nonostante le caratteristiche ridotte, il dispositivo ha un prezzo di partenza di 999 dollari, solo 100 dollari in meno rispetto all'iPhone 17 Pro, che offre una tripla fotocamera e una migliore autonomia.
  • Le scarse vendite hanno portato a riduzioni significative nella produzione; fornitori come Foxconn e Luxshare hanno interrotto o quasi fermato le linee di assemblaggio dell'iPhone Air.
  • Apple ha faticato a trovare un quarto modello di iPhone che abbia successo sul mercato, dopo i precedenti tentativi con l'iPhone mini e i modelli "Plus", anch'essi abbandonati per scarso rendimento.
  • È possibile che la prossima versione dell'iPhone Air, attualmente in fase di sviluppo con miglioramenti come una batteria più grande, possa essere lanciata nella primavera del 2027, insieme ai modelli standard di iPhone 18.

Come ne uscirà Apple?

Gli ultimi due anni hanno visto Apple cadere in turbine di odio e critiche. Il sentiment dei clienti è negativo e la batosta più grande è arrivata con le promesse mai mantenute sull'intelligenza artificiale. Apple chiaramente non vive più quel momentum classico degli anni di Jobs e si ritrova intrappolata nel cercare di innovare prodotti come smartphone o computer che però hanno già raggiunto un certo limite di progresso. Così l'unico modo per tornare competitiva sono i wearable e l'IA ma su entrambi ad oggi non sta andando molto bene.

Questo testo è un riassunto del seguente articolo (eng):

iPhone Air Sales Are So Bad That Apple’s Delaying the Next-Generation Version
The thin, light iPhone Air sold so poorly that Apple has decided to delay the launch of the next-generation iPhone Air that was scheduled to come out alongside the iPhone 18 Pro, reports The Information . Apple initially planned to release a new iPhone Air in fall 2026, but now that’s not going to happen.
MacRumorsJuli Clover


Alternativa in italiano:

iPhone Air arranca, Apple ferma il progetto della seconda versione
iPhone Air
macitynet.itFabrizio Frattini

Ghost: blog e newsletter italiane ha ricondiviso questo.

Anthropic è più vicina al profitto di OpenAI


OpenAI rimarrà in perdita per tanti anni.

In breve:


Anthropic, l'azienda dietro Claude, e OpenAI stanno adottando strategie finanziarie opposte. Anthropic, finanziata da Google e Amazon, è più focalizzata su clienti aziendali e prevede il pareggio entro il 2028. OpenAI, finanziata da Microsoft, proietta invece ingenti perdite operative fino al 2030 a causa di massicci investimenti in infrastrutture di calcolo e ricerca, con impegni da 1,4mila miliardi di dollari.

Riassunto completo:


  • Le startup di intelligenza artificiale Anthropic e OpenAI seguono strategie finanziarie divergenti per la loro crescita nel settore.
  • Anthropic, con il suo chatbot Claude, mira a raggiungere il pareggio entro il 2028, focalizzandosi su clienti aziendali (l'80% dei suoi ricavi) e mantenendo una crescita dei costi allineata ai ricavi.
  • OpenAI, sviluppatrice di ChatGPT, prevede perdite operative di circa 74 miliardi di dollari nel 2028 e il pareggio solo nel 2030, a causa di ingenti investimenti in infrastrutture di calcolo e compensi in azioni per i ricercatori.
  • Sam Altman, CEO di OpenAI, ha assunto impegni per 1,4mila miliardi di dollari in otto anni per i costi di calcolo, riflettendo una strategia aggressiva che punta a trasformare l'azienda in un gigante tecnologico.
  • Anthropic, fondata da Dario Amodei (ex ricercatore Google e OpenAI), ha una valutazione di 183 miliardi di dollari, mentre OpenAI è valutata 500 miliardi.
  • Entrambe le aziende registrano un elevato consumo di liquidità, ma Anthropic è proiettata a diventare più efficiente nella gestione del denaro rispetto a OpenAI a partire dal 2026.
  • Importanti fornitori di servizi cloud supportano le due startup: Microsoft è il principale provider per OpenAI, mentre Amazon e Google lo sono per Anthropic.
Perché?

È lecito chiedersi perché due aziende tanto simili abbiano questo tipo di divario in termini di revenue a breve e medio termine. La verità è che Anthropic non ha le ambizioni di OpenAI, perché quest'ultima sta investendo in tantissimi settori diversi e mira a diventare letteralmente onnipresente: dalle scuole, all'università, al lavoro, alla vita privata delle persone. Una forza potenziale maggiore di Google per la ricerca o di Apple e Microsoft per i dispositivi che tieni in tasca ogni giorno. Le ambizioni di OpenAI sono più grandi di qualsiasi azienda tech statunitense e in un certo modo ricordano il modello delle "all-in-one" app cinesi come WeChat, che mirano ad occuparsi della tua vita a 360 gradi.

Questo testo è un riassunto del seguente articolo (eng): The Wall Street Journal

Alternativa in italiano: non pervenuta

Ghost: blog e newsletter italiane ha ricondiviso questo.

Emanuele Verri


Emiliano Brasini l'ha accolto nel team Sigal vedendo in lui un futuro da agonista. Roberto La Mantia gli ha ispirato l'ambizione. Insieme a Luca Vallicelli formano un terzetto, tutto Sigal, protagonista nelle competizioni ai massimi livelli.
The media in this post is not displayed to visitors. To view it, please go to the original post.

Foto in alto: il protagonista mascherato con una grossa cernia bruna.

Passiamola per maggior età, ma Emanuele Verri, oggi over ‘anta, romano di padre calabrese, ha impugnato il fucile quasi a vent’anni. Non senza esperienze nel meridione, visto che il genitore nella sua terra passava le estati con la famiglia bagnandosi a San Lucido, nel mare di Cosenza, l’Atene d’Italia. Emanuele racconta di infinite e assolate giornate passate su un materassino gonfiabile, quando aveva solo 5 anni, a traino del babbo di ritorno dal suo pellegrinare sul fondo alla perenne ricerca della cena. Così è nato l’amore per il mare e si è sviluppata la passione della pesca.

Com’è stato il distacco e l’arrivo nella capitale? Diciamo che passati i cinque anni, ancora in Calabria, mi sono emancipato. A 14 anni guidavo il motorino e potevo raggiungere comodamente il mare. Così come a 16 iniziavo le mie prime battute di pesca. A Roma mi sono organizzato. Dopo le prime esplorazioni sul litorale laziale, ho frequentato un corso di Apnea Academy, con Roberto Tiveron e nel 2000, a diciannove anni, mi sono iscritto al Blu Deep Roma. All’epoca non c’era l’infinito mondo del web per cui quel corso è stato davvero istruttivo, illuminante circa le criticità che si possono verificare sott’acqua. Ad esempio, mai lo dimenticherò, un video che documentava la sincope di un atleta a Santa Teresa Gallura, durante il Campionato del mondo di apnea a squadre alla fine degli anni novanta.
La Corvina, forse il pesce preferito di Emanuele, visto che dalle sue parti crescono più che altrove.
Dove andavi a pesca? Con l’arrivo del gommone, ancora con la guida a barra, che tenevamo in spiaggia, io e il mio socio per l’occasione, spaziavamo tra Ladispoli e Santa Marinella più a nord. Agguato e aspetto erano le tecniche preferite chje almemno io praticavo pur senza risultati eccezionali.

Chi era il tuo idolo? Allora seguivo le riviste e all’epoca il mito era Renzo Mazzarri, il 3 volte campione del mondo. Localmente stimavo moltissimo Alessio Gallinucci, Massimo Badassarre e Fabio Antonini.

Il pesce che ti ha lasciato il segno? A 22 anni, una leccia di 10 chili catturata all’aspetto nelle secche di Santa Severa a circa un miglio e mezzo dalla costa. Era fine estate, in mare c’era una corrente di scirocco con una discreta visibilità. Ci siamo immersi con l’idea di sparare qualche orata. Ero sul fondo, a poca profondità, fermo all’aspetto. D’un tratto, in alto sulla destra, mi sfila un banchetto di lecce. Stavano per raggiungere il fuori tiro così sparo al volo la più vicina. Colpita al centro. Dopo 15 minuti di combattimento, la doppio, ma non era necessario. Ero un po’ agitato perché ho dovuto accelerare i tempi col rischio di perdere l’attimo. Fortunatamente tutto andò bene.
Il sorriso compiaciuto di Emanuele, giustificato da questo dentice da cena condominiale se non di quartiere.
Quando hai iniziato l’attività agonistica? A circa 28 anni, dopo qualche gara di selezione nel Lazio, e soprattutto dopo essere stato il barcaiolo di Andrea Calvino in un campionato di seconda. Ho fatto tutte le selettive e le promozionali possibili. Ma non era facile emergere. Le gare erano molto partecipate e gli atleti erano tutti molto forti. Io crescevo ma ho dovuto insistere per almeno 7-8 anni, prima di raggiungere l’obiettivo e l’accesso nel 2019 al campionato di qualificazione che si disputò a Casalabate. Fu una gara molto particolare. Una settimana fuori di casa con la benedizione di mia moglie, nonostante fosse diventata mamma da 15 giorni. Diciamo che non ero in uno stato psicofisico ideale. Oltretutto, viste le condizioni meteo, si concluse tutto in una sola giornata. Di base avevo una preparazione del campo gara piuttosto limitata, alla quale si aggiunse il forfait del barcaiolo. Praticamente un casino! Ma anche quello finì, con tre pesci sul mio referto e un ventiquattresimo in classifica. Da lì, di nuovo la trafila delle selettive. Poi il Covid, e finalmente nel 2020, la partecipazione al campionato italiano per società con Roberto La Mantia e Diego Mazzocchi. Eravamo a casa, a Santa Marinella. Preparammo la gara minuziosamente, con armonia, senza individualismi, in un campo pescabile dai 5 metri in giù, caratterizzato da grotto, cigliate profonde e meno profonde, tutto però abbondantemente entro i 25 metri. Ci concentrammo sulla ricerca di capponi e mostelle, le specie maggiormente avvistate. Il risultato fu: 5 capponi, chiuse le corvine, 4 saraghi, un tordo, una murena e un grongo, neanche una mostella. Questa prestazione mi aprì di diritto le porte della seconda categoria che si disputò a Terrasini nel 2021. Vinse Nicolò Riolo. Io alla prima esperienza in un campo gara per profondisti, rimediai 4 pesci all’esordio e tre nella seconda giornata, alcuni a 36 metri. Staccai infine, il quindicesimo cartellino valido per il successivo Campionato italiano assoluto… il sogno di una vita.
Una bella bruna che non è riuscita a guadagnare la tana rimanendo vittima di un'azione veloce di Emanuele.
Nel 2022 mi ritrovai quindi a Trapani, nella massima serie, a gareggiare con i mostri sacri della specialità e quell’anno ce n’erano davvero tanti. A iniziare dal primo in classifica, Giacomo De Mola, campione italiano, una spanna su tutti. E dietro Riolo, Fazzolari, Gentilino, Cubiciotto, Maccioni, Losito, Bonomo, Claut e Puretti, tanto per citare i primi dieci, ma la lista di campioni affermati sarebbe ancora lunga. Per me non ci fu storia, scivolai con “disonore” in fondo alla classifica, costretto a ripartire dal girone di qualificazione che nel 2023 si disputò a Casal Velino in provincia di Salerno, nel cuore del Parco nazionale del Cilento, tra Acciaroli e Marina di Acea. Un campo gara singolare, con tripodi in cemento, da 33 a 48 metri di profondità, sparsi qua e là sul fondo per contrastare la pesca a strascico. Un terreno in cui prosperava però la cernia bianca. La prima giornata si è visto pochissimo pesce, tanto che, dopo tre ore di ricerca per la bianca, decisi di buttarmi a terra a scorrere. Sparai un cefalo di 500 grammi e altri 4 pesci di specie diverse. Il giorno seguente puntai al volo una tana di corvine e ne presi due, una di un chilo e quattro. Poi, più a terra, presi alcuni saraghi e tordi. Non andò male, ma mi aspettavo un numero 5, invece, tra i 50 atleti, in finale mi piazzai decimo. Ma un nuovo assoluto mi aspettava.
Emanuele Verri con un carniere dell'ultimo assoluto di Portoscuso.
E così nel 2024 approdai in Sardegna, a Portoscuso. Una gara tosta, segnata dal bel tempo e una gran quantità di pesci. Ho fatto bene e avrei potuto fare meglio ma ho dovuto accontentarmi di un’ottava posizione. Quest’anno purtroppo, a fine giugno, in corrispondenza con l’assoluto, causa trasloco ho dichiarato forfait. Il mio calendario agonistico riprenderà comunque il prossimo anno, in seconda, grazie alla federazione che ha accolto la mia domanda di reintegro.
Il cappone, spesso si trova nei buchi più profondi.
Raccontaci del pesce più grande. Era il 2020, a maggio, la prima uscita in mare dopo il lockdown. Ero a La Frasca, un’area di grande interesse naturalistico e archeologico confinante a sud con la centrale termoelettrica di Torrevaldaliga, nella periferia nord di Civitavecchia. Si poteva uscire solo a pinne. Percorsi a nuoto più o meno un miglio per raggiungere un ciglio di grotto tra i 12 e i 18 metri frequentato di solito dai dentici. C’era una mangianza incredibile e io ero all’aspetto. A un certo punto la nuvola di pescetti si aprì per dare spazio a due pesci enormi, spaventosi, due lecce. Sparai alla più grossa, con precisione. Questa accusò il colpo e dopo due sole scodate finì nella morsa delle mie braccia, stretta al petto. Risalì in superficie e mi avviai verso riva. Un’ora di sfinimento, poi la macchina e il rientro verso casa. Pesò 23 chili.

Un episodio a caso? A San Lucido, nel versante tirrenico calabrese. Mi portava un amico. Pescavo nel blu, su una secca che arriva a 90 metri. Il mio amico mi metteva fretta e mi incitava a tuffarmi perché era una posta da ricciole. Non doveva convincermi e mi buttai in acqua. Non feci in tempo a immergermi più di tanto e noto al volo una macchia chiara che risaliva verso me. Mi sembrò uno squalo e la cosa mi agitò un poco o forse mi agitò e basta. Qualche secondo di panico(?), poi mi resi conto che si trattava di una manta. Ebbi un sussulto e lei virò, aveva un’apertura alare superiore ai due metri.

sardegnapesca

Ghost: blog e newsletter italiane ha ricondiviso questo.

Motorola: presentato edge 70 con un design sottilissimo e resistente, il nuovo moto g e moto buds bass


Edge 70 e sfida l'impossibile dal punto di vista del design: con uno spessore di 5,99 mm, è il dispositivo più sottile della sua categoria senza compromettere design, batteria e altre caratteristiche
The media in this post is not displayed to visitors. To view it, please go to the original post.


Motorola ha annunciato edge 70, insieme ai nuovi moto g57 powere a moto buds bass, che offrono potenza, resistenza e stile a diversi livelli di prezzo. Motorola edge 70 è il dispositivo più sottile della sua categoria e il nuovo moto g offre un mix ben bilanciato di specifiche, che vanno dal sistema di fotocamere Sony Lytia 600 all'eccezionale resistenza.

motorola edge 70: sottile e studiato nei minimi dettagli


Motorola Edge 70 fa il suo ingresso con un design incredibilmente sottile e una finitura che non passa inosservata. La sua leggerezza è così estrema che diventa quasi impercettibile, rendendolo il compagno perfetto per chi è sempre in movimento con un’esperienza d’uso confortevole in qualsiasi situazione. Il design non è solo un dettaglio, ma il cuore di un'estetica all'avanguardia, dove la scocca in alluminio di derivazione aeronautica incontra una finitura ispirata alla texture del nylon. Le sue tonalità curate da Pantone con dettagli colorati attorno agli obiettivi della fotocamera, donano al dispositivo un aspetto inedito per la famiglia edge. Oltre all'estetica, lo smartphone presenta anche un profilo ultrasottile e robusto, grazie a una protezione dall'acqua IP69, standard di durabilità di livello militare e Corning Gorilla Glass 7i. In quanto unico smartphone ultrasottile con tre fotocamere da 50 MP ad alta risoluzione, motorola edge 70 promette un potenziale creativo illimitato, grazie all'OIS e raggiungeranno colori e sfumature realistici con la calibrazione del colore e dei toni della pelle con validazione Pantone. L'hardware fotografico vanta:

  • una fotocamera principale da 50 MP con registrazione video 4K e copertura HDR 3;
  • un obiettivo ultra-grandangolare da 50 MP + Macro per un campo visivo di 120°;
  • una fotocamera frontale da 50 MP;
  • un sensore di luce dedicato 3-in-1 per una migliore sensibilità alla luce e un'esposizione appropriata

Le immagini sono ulteriormente valorizzate da moto ai e dal suo motore di miglioramento fotografico (Photo Enhancement Engine), che aggiungono maggiore precisione e accuratezza. I consumatori possono sfruttare le funzionalità basate sull'IA come "Signature Style" per applicare un preset alle proprie foto e ottenere un look coerente, catturare movimenti nitidi con "Action Shot" o utilizzare "Group Shot" per assicurarsi che tutti abbiano gli occhi aperti.

L'Ai di Motorola


Oltre alle immagini, moto ai migliora anche la vita quotidiana, rispondendo rapidamente alle domande, generando elementi visivi personalizzati e catturando i dettagli che meritano di essere immortalati. La funzionalità Next Move comprende ciò che è visualizzato sullo schermo dell'utente e lo aiuta a fare ricerche mirate o ad agire rapidamente su quanto appare sul display; offre opzioni per attivare Playlist Studio, per una playlist personalizzata basata sul contenuto visualizzato, o utilizza Image Studio per trasformare la propria immaginazione in immagini, adesivi, avatar e sfondi.
motorola edge 70 promette un potenziale creativo illimitatomotorola edge 70 promette un potenziale creativo illimitato

La batteria


Chi utilizza motorola edge 70 può godere dell'eccellente autonomia della batteria al silicio-carbonio da 4800 mAh: secondo i dati Motorola, essa consente di massimizzare il tempo trascorso sul proprio dispositivo con fino a 50 ore di utilizzo misto e fino a 29 ore di riproduzione video continua. Durante la ricarica, il dispositivo offre la scelta tra la ricarica cablata TurboPower da 68W o la ricarica wireless TurboPower da 15W per un look essenziale. Nella confezione, anche una custodia magnetica che oltre a protegge il profilo ultrasottile del dispositivo, mette in risalto la sua finitura nei colori Pantone ed è compatibile con la ricarica wireless.

Il processore


Il device è dotato della piattaforma mobile Snapdragon 7 Gen 4 per miglioramenti nelle prestazioni di AI, CPU e GPU. L'azienda si impegna a fornire un'esperienza sicura e aggiornata, e per questo motivo edge 70 riceverà quattro importanti aggiornamenti del sistema operativo Android, incluso Android 16, insieme ad aggiornamenti di sicurezza bimestrali fino a luglio 2031.

Moto g57 power


Il nuovo moto g57 power ridefinisce il segmento degli smartphone accessibili, offrendo funzionalità premium, autonomia e robustezza. Si tratta del primo al mondo a integrare la piattaforma mobile Snapdragon 6s Gen 4, garantendo prestazioni 5G ultraveloci e stabili. La sua batteria al silicio-carbonio da 7000 mAh offre, secondo Motorola, oltre due giorni di autonomia con una singola carica e supporta la ricarica TurboPower da 30W. Per gli amanti della fotografia, il device vanta un sistema di fotocamere da 50 MP con sensore Sony Lytia 600 e intelligenza artificiale moto ai, capace di catturare immagini nitide e vivide in ogni condizione, affiancato da un obiettivo ultra-grandangolare e una fotocamera frontale da 8 MP. La durabilità è assicurata dalla certificazione MIL-STD-810H, dal vetro Gorilla Glass 7i (3x più resistente alle cadute) e dalla classificazione IP64, il tutto racchiuso in un design elegante disponibile in colori Pantone. L'esperienza utente è arricchita da un display FHD+ da 6,72 pollici a 120 Hz con luminosità fino a 1050 nit e funzione Water Touch, completata da un audio immersivo Dolby Atmos e Hi-Res. Con fino a 24 GB di RAM potenziati da RAM Boost e 256 GB di storage UFS 2.2, il moto g57 power offre fluidità e ampio spazio per ogni esigenza.

La gamma moto things si amplia con il lancio di moto buds bass


Gli auricolari moto buds bass combinano un suono potente e ricco di bassi con prestazioni a lunga durata e una resistenza per l'uso quotidiano. Progettati per la vita in movimento, moto buds bass offrono fino a nove ore di riproduzione per carica e fino a 43 ore con la custodia, oltre a due ore di riproduzione con soli 10 minuti di ricarica. Ogni auricolare, inoltre, è dotato di un sistema a triplo microfono con CrystalTalk AI, che garantisce chiamate più chiare grazie alla cancellazione dell'eco, alla soppressione del rumore ambientale e alla riduzione del rumore del vento. Inoltre, progettati con una finitura idrorepellente, gli auricolari resistono a schizzi, pioggia e all'usura quotidiana. Con la cancellazione attiva del rumore dinamica che offre fino a 50 dB di isolamento e un raggio di cancellazione ultra-ampio di 4 kHz, è possibile immergersi completamente nella musica.

Offerta bundle Edge 70


Fino al 31 dicembre 2025, motorola edge 70 sarà accompagnato da un'esclusiva promozione bundle disponibile in tutta l'area EMEA: l'offerta a tempo limitato include una selezione esclusiva degli accessori più desiderati di Motorola: Moto Tag, Moto Buds Loop Green, Moto Watch Fit e caricabatterie TurboPower da 68W.

Disponibilità


Motorola edge 70 sarà disponibile in Italia su tutti i canali di vendita a partire da fine novembre 2025 al prezzo di 799 euro. Moto g57 power sarà disponibile, invece, a partire da dicembre 2025 al prezzo di 249,90 euro.

Ghost: blog e newsletter italiane ha ricondiviso questo.

Italia d'Oro sul Kayak


Un mondiale tirato fino al limite per le avverse condizioni del mare e una nazione, l'Italia, che superando ogni difficoltà è emersa e ha vinto tutto: oro, argento e bronzo.
The media in this post is not displayed to visitors. To view it, please go to the original post.

Sopra: kayak tra le onde

Raccontare quanto è accaduto a Piombino è come voler fermare per sempre ogni istante di un mondiale che ci ha visto protagonisti e che sicuramente rimarrà per sempre impresso nel nostro cuore e negli annali della federazione.

La mia soddisfazione come commissario tecnico è grandissima e voglio sottolineare la grandezza di questi ragazzi, sempre corretti, che hanno dimostrato una maturità tecnica e uno spirito di squadra eccezionale che ci ha portati sul tetto del mondo.

La Nazionale italiana di kayak fishing, conquista sia l'oro che il bronzo nella classifica a squadre mentre nell'individuale monopolizza l'intero podio: Longo, Rosa e Mainardi. Molto soddisfatto il dirigente federale e accompagnatore Stefano Sarti, che nel portare i saluti e i complimenti del presidente Matteoli a tutto il gruppo per la grande impresa, ha manifestato tutta la sua soddisfazione per il grande risultato che sicuramente darà una grande sferzata di energia a tutto il movimento nazionale. Super visore per la Fips-Mer (federazione internazionale) Carlos Vinagre che con la sua grande esperienza e simpatia ha fatto sì che tutto andasse per il verso giusto.
Qualcuno potrebbe pensare a una disciplina mista kayak-surf.
Cronaca - Tutte le nazionali come noi, sono arrivate a Piombino in anticipo: 12 team e 36 atleti, per testare i campi di gara e così è stato, sono stati testati i tre “campi gara”, con tanti pesci catturati misurati, fotografati e rilasciati, come da regolamento a dimostrazione che la pesca sportiva è anche rispetto per l’ambiente e amore per il mare e i suoi “abitanti.” Le premesse per una tre giorni a fine settembre, di sana competizione c’erano tutte, ma il meteo-mare, è notevolmente peggiorato. Venti forti hanno costretto gli organizzatori e la giuria internazionale ad annullare la prima giornata di pesca e cambiare campo di gara per le 2 giornate successive, che se pur nella “tempesta”, ha permesso agli atleti, assistiti da 5 gommoni e Capitaneria di porto, di disputare il campionato. La prima giornata ha visto letteralmente dominare Italia A con Saverio Rosa primo assoluto e tanti pesci, tallonato in un incredibile testa a testa da Matteo Longo.
Al centro del podio l'incontenibile Italia.
Alla fine la classifica provvisoria vede il team Italia A al primo posto, seguito dai 2 team statunitensi al 2° e al 3° posto mentre Italia B si piazza al 4° posto. Nella classifica individuale primeggia Rosa, seguito da Longo e Ioele, con Mainardi al 4° posto. Il secondo giorno si presenta con onde da paura e un campo ridotto per motivi di sicurezza. Ma gli atleti non si fanno impressionare più di tanto e ricomincia la battaglia. Ancora un testa a testa tra Saverio Rosa e Matteo Longo decreta quest’ultimo campione del mondo. Stessa cosa per Italia A che stravince con loro due più Stefano Mainardi. Strepitosa rimonta di Italia B, che con Ioele, Conti e Apicella scavalca gli americani piazzandosi al 3° posto. Agli spagnoli, campioni uscenti, va il 2° posto per team.
I magnifici tre azzurri: Saverio Rosa, Matteo Longo e Stefano Mainardi.
È stata una grande emozione. Abbiamo preparato questa competizione esaminando ogni particolare. Per un anno abbiamo curato anche la preparazione fisica, sia in palestra che in mare, e questo ha contribuito al successo finale, visto che si è gareggiato con onde di un metro e mezzo, vento e pioggia. Inoltre, con alcune settimane di anticipo, i nostri tre toscani: Saverio Rosa, Stefano Mainardi a cui si è aggiunto Carmine Apicella, hanno analizzato i campi di gara macinando miglia e miglia, cosa che abbiamo continuato a fare con la squadra al completo nei 3 giorni precedenti la gara, a volte mattina e pomeriggio e così hanno fatto Stati Uniti, Messico, Portogallo e i campioni uscenti della Spagna che hanno lottato fino all’ultimo senza mai mollare. Ma i nostri ragazzi sono stati fantastici con tanta passione e determinazione. volevamo vincere il mondiale 2025 e così è stato. Colgo l’occasione per ringraziare la Fipsas per avermi affidato questo importante incarico, poi voglio ringraziare i ragazzi: Saverio, Stefano, Matteo, Antonio Conti e Antonio Ioele Carmine. Un grande grazie anche a Alessio Di Roberto e al team Tkf. Ora l’appuntamento è per il 2026 in Portogallo.

ph: Mauro Alecci, Sandro Leonelli, Paolo Oteri

Ghost: blog e newsletter italiane ha ricondiviso questo.

La battaglia per il ruolo dell’UNRWA nel futuro di Gaza


Gli Stati Uniti aprono a un ruolo dell’UNRWA nella Gaza del “dopoguerra.” Tra le altre notizie: il presidente siriano al-Sharaa alla Casa bianca; il turismo italiano sta bene, i turisti italiani meno; e cosa ne pensa l’inventore del World Wide Web del fut

Il commissario generale dell’UNRWA Philippe Lazzarini ha pubblicato un editoriale sul Guardian in cui rivendica come l’agenzia ONU abbia le competenze necessarie per gestire il complesso problema della ricostruzione della Striscia di Gaza, dilaniata da mesi di bombardamenti dell’aviazione israeliana. Lazzarini scrive: “L'ONU, compresa l'Unrwa, dispone delle competenze e delle risorse necessarie per rispondere in modo efficace e su larga scala alle esigenze umanitarie più urgenti.” “Tuttavia, dobbiamo poter operare liberamente e in modo indipendente, senza restrizioni arbitrarie e irragionevoli all'ingresso e alla circolazione di forniture e personale.” Il riferimento non è soltanto al blocco dell’ingresso degli aiuti umanitari, che ancora dopo un mese di cessate il fuoco fa da imbuto per limitare drasticamente l’ingresso di camion nella Striscia: nella trattativa per l’amministrazione del “dopoguerra” a Gaza il ruolo dell’UNRWA è particolarmente contenzioso. (the Guardian)

È una battaglia che l’ONU può vincere: nella bozza originale del piano statunitense presentato al Consiglio di sicurezza delle Nazioni Unite, era previsto un punto — il terzo — che indicava che “qualsiasi organizzazione di cui è noto abbia usato in modo scorretto gli aiuti” sarebbe “indicata come inammissibile a fornire continua o futura assistenza.” Nella prima revisione del resto, fatta circolare nelle scorse ore e pubblicata online da Rami Ayari di Al Jazeera, quella frase è del tutto sparita. Anche se il testo originale non indicava espressamente l’UNRWA, la misura era stata intesa come inserita su richiesta esplicita di Tel Aviv, che da sempre combatte una battaglia ideologica contro l’esistenza stessa dell’agenzia ONU. Nel proprio editoriale, Lazzarini sottolinea che “nel suo parere consultivo del mese scorso, la Corte internazionale di giustizia ha ribadito la professionalità del personale dell'UNRWA, sottolineato il ruolo umanitario indispensabile dell'agenzia e concluso che l'UNRWA rimane un attore imparziale e neutrale.” Le accuse mosse da Israele, che sostanzialmente l’agenzia sia stata infiltrata da Hamas, non sono mai state confermate da prove. (X / UNRWA)

Almeno in linea teorica da questa settimana l’ingresso di aiuti umanitari è passato sotto il controllo del Centro di coordinamento civile-militare, il nuovo meccanismo sotto controllo statunitense — nei prossimi giorni diventerà chiaro quanto sia effettivamente indipendente dalle mire israeliane. Per ora, la situazione a Gaza resta durissima: Maha Hussaini racconta della crisi direttamente da Gaza città. Una residente della città, ora sfollata a Deir al-Balah, spiega in modo tagliente: “Il genocidio è finito solo nei media. Hanno smesso di parlarne, ma per noi è ancora in corso.” Ancora ieri le IDF hanno lanciato un attacco drone ad est di Khan Yunis, uccidendo due persone, tra cui un bambino. (Middle East Eye / WAFA)

This post is for subscribers only


Become a member to get access to all content
Subscribe now

Ghost: blog e newsletter italiane ha ricondiviso questo.

Samsung Galaxy S26 Plus, Noleggio Tesla, Apple e le funzionalità satellitari


I tuoi 5 minuti di aggiornamento mattutino.
The media in this post is not displayed to visitors. To view it, please go to the original post.

The media in this post is not displayed to visitors. To view it, please go to the original post.

La rassegna di oggi è gentilmente sponsorizzata da Ghost.

Buon martedì,
inizio segnalandovi che le letture interessanti di oggi sono tutte molto belle — se non avete tempo di leggerle adesso, salvatele da qualche parte! Oggi vedremo i nuovi render del Galaxy S26; un programma di noleggio Tesla che ci permetterà di parlare brevemente della situazione EV; poi Apple ha grandi progetti con la connessione satellitare, e vedremo insieme di cosa si tratta. Buona lettura!

Podcast quotidiano


Con il commento di Amir Ati.

Il podcast quotidiano è disponibile solo per i supporter.

Notizie dal mondo


Le news di oggi, selezionate a mano.

Sono trapelate informazioni e render del Samsung Galaxy S26 Plus


Tecnologia
Il Samsung Galaxy S26 Plus era stato dato per cancellato a favore di un modello Edge, ma invece è previsto per il lancio a inizio 2026. Lo spessore di 7.35mm del Plus e le previsioni per il modello base suggeriscono un allontanamento di Samsung dai telefoni ultrasottili, nonostante voci su un nuovo Edge "More Slim" siano ancora presenti. Sull'articolo originale sono disponibili i render.
~
Fonte: The Verge
Alternativa in italiano: Multiplayer

Leggi tutto

Unisciti


I tuoi 5 minuti di notizie tech ogni giorno

Iscriviti
Email sent! Check your inbox to complete your signup.

No spam. Cancellati quando vuoi.

Tesla lancia un nuovo programma di noleggio a prezzi bassi


Tecnologia
Tesla ha lanciato un nuovo programma di noleggio che consente di provare le sue auto per periodi di 3-7 giorni, con prezzi a partire da 60 dollari al giorno. Nel costo sono inclusi la ricarica gratuita presso i Supercharger e l’uso completo della guida autonoma (Full Self-Driving Supervised). Non ci sono limiti di chilometraggio, ma l’auto non può uscire dallo stato in cui è stata noleggiata.
~
Fonte: Teslarati
Alternativa in italiano: Quotidiano Motori

Leggi tutto

Perché è importante?

Perché Tesla ha passato un periodo buio con le EV, con un calo della domanda che ha portato tagli ai prezzi nel 2023 e ridotto i margini operativi dal 17% al 7-8%. Gli investitori inoltre non apprezzano la promessa di un Tesla robotaxi troppo in là nel tempo e vogliono ricavi a breve termine. Alla tensione di margini bassi e investitori che mettono pressione, si aggiunge la Cina con una competitività sempre più alta e aggressiva.


GENTILMENTE SPONSORIZZATI DA


Ghost


Che tu voglia inviare una newsletter, pubblicare articoli, creare il tuo sito web o semplicemente avere un luogo dove scrivere, Ghost è la scelta giusta.

Morning Tech usa Ghost e il nostro sogno è quello di vederlo diffuso di più in Italia. Il team di sviluppatori è fantastico, la tecnologia è open-source, solida, sicura e velocissima.

La community mondiale è grande: Ghost viene utilizzato da famosi giornali indipendenti come 404 Media, Tangle e Platformer.

Con Morning Tech hai uno sconto del 10% su qualsiasi piano tu voglia sottoscrivere, dai un'occhiata 👇
Scopri ora

Apple sta ampliando le funzionalità satellitari per iPhone


Tecnologia
Il progetto riguarda iPhone e Apple Watch: messaggi, mappe e assistenza stradale funzioneranno anche senza rete e anche per non-emergenze. Apple sta sviluppando delle API che permetteranno anche agli sviluppatori di utilizzare le nuove funzioni. Sta anche sviluppando la possibilità di inviare foto via satellite e un sistema più naturale per connettersi, cioè senza dover "puntare il telefono al cielo", ma funzionando anche in tasca o in borsa. Dal 2026 arriverà anche il 5G NTN, che integrerà i satelliti nella rete cellulare.
~
Fonte: Bloomberg
Alternativa in italiano: Tom's HW

Leggi tutto

Perché è importante?

Perché il popolamento di satelliti in orbita bassa sta aprendo nuove frontiere e potrebbe potenzialmente spostare completamente la connettività cellulare verso un approccio satellite-first.

Avviati i test della nave elettrica più grande al mondo


Tecnologia
La società australiana Incat Tasmania ha avviato i test sulla Hull 096, la più grande nave elettrica a batteria al mondo. Con un sistema da 40 MWh e un'autonomia di 90 minuti, opererà come traghetto tra Argentina e Uruguay, ricaricandosi in soli 40 minuti. Ospita un totale di 5.016 batterie agli ioni di litio, con un sistema avanzato di raffreddamento ad aria.
~
Fonte: IEEE Spectrum
Alternativa in italiano: non pervenuta

Leggi tutto

Wikipedia chiede alle aziende di pagare per le sue API invece di usare i crawler


Intelligenza Artificiale
La Wikimedia Foundation esorta gli sviluppatori di intelligenza artificiale a usare responsabilmente i contenuti di Wikipedia, fornendo attribuzione e accedendo tramite la piattaforma a pagamento Wikimedia Enterprise. Questa mossa segue un calo del traffico dell'8% dovuto ai chatbot che ormai tengono tutti i dati in pancia e anche a disguidi dovuti all'alta connessione da parte di crawler AI.
~
Fonte: TechCrunch
Alternativa in italiano: non pervenuta

Leggi tutto

Perché è importante?

Perché spesso abbiamo parlato di quanto i più grandi LLM — come quelli di Meta, OpenAI e Google — abbiano addestrato in tempi in cui vigeva una totale anarchia. Wikipedia è certamente un portale unico nel suo genere, ma sono tanti in realtà i siti che ospitano tanto contenuto e che hanno chiuso le porte ai crawler, prediligendo un sistema di concessione dei dati a pagamento e risultando inermi di fronte al calo di traffico sulle proprie pagine.

Letture interessanti


In lingua inglese.

I bambini geneticamente modificati sono vietati. I giganti tech stanno comunque cercando di crearne uno.


wsj.com (eng)

Dentro Cursor


joincolossus.com (eng)

Un milione di lavoratori nel settore AI in Cina contro i 20mila americani


entropytown.com (eng)

Viaggiare su un robotaxi cinese è piuttosto fluido, ed è un problema per Waymo


wsj.com (eng)

Notizie veloci


In lingua inglese.

Blue Origin “sposterà cielo e terra” per aiutare la NASA a raggiungere la Luna più velocemente, afferma il CEO


arstechnica.com (eng)

La Cina costringe Apple a rimuovere le app di incontri gay più popolari


9to5mac.com (eng)

La fotocamera selfie trasparente "under-display" e il Face ID sono stati posticipati al 2027


appleinsider.com (eng)

Nuovo leak conferma che Google Gemini 3 Pro e Nano Banana 2 potrebbero essere lanciati presto


bleepingcomputer.com (eng)

Video del giorno

youtube.com/embed/ZwGT4kF54N8?…

Evan Spiegel per Bloomberg


Evan Spiegel, founder di SnapChat, è uno degli imprenditori più brillanti del panorama tech mondiale. Molti sanno che ultimamente si è buttato su uno dei trend più crescenti e importanti del nostro settore, cioè gli smart glasses. In questa intervista ne parla con Emily Chang di Bloomberg.

Vedi video su youtube.com (eng - 24:01)

Unisciti


I tuoi 5 minuti di notizie tech ogni giorno

Iscriviti
Email sent! Check your inbox to complete your signup.

No spam. Cancellati quando vuoi.


La mia storia
Morning Tech non è solo un progetto editoriale. È il risultato di tentativi, passioni, errori e scoperte. In questa email ti porto un po’ dietro le quinte, tra le righe della mia storia.
Morning TechAmir Ati


I primi 10 mesi di Morning Tech
Leggo molti commenti sui social in cui vi rivolgete a Morning Tech usando il “voi”, ma la verità è che ci sono solo io dietro. Buon inizio di anno nuovo, ho iniziato a scrivere questo post il 30 dicembre e oggi, il 2 gennaio, lo sto ancora aggiustando. Com’è andata
Morning TechAmir Ati


Si può fare Morning Tech da soli?
Fino a prova contraria.
Morning TechAmir Ati


Come selezioniamo le notizie?

Ogni notizia crea migliaia di articoli speculativi. Morning Tech si occupa di trovare il fatto originale e di riportartelo con un riassunto e una narrativa imparziale. Tutte le fonti sono validate tramite bias-checker e risultano positive ai controlli di fact-checking degli ultimi cinque anni.

Che vuol dire essere indipendenti?

Morning Tech sopravvive anche grazie agli sponsor della newsletter ma questi non hanno alcuna influenza sulla selezione editoriale. Abbiamo deciso di dire no agli investitori in modo da mantenere una voce disinteressata e a servizio dell'informazione. Andiamo avanti grazie al tuo supporto. Fatti sentire.


Sono trapelate informazioni e render del Samsung Galaxy S26 Plus


In breve:


Il Samsung Galaxy S26 Plus era stato dato per cancellato a favore di un modello Edge, ma invece è previsto per il lancio a inizio 2026. Lo spessore di 7.35mm del Plus e le previsioni per il modello base suggeriscono un allontanamento di Samsung dai telefoni ultrasottili, nonostante voci su un nuovo Edge "More Slim" siano ancora presenti. Sull'articolo originale sono disponibili i render.

Riassunto completo:


  • Il Samsung Galaxy S26 Plus, inizialmente creduto cancellato a favore di un modello Edge, sembra essere di nuovo in programma per il lancio, previsto per inizio 2026.
  • Nuovi render basati su specifiche trapelate mostrano il design del S26 Plus, con la principale modifica concentrata sull'isola della fotocamera.
  • L'isola della fotocamera è ora posizionata direttamente sotto le tre lenti, un design diverso da quello a tutta larghezza precedentemente ipotizzato per il modello Edge.
  • La linea S26 di Samsung ha subito diverse modifiche nelle previsioni; modelli come l'S26 Pro e l'S26 Edge, precedentemente considerati, ora sembrano essere stati accantonati.
  • Lo spessore del S26 Plus sarà di circa 7.35mm, simile al S25 Plus, e significativamente più spesso del S25 Edge, che misurava 5.8mm.
  • Anche il Galaxy S26 standard è previsto più spesso, con 7.24mm, indicando un possibile allontanamento di Samsung dalla tendenza dei telefoni più sottili, avviata con il primo Edge.
  • Tuttavia, Galaxy Club, un fansite olandese, ha riportato che un altro modello Edge, con nome in codice "More Slim", è ancora in sviluppo.

Questo testo è un riassunto del seguente articolo (eng):

Samsung Galaxy S26 Plus reappears in renders with a new camera island
Samsung is playing it safe again.
The VergeDominic Preston


Alternativa in italiano:

Galaxy S26: debutto anticipato e design più sottile, mentre l’Ultra sarà molto più costoso, secondo un leak
Secondo le ultime indiscrezioni, il modello base del Galaxy S26 potrebbe arrivare in anticipo e con un design leggermente più sottile, mentre la versione Ultra dovrebbe essere molto più costosa.
Multiplayer.itStefania Netti