freezonemagazine.com/news/anto…
La Antone’s Records compie 50 anni quest’anno, e per celebrarne la ricorrenza questa pubblicazione appare un po come “l‘ultimo vero album di Texas Blues”. L’album presenta un sorprendente assortimento di artisti che coverizzano, suonano e reinterpretano un catalogo di canzoni classiche del blues. Registrato
Perché xAi di Musk ha bisogno di tanti soldi
L'articolo proviene da #StartMag e viene ricondiviso sulla comunità Lemmy @Informatica (Italy e non Italy 😁)
xAi, la startup di intelligenza artificiale di Elon Musk, sta cercando di raccogliere nuovi finanziamenti per 4,3 miliardi di dollari, in aggiunta a un'operazione sul debito da 5 miliardi. L'azienda spende 1 miliardo al mese, ma le entrate sono ancora
Informatica (Italy e non Italy 😁) reshared this.
Anubis Ransomware: Ora Distrugge i File! Se non paghi e non li cacci dalla rete, cancellano tutto
Il ransomware Anubis ha acquisito la funzionalità di cancellazione dei dati ed è ora in grado di distruggere i file presi di mira.
Anubis è stato individuato per la prima volta dagli specialisti della sicurezza informatica nel dicembre 2024 e ha iniziato a mostrare attività all’inizio di quest’anno. Come riportato all’epoca dagli analisti di F6, i creatori di Anubis offrivano ai loro partner tre diversi schemi di attacco: Anubis Ransomware, Anubis Data Ransom e Access Monetization. Di conseguenza, i partner del gruppo potevano ricevere fino all’80% dei “ricavi” ottenuti tramite gli attacchi.
Come hanno ora segnalato gli esperti di Trend Micro, gli autori di Anubis stanno attivamente migliorando il loro malware e lavorando all’aggiunta di nuove funzionalità, una delle quali è la funzione di distruzione dei file.
I ricercatori ritengono che la funzionalità di cancellazione dei dati, recentemente introdotta, venga utilizzata per esercitare ulteriore pressione sulle vittime affinché paghino più rapidamente anziché ritardare o ignorare le negoziazioni con gli aggressori.
Anubis è molto diverso dagli altri RaaS e utilizza una funzionalità di distruzione dei file progettata per ostacolare qualsiasi tentativo di recupero anche dopo la crittografia
spiega Trend Micro. “Questa tattica distruttiva aumenta la pressione sulle vittime e aumenta la posta in gioco di un attacco già devastante.”
Il wiper viene attivato utilizzando il parametro della riga di comando /WIPEMODE, che richiede l’autenticazione basata su chiave. Una volta attivato, tutto il contenuto dei file viene cancellato, le loro dimensioni vengono ridotte a 0 KB e i nomi e la struttura rimangono intatti. In altre parole, la vittima sarà ancora in grado di visualizzare tutti i file, ma il loro contenuto verrà distrutto in modo irreversibile e il ripristino sarà impossibile.
L’analisi di Trend Micro ha inoltre dimostrato che Anubis supporta diversi comandi al momento dell’avvio, tra cui comandi di escalation dei privilegi, l’esclusione di determinate directory e la specifica di percorsi di destinazione per la crittografia. Inoltre, il malware elimina le copie shadow del volume e termina processi e servizi che potrebbero interferire con il ransomware.
Viene utilizzato ancora ECIES (un algoritmo di crittografia basato su curve ellittiche), il che è piuttosto raro. Nel loro rapporto, gli esperti sottolineano la somiglianza di questa implementazione con i malware EvilByte e Prince.
L'articolo Anubis Ransomware: Ora Distrugge i File! Se non paghi e non li cacci dalla rete, cancellano tutto proviene da il blog della sicurezza informatica.
Iron Nitride Permanent Magnets Made With DIY Ball Mill
Creating strong permanent magnets without using so-called rare earth elements is an ongoing topic of research. An interesting contestant here are iron nitride magnets (α”-Fe16N2), which have the potential to create permanents magnets on-par with with neodymium (Nd2Fe14B) magnets. The challenging aspect with Fe-N magnets is their manufacturing, with recently [Ben Krasnow] giving it a shot over at the [Applied Science] YouTube channel following the method in a 2016 scientific paper by [Yanfeng Jiang] et al. in Advanced Engineering Materials.
This approach uses a ball mill (like [Ben]’s planetary version) with ammonium nitrate (NH4NO3) as the nitrogen source along with iron. After many hours of milling a significant part of the material is expected to have taken on the α”-Fe16N2 phase, after which shock compaction is applied to create a bulk magnet. After the ball mill grinding, [Ben] used a kiln at 200°C for a day to fix the desired phase. Instead of shock compaction, casting in epoxy was used as alternative.
We have covered Fe-N magnets before, along with the promises they hold. As one can see in [Ben]’s video, oxidation is a big problem, with the typical sintering as with other magnet types not possible either. Ultimately this led to the resulting magnet being fairly weak, with a DIY magnetometer used to determine the strength of the created magnet.
Interestingly, there’s a much newer paper by [Tetsuji Saito] et al. from 2024 in Metals that does use sintering, specifically spark plasma sintering with dynamic compression (SPS-DC). SPS-DC can be done at fairly low temperatures (373 – 573 K, or 99.85 – 299.85 °C), producing much stronger magnets than [Ben] accomplished.
Although Fe-N magnets hold a lot of promise, they have lower coercivity. This means that they demagnetize easier, which is another aspect that weighs against them. For now it would seem that we aren’t quite ready to say farewell to Nd-Fe-B magnets.
youtube.com/embed/M6XIgdS1rzs?…
Passare a Windows 11 è più semplice con Windows Migration. La fine di Windows 10 è già arrivata
Integrato in Windows Backup, consente di abbandonare l'edizione 10 e trasferire dati e impostazioni. (ZEUS News)ZEUS News
informapirata ⁂ reshared this.
Perché il ceo di Spotify investe sulla startup della difesa tedesca Helsing?
L'articolo proviene da #StartMag e viene ricondiviso sulla comunità Lemmy @Informatica (Italy e non Italy 😁)
La startup tedesca della difesa Helsing ha raccolto 600 milioni di euro nell'ultimo round di investimenti guidatO da Prima materia, la società di investimento di Daniel Ek,
Informatica (Italy e non Italy 😁) reshared this.
#Maturità2025, la chiave ministeriale per aprire il plico telematico della seconda prova scritta, è disponibile sul sito del #MIM.
La trovate qui ▶️ mim.gov.it/web/guest/-/esami-d…
Ministero dell'Istruzione
#Maturità2025, la chiave ministeriale per aprire il plico telematico della seconda prova scritta, è disponibile sul sito del #MIM. La trovate qui ▶️ https://www.mim.gov.it/web/guest/-/esami-di-stato-seconda-prova-scritta #MIMaturoTelegram
Il mercato premia Amd nella sfida a Nvidia sull’intelligenza artificiale
L'articolo proviene da #StartMag e viene ricondiviso sulla comunità Lemmy @Informatica (Italy e non Italy 😁)
Le nuove tecnologie per l'intelligenza artificiale presentate da Amd convincono il mercato: la società di semiconduttori guidata da Lisa Su schizza in borsa e rafforza la sua posizione nei confronti di startmag.it/innovazione/amd-he…
Informatica (Italy e non Italy 😁) reshared this.
Preludio al ransomware: In vendita gli accessi a un’azienda italiana del settore retail di gioielli e orologi
Nel noto marketplace underground Exploit.in, il threat actor chestniybro ha messo all’asta un accesso RDP a una non meglio identificata azienda italiana operante nel settore retail di gioielli e orologi.
Secondo il post pubblicato dal venditore, l’azienda presenta un fatturato superiore ai 20 milioni di dollari, impiega oltre 250 dipendenti, e protegge la propria infrastruttura con l’antivirus CrowdStrike Falcon, uno dei più noti strumenti EDR in ambito enterprise.
Inoltre, l’infrastruttura tecnica compromessa sarebbe composta da più di 350 host distribuiti su 5 data center, un dato che lascia intuire una realtà aziendale di dimensioni non trascurabili.
L’accesso offerto è di tipo RDP con privilegi di Domain User, il che lo rende potenzialmente utile a gruppi ransomware per movimenti laterali o escalation di privilegi. Il prezzo di partenza dell’asta è 1.000 dollari, con rilanci da 100 e un “Buy Now” a 1.400 dollari.
Non è la prima volta che aziende italiane finiscono nel mirino dei cyber criminali. In passato abbiamo documentato la vendita di accessi simili a realtà dei settori industriale, logistico e sanitario. Tuttavia, l’interesse verso il mondo del retail di fascia alta evidenzia una diversificazione degli obiettivi da parte dei threat actors, forse attratti dal valore dei dati, dalle potenziali frodi finanziarie o dalla capacità di pagare riscatti.
La presenza di una soluzione EDR avanzata come CrowdStrike Falcon non ha impedito la compromissione, il che potrebbe indicare una cattiva configurazione, l’assenza di segmentazione di rete o l’uso di credenziali valide ottenute tramite phishing, infostealer o insider.
Secondo i dati disponibili, l’account chestniybro è attivo dal 2017, ha pubblicato 13 post ed è identificato con il badge “Autogarant 1”, ovvero una vendita andata a buon fine con garanzia del servizio escrow del forum, elemento che potrebbe incentivare l’acquisto da parte di attori ransomware-as-a-service. Degno di nota anche il fatto che, negli ultimi giorni, lo stesso utente ha messo in vendita ben otto accessi analoghi riferiti ad aziende di diversi Paesi, tra cui Stati Uniti e Australia
Questa ennesima vendita di accessi a infrastrutture italiane evidenzia come il mercato dell’inizial access sia ormai una componente chiave dell’ecosistema cyber criminale. Monitorare queste attività, intervenire rapidamente su eventuali segnali di compromissione e rafforzare le difese proattive rimane essenziale per proteggere il tessuto economico nazionale.
L'articolo Preludio al ransomware: In vendita gli accessi a un’azienda italiana del settore retail di gioielli e orologi proviene da il blog della sicurezza informatica.
Implementazione di Modelli Multimodali con LLaVA
Negli ultimi due anni ho lavorato principalmente con large language models, occupandomi di training, fine-tuning, prompting e così via, poiché era molto richiesto dal mercato e dagli utenti. Ma credo che gli LLM che lavorano principalmente con il testo siano solo l’inizio della GenAI. A un certo punto, tutti vorranno un’AI fisica, in cui i modelli possano vedere, sentire, percepire e ragionare in modo più concreto e umano.
Quindi iniziamo con la multimodalità. In questo notebook introduco LLaVA, un’architettura in grado di interpretare sia immagini che testo per generare risposte multimodali.
In questo tutorial utilizzeremo componenti più leggeri, adatti a far girare il notebook in un ambiente gratuito come Google Colab.
I componenti che utilizzeremo sono:
1️⃣ CLIP-ViT B/32 come image encoder
2️⃣ TinyLlama-1.1B come language model
3️⃣ Un MLP adapter a 2 layer per collegare i due modelli
Dal paper Visual Instruction Tuning (NeurIPS 2023)
Setup
Prima di inziare a scrivere codice dobbiamo creare il nostro environment.
Installiamo e importiamo le librerie necessarie.
!pip install -U datasets
import json
from pathlib import Path
import requests
import safetensors
import torch
from datasets import load_dataset
from huggingface_hub import hf_hub_download
from PIL import Image
from transformers import (
AutoConfig,
AutoTokenizer,
LlamaTokenizer,
LlavaConfig,
LlavaForConditionalGeneration,
LlavaProcessor,
Seq2SeqTrainer,
Seq2SeqTrainingArguments,
)
from transformers.models.clip.modeling_clip import CLIPVisionModel
from transformers.models.clip.image_processing_clip import CLIPImageProcessor
Download dei componenti pre-addestrati
Il nostro modello LLaVA sarà composto da :
- Un encoder pre-addestrato CLIP openai/clip-vit-base-patch32
- Un decoder pre-addestrato Tiny LLaMA TinyLlama/TinyLlama-1.1B-Chat-v1.0
- Due layer MLP tra i due che usiamo per il mapping delle dimensioni
vision_backbone_name = "openai/clip-vit-base-patch32"
text_backbone_name = "TinyLlama/TinyLlama-1.1B-Chat-v1.0"
_ = hf_hub_download(
vision_backbone_name, filename="pytorch_model.bin", local_dir="/content"
)
_ = hf_hub_download(
text_backbone_name, filename="model.safetensors", local_dir="/content"
)
Modello
Instanziamo un nuovo modello LLaVA
vision_config = AutoConfig.from_pretrained(vision_backbone_name).vision_config
text_config = AutoConfig.from_pretrained(text_backbone_name)
llava_config = LlavaConfig(vision_config=vision_config, text_config=text_config)
model = LlavaForConditionalGeneration(llava_config).cuda()
model
E’ ora di fare qualche modifica interna al nostro modello
In precedenza abbiamo detto che è possibile costruire un modello LLaVA partendo da un image encoder pre-addestrato e un LLM pre-addestrato. Facciamolo davvero!
Il modello originale di LLaVA è inizializzato a partire da un CLIP-ViT L/14 e un Vicuna v1.5 7B. Per rendere il tutto più gestibile con le risorse offerte dal piano gratuito di Google Colab, utilizzeremo invece un CLIP-ViT B/16 e un TinyLlama 1.1B.
L’unico componente che addestreremo sarà un MLP adapter a 2 layer che collega i due modelli.
def load_weights(path_to_weights: str):
if path_to_weights.endswith(".safetensors"):
return load_safetensors_weights(path_to_weights)
elif path_to_weights.endswith(".bin"):
return load_bin_weights(path_to_weights)
else:
raise ValueError(f"Unsupported weights file: {path_to_weights}")
def load_bin_weights(path_to_weights: str):
return torch.load(path_to_weights, weights_only=True)
def load_safetensors_weights(path_to_weights: str):
return safetensors.torch.load_file(path_to_weights)
vision_backbone_state_dict = load_weights("/content/pytorch_model.bin")
text_backbone_state_dict = load_weights("/content/model.safetensors")
Iniettiamo i pesi del vision backbone nel modello 💉
incompatible_keys = model.vision_tower.load_state_dict(
vision_backbone_state_dict, strict=False
)
assert len(incompatible_keys.missing_keys) == 0, (
f"Missing keys in state dict: {incompatible_keys.missing_keys}"
)
incompatible_keys.unexpected_keys
Iniettiamo i pesi del text backbone nel modello 💉
incompatible_keys = model.language_model.load_state_dict(
text_backbone_state_dict, strict=True
)
Congeliamo i componenti pre-addestrati ❄️
_ = model.vision_tower.requires_grad_(False)
_ = model.language_model.requires_grad_(False)
def count_parameters(model, trainable_only=False):
return sum(
p.numel()
for p in model.parameters()
if not trainable_only or p.requires_grad
)
print(f"Total parameters: {count_parameters(model)}")
print(f"Trainable parameters: {count_parameters(model, trainable_only=True)}")
Processor
tokenizer = LlamaTokenizer.from_pretrained(
text_backbone_name, additional_special_tokens=["", ""]
)
tokenizer.pad_token_id = 32001
Qui sotto è mostrato il formato che useremo per interagire con il nostro modello LLaVA.
La prima parte è il cosiddetto system prompt, che contiene linee guida generali su come il modello dovrebbe rispondere all’utente.
La seconda parte è un Jinja template (fondamentalmente codice) che determina come viene resa la conversazione a partire da un input strutturato (vedi esempio sotto).
LLAVA_CHAT_TEMPLATE = (
"A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions. "
"{% for message in messages %}{% if message['role'] == 'user' %}USER: {% else %}ASSISTANT: {% endif %}{% for item in message['content'] %}{% if item['type'] == 'text' %}{{ item['text'] }}{% elif item['type'] == 'image' %}{% endif %}{% endfor %}{% if message['role'] == 'user' %} {% else %}{{eos_token}}{% endif %}{% endfor %}"
)
tokenizer.chat_template = LLAVA_CHAT_TEMPLATE
sample_messages = [
{
"content": [
{
"index": 0,
"text": None,
"type": "image"
},
{
"index": None,
"text": "\nWhat potential activities might be popular at this location?",
"type": "text"
}
],
"role": "user"
},
{
"content": [
{
"index": None,
"text": (
"At this location, with a sandy path leading to the ocean where multiple boats, including "
"sailboats, are moored, popular activities might include boating, sailing, swimming, and "
"beachcombing. Additionally, the sandy path and shoreline provide an ideal setting for leisurely "
"strolls and picnics, while the ocean view offers a serene environment for relaxation and "
"photography. Depending on the specific area and available facilities, other water sports such as "
"kayaking, paddleboarding, and snorkeling could also be prevalent."
),
"type": "text"
}
],
"role": "assistant"
}
]
tokenizer.apply_chat_template(
sample_messages, tokenize=False, add_generation_prompt=False
)
processor = LlavaProcessor(
image_processor=CLIPImageProcessor.from_pretrained(vision_backbone_name),
tokenizer=tokenizer,
patch_size=model.config.vision_config.patch_size,
)
processor.chat_template = LLAVA_CHAT_TEMPLATE
model.resize_token_embeddings(len(tokenizer), pad_to_multiple_of=8)
Dataset
train_dataset = load_dataset(
"HuggingFaceH4/llava-instruct-mix-vsft", split="train", streaming=True
)
Come sono fatti in nostri dati di training?
next(iter(train_dataset))
Come creiamo un batch di esempio?
def get_data_collator(processor, ignore_index):
def collate_examples(examples):
# Extract texts and images from the raw examples
texts =
[] images =
[] for example in examples:
messages = example["messages"]
text = processor.tokenizer.apply_chat_template(
messages, tokenize=False, add_generation_prompt=False
)
texts.append(text)
images.append(example["images"][0])
# Process the inputs (tokenize text and transform images)
batch = processor(texts, images, return_tensors="pt", padding=True)
# Create labels
labels = batch["input_ids"].clone()
if processor.tokenizer.pad_token_id is not None:
labels[labels == processor.tokenizer.pad_token_id] = ignore_index
batch["labels"] = labels
return batch
return collate_examples
# NOTE: this does a bit more than a collate function should...
Training
args = Seq2SeqTrainingArguments(
output_dir="/content/training_output",
per_device_train_batch_size=2,
gradient_accumulation_steps=4,
learning_rate=2e-4,
max_steps=350,
lr_scheduler_type="cosine_with_min_lr",
lr_scheduler_kwargs={"min_lr": 2e-5},
warmup_ratio=0.05,
logging_strategy="steps",
logging_steps=5,
fp16=True,
remove_unused_columns=False, # Important!
optim="adamw_torch",
report_to="none",
save_strategy="no", # let's not save the checkpoint to disk, otherwise it'll take 5 mins
)
trainer = Seq2SeqTrainer(
model=model,
args=args,
data_collator=get_data_collator(
processor, ignore_index=model.config.ignore_index,
),
train_dataset=train_dataset,
)
trainer.train()
Inferenza
È importante notare che, per garantire che l’inferenza funzioni come previsto, bisognerebbe utilizzare modelli più pesanti e addestrare per un periodo di tempo più lungo.
Useremo questa immagine per l’inferenza:
conversation = [
{
"content": [
{
"type": "image"
},
{
"text": "\nWhat is represented in the image?",
"type": "text"
}
],
"role": "user"
}
]
image_url = "https://llava-vl.github.io/static/images/monalisa.jpg"
inputs_for_generation = processor(
images=Image.open(requests.get(image_url, stream=True).raw),
text=processor.apply_chat_template(conversation, add_generation_prompt=True),
return_tensors="pt",
)
inputs_for_generation = inputs_for_generation.to(device=model.device)
output = trainer.model.generate(
**inputs_for_generation, max_new_tokens=200, do_sample=False
)
print(processor.decode(output[0], skip_special_tokens=True))
Miglioramenti possibili
- Utilizza un image encoder più grande (es. CLIP-ViT Large) e un LLM più potente (es. Llama 3.1 8B)
- Allena il modello più a lungo. Serve tempo affinché il modello impari a seguire le istruzioni in presenza di image features
- Segui la procedura di addestramento multi-stadio adottata dal LLaVA originale:
- Stage 1: Pre-training for Feature Alignment → addestra il modello su dati di istruzioni a singola interazione, dove viene chiesto di descrivere brevemente l’immagine. Image encoder e LLM sono congelati ❄️
- Stage 2: Fine-tuning End-to-End → addestra il modello su dati di istruzioni multi-turno. Solo l’image encoder rimane congelato ❄️
🔗 Demo funzionante: huggingface.co/spaces/badayvedat/LLaVA
Conclusioni
Penso che questo piccolo progetto sia interessante per capire meglio come funzionano i modelli multimodali come LLaVA. Anche se abbiamo utilizzato modelli più piccoli, l’idea principale rimane la stessa: combinare visione e linguaggio in un unico sistema capace di comprendere le immagini e parlarne.
Ovviamente, i risultati ottenuti in questo toy example non sono particolarmente buoni, c’è molto margine di miglioramento. Ma far funzionare LLaVA in un ambiente con risorse limitate è già di per sé una bella sfida.
L'articolo Implementazione di Modelli Multimodali con LLaVA proviene da il blog della sicurezza informatica.
#Iran, obiettivo BRICS
Iran, obiettivo BRICS
Donald Trump ha scaricato la consueta dose di minacce, promesse ed avvertenze all’indirizzo dell’Iran e dei suoi amici. Agli ayatollah ha chiesto una “resa incondizionata”, nemmeno fosse immerso in un film di cappa e spade.www.altrenotizie.org
Gas Burner Reuses Printer Nozzle For Metalwork
Even if you don’t cast or forge metal yourself, you’re probably aware that you need to get the material very, very hot to make that happen. While some smiths might still stoke coal fires, that’s a minority taste these days; most, like [mikeandmertle] use gas burners to generate the heat. Tired of expensive burners or finicky DIY options [mikeandmertle] built their own Better Burner out of easily-available parts.
Everything you need to make this burner comes from the hardware store: threaded iron pipes of various sizes, hoses and adapters– except for one key piece: a 3D printer nozzle. The nozzle is used here as the all-important gas jet that introduces flammable gas into the burner’s mixing chamber. A demo video below shows it running with a 0.3mm nozzle, which looks like it is putting out some serious heat, but [mikeandmertle] found that could go out if the breather was opened too wide (allowing too much air in the mixture). Eventually he settled on a 0.4mm nozzle, at least for the LPG that is common down under. If one was to try this with propane, their mileage would differ.
That’s the great thing about using printer nozzles, though: with a tapped M6 hole on the cap of the gas pipe serving as intake, one can quickly and easily swap jets without worrying about re-boring. Printer nozzles are machined to reasonable accuracy and you can get a variety pack with all available sizes (including ones so small you’re probably better off using resin) very cheaply.
These sorts of use-what-you-have-on-hand hacks seem to be [mikeandmertle]’s specialty– we’ve seen their PVC thumb nut and their very simple mostly-wooden wood lathe here before.
youtube.com/embed/SpwoR4yHE8U?…
Venezuela, a Urrutia il Premio Einaudi 2025. L’appello a Meloni della Fondazione Einaudi: “Riportiamo a casa Alberto Trentini”
@Politica interna, europea e internazionale
“Questo premio incarna i valori più profondi dell’Occidente, fondati sul principio della libertà individuale, ed è il riconoscimento della lotta instancabile
Politica interna, europea e internazionale reshared this.
Premio Luigi Einaudi 2025
@Politica interna, europea e internazionale
18 giugno 2025, ore 18:00 – Fondazione Luigi Einaudi, Via della Conciliazione, 10 – Roma La Fondazione Luigi Einaudi è lieta di annunciare la consegna del PREMIO LUIGI EINAUDI 2025 a Edmundo González Urrutia, Presidente eletto del Venezuela costretto all’esilio dalla giunta Maduro
L'articolo Premio Luigi Einaudi 2025 proviene da Fondazione Luigi
Politica interna, europea e internazionale reshared this.
La Gestapo del presidente
La Gestapo del presidente
All’elenco degli arresti di oppositori dell’amministrazione Trump si è aggiunto questa settimana un altro nome eccellente dopo i casi documentati nelle scorse settimane in varie parti degli Stati Uniti.www.altrenotizie.org
Dopo Maxar, anche Anduril sbarca in Europa. Ecco l’intesa con Rheinmetall
@Notizie dall'Italia e dal mondo
L’integrazione dell’Intelligenza Artificiale nelle operazioni militari è divenuta una priorità strategica per le forze armate a livello globale, che ripongono nella disponibilità di sistemi autonomi ed a pilotaggio remoto e nell’IA due vantaggi competitivi cruciali per il
Notizie dall'Italia e dal mondo reshared this.
Le Bourget 2025, l’Italia dello spazio e della difesa gioca in attacco
@Notizie dall'Italia e dal mondo
A Le Bourget, l’Italia mette in scena non solo le sue capacità industriali, ma una visione strategica integrata che lega politica spaziale, cooperazione europea e innovazione tecnologica. La visione dei player e delle istituzioni italiane è chiara, planare dal Salone per disegnare
Notizie dall'Italia e dal mondo reshared this.
Daniel Ek arma l’Europa. 600 milioni per i droni di Helsing
@Notizie dall'Italia e dal mondo
Quello dei droni non è un fenomeno che sta impattando nel profondo solo la dimensione bellica, ma anche quella economica. Infatti in funzione della crescita di domanda registrata negli scorsi anni, che non sembra affatto destinata a rallentare nel breve periodo, esso rappresenta anche un’occasione di
Notizie dall'Italia e dal mondo reshared this.
I valutatori sono solo un generatore di burocrazia e quando vengono valutati, non fanno mai una bella figura. Il caso dell’HCERES, l’organismo francese di valutazione universitaria appena abolito
"L’Assemblea Nazionale ha votato giovedì scorso per abolire l’Alto Consiglio responsabile della valutazione del lavoro accademico, un organismo a lungo criticato da parte della comunità scientifica. La ricercatrice Clémentine Gozlan spiega la situazione."
roars.it/perche-e-stato-abolit…
Grazie a @Maria Chiara Pievatolo per la segnalazione
reshared this
Informa Pirata likes this.
reshared this
Universitaly: università & universitari reshared this.
Maturità 2025: pubblicate le tracce della prima prova sul sito del Ministero
Sul sito del Ministero dell’Istruzione e del Merito sono state pubblicate le tracce della prima prova scritta dell’Esame di Stato del secondo ciclo di istruzione.
Scuola - Gruppo Forum reshared this.
Fortuna
Trump invece ha manie di grandezza, è convinto di poter fare tutto e che tutto gli sia dovuto, temo soffra un pochino di megalomania, ma si sa, gli americani fanno tutto in grande anche le stronzate.
Airlines selling detailed flight data to DHS; how AI scrapers are hammering open archives; and the casual surveillance relationship between ICE and local cops.#Podcast
Povero futuro.
La povertà aumenta, in Italia, in Europa.
Ovunque.
Togliere la dignità alle persone sembra l'idea di molti Governi.
🖊 Le tracce ufficiali della #Maturità2025 sono disponibili sul sito del #MIM.
Le trovate qui ▶ mim.gov.it/web/guest/-/-maturi…
Voi quale avreste scelto?
Ministero dell'Istruzione
🖊 Le tracce ufficiali della #Maturità2025 sono disponibili sul sito del #MIM. Le trovate qui ▶ https://www.mim.gov.it/web/guest/-/-maturita2025-sul-sito-del-ministero-pubblicate-le-tracce-della-prima-prova Voi quale avreste scelto?Telegram
reshared this
informapirata ⁂ reshared this.
Alessandra Maiorino (M5S) a TPI: “Quest’Europa è irriconoscibile: dimentica i diritti e spreca 800 miliardi in armi”
@Politica interna, europea e internazionale
Senatrice Alessandra Maiorino, oggi l’evento “UNITE”, promosso dal comitato Politiche di Genere e Diritti Civili del M5S, arriva alla sua seconda edizione: quali sono gli obiettivi? «Abbiamo dato vita al
Politica interna, europea e internazionale reshared this.
I primi 100 giorni di Orsi in Uruguay: tra continuità, delusione e poco coraggio
@Notizie dall'Italia e dal mondo
Tra riforme minime, scarsa comunicazione e silenzi su temi internazionali cruciali, il nuovo governo del Frente Amplio fatica a imprimere una svolta.
L'articolo I primi 100 giorni di Orsi in Uruguay: tra continuità, delusione e poco coraggio
Notizie dall'Italia e dal mondo reshared this.
La chiave ministeriale, per aprire il plico telematico della prima prova scritta, è disponibile sul sito del #MIM.
La trovate qui ▶️ mim.gov.it/web/guest/-/esami-d…
È iniziata la #Maturità2025!
Ministero dell'Istruzione
La chiave ministeriale, per aprire il plico telematico della prima prova scritta, è disponibile sul sito del #MIM. La trovate qui ▶️ https://www.mim.gov.it/web/guest/-/esami-di-stato-prima-prova-scritta È iniziata la #Maturità2025! #MIMaturoTelegram
Sam Altman contro tutti: il ragazzo prodigio di OpenAI si ribella a Microsoft (e ne ha pure per Meta)
L'articolo proviene da #StartMag e viene ricondiviso sulla comunità Lemmy @Informatica (Italy e non Italy 😁)
Microsoft avrebbe investito finora in OpenAi almeno 19 miliardi di dollari, ma Sam Altman reclama più spazio e maggiore indipendenza. La geografia della software house sarà ridisegnata con la
Informatica (Italy e non Italy 😁) reshared this.
bubu
in reply to simona • • •Salvatore Noschese 🇮🇹
in reply to simona • • •simona
in reply to simona • •simona
in reply to simona • •