Salta al contenuto principale


Economia politica e intelligenza artificiale: tra innovazione e incertezza



Sebbene in alcuni ambienti le aspettative nei confronti della rivoluzione dell’intelligenza artificiale (IA) restino elevate, esse rimangono per ora in gran parte speculative, perché molte delle sue conseguenze concrete non saranno osservabili finché tale rivoluzione non si sarà effettivamente realizzata. In che misura l’IA cambierà il mondo? Introdurrà nuovi modelli di potere politico, sociale ed economico, oppure rafforzerà quelli precedenti? In che modo le autorità politiche gestiranno e governeranno tali cambiamenti, ammesso che lo facciano?

Nessuno conosce le risposte a queste domande, e la società umana si trova in un momento di forte incertezza. Comunque, indipendentemente dalle future conseguenze effettive dell’IA, la semplice prospettiva di tali trasformazioni mette in evidenza una questione fondamentalmente antropologica: «[L’IA] verrà programmata per affiancare, appoggiare e potenziare l’uomo o per sostituirlo?»[1].

In questo senso, la posta in gioco è elevata non solo in relazione alle sfide etiche, sociali, politiche ed economiche poste dall’IA, ma anche in relazione al modo in cui tali sfide vengono integrate in una prospettiva che tenga in serio conto le questioni fondamentali dell’antropologia teologica. I fattori sociali, economici e politici in gioco non soltanto sono profondamente interconnessi, ma possiedono essi stessi una dimensione intrinsecamente etica[2].

La rivoluzione dell’IA e le narrazioni politiche


In molte parti del mondo cresce il timore che l’IA stia alimentando una bolla economica destinata prima o poi a scoppiare. Questa preoccupazione emerge in un contesto già complesso, nel quale l’inflazione e la debolezza dei mercati del lavoro s’intrecciano con l’incertezza riguardo alla politica degli Stati Uniti sui dazi e con i delicati negoziati di pace tra Ucraina e Russia. Secondo questa lettura, la crescita speculativa del settore dell’IA starebbe sostenendo, e al tempo stesso occultando, la realtà di un’economia in difficoltà.

Il dibattito sull’esistenza di una simile bolla mette in luce molte delle dinamiche comuni a numerose discussioni sull’IA: una divisione tra gli «ottimisti dell’IA», che offrono descrizioni idilliache di un futuro paradisiaco che essa renderà possibile, e i «catastrofisti dell’IA», che in quel futuro vedono sostanzialmente una distopia. Tra queste due posizioni, ciascuna delle quali ostenta grande sicurezza, si colloca l’incertezza.

I principali elementi a sostegno della tesi catastrofista che teme una bolla economica sono sostanzialmente i seguenti: l’impennata dei prezzi delle azioni delle società di IA; i consistenti capitali raccolti da nuove imprese di IA tramite il venture capital («investimento in capitale di rischio»)[3] e altre fonti; il crescente ricorso a complessi strumenti finanziari titolarizzati per finanziare gli investimenti in IA; i tassi di investimento in imprese di IA da parte di altre imprese di IA; e i dubbi sulla capacità di tali aziende di generare profitti. Per quanti nutrono queste preoccupazioni, il boom dell’IA è un vero e proprio «castello di carte»[4].

Per gli ottimisti che respingono tali timori, tra i dati rilevanti da considerare rientrano i flussi di ricavi che le imprese di IA hanno già creato; gli investimenti che stanno alimentando la capacità di calcolo e di produzione di chip; e l’integrazione dell’IA in un’ampia gamma di settori industriali, alcuni dei quali hanno già registrato significativi aumenti di produttività.

Tuttavia, se l’IA dovesse effettivamente produrre i diffusi cambiamenti socioeconomici che molti prevedono, i suoi effetti non sarebbero prevalentemente positivi o negativi, ma piuttosto darebbero luogo a un ventaglio eterogeneo di esiti favorevoli e sfavorevoli. Così, l’economista e blogger Tyler Cowen sostiene che la realtà economica si colloca a metà strada tra questi due estremi. Afferma che la nozione di «bolla» non è utile per descrivere la situazione economica attuale, ma che non mancheranno certamente degli ostacoli lungo il cammino[5]. Poiché l’IA è una tecnologia relativamente nuova, non sorprenderebbe se molte delle imprese che vi sono associate fallissero, o quantomeno registrassero perdite, alcune delle quali molto sensibili. Anche se si dovesse verificare una qualche forma di correzione del mercato, ciò non significherebbe che l’IA scomparirà dall’economia[6]. Di conseguenza, l’incertezza circa il suo futuro potere di trasformazione continuerà a essere rilevante per comprendere il settore tecnologico, la geopolitica che ne condiziona l’ascesa e che a sua volta è condizionata da essa e le dinamiche politiche interne che cercano di fare i conti con il suo impatto imprevedibile sulla politica nazionale e sull’opinione pubblica.

Monopoli e mercato dell’intelligenza artificiale


L’intreccio tra politica, economia ed etica, nel contesto delle incertezze legate all’innovazione tecnologica e ai suoi effetti, emerge con particolare evidenza in qualsiasi analisi riguardante la struttura di questo mercato.

Secondo la maggior parte degli indicatori, l’industria dell’IA è concentrata in un numero ristretto di imprese. Nell’ambito dell’hardware, della potenza di calcolo, dei modelli di IA, dei dati e dei brevetti, il settore è dominato da un numero relativamente esiguo di aziende, e ciò solleva interrogativi sia sulla competitività del mercato sia sulla vulnerabilità di un’industria concentrata in così poche mani. In effetti, sette delle principali imprese del settore, comunemente denominate Magnificent Seven, erano già grandi e influenti prima che il mercato dell’IA iniziasse a prendere slancio: Amazon, Alphabet (Google), Apple, Meta (Facebook), Microsoft, Nvidia e Tesla. Esse figurano oggi tra le prime 10 società con la maggiore capitalizzazione di mercato a livello mondiale.

Nvidia, per esempio, che detiene la più alta capitalizzazione di mercato tra tutte le imprese globali, esercita un controllo schiacciante sul mercato delle GPU (Graphics Processing Unit, «Unità di elaborazione grafica»), stimato da alcune analisi fino al 94%[7]. La GPU è un tipo specializzato di chip semiconduttore che è essenziale per molte delle funzioni svolte dall’IA. Il predominio di Nvidia è favorito dall’uso diffuso della sua piattaforma CUDA, che supporta l’impiego dei suoi chip[8].

Iscriviti alla newsletter


Leggie ascolta in anteprima La Civiltà Cattolica, ogni giovedì, direttamente nella tua casella di posta.

Iscriviti ora

Cinque imprese dominano il mercato delle infrastrutture cloud[9] e, secondo un rapporto di settore, «AWS [Amazon Web Services], Microsoft Azure e Google Cloud rappresentano insieme il 65% della spesa globale»[10]. Questo servizio costituisce la spina dorsale dell’IA. Ospitato nei data center, esso consente alle aziende di utilizzare la rete comunemente chiamata cloud senza dover gestire direttamente un proprio centro dati. Tuttavia, quando uno dei principali fornitori cloud subisce un’interruzione dei servizi, imprese e individui di tutto il mondo ne risentono in modo immediato e importante, come ad esempio nel caso del blackout del 20 ottobre 2025 che ha colpito AWS di Amazon[11].

Anche il mercato dell’IA generativa, che comprende grandi modelli linguistici come ChatGPT e Gemini, è dominato da un numero limitato di imprese e, secondo i dati del settore, «Nvidia, Microsoft, Google, OpenAI e AWS detengono insieme circa il 45-50% della quota di mercato dell’IA generativa»[12]. I dati illustrano un aspetto industriale che privilegia le grandi aziende tecnologiche già ampiamente diffuse, perché l’addestramento dei sistemi di IA richiede quantità enormi di informazioni[13]. L’assetto futuro della protezione dei dati e della privacy in tale contesto non è stato ancora pienamente definito[14].

Inoltre, lo stadio di sviluppo del settore dell’IA rimane controverso. Se essa viene intesa principalmente come un’ulteriore evoluzione delle tecnologie elettroniche dell’informazione che hanno guidato gran parte dello sviluppo economico dalla fine della Seconda guerra mondiale a oggi, allora è probabile che le grandi imprese storiche continuino a dominarne il mercato. Se, al contrario, l’IA dovesse determinare un autentico cambiamento di paradigma nelle capacità tecnologiche, essa non solo sconvolgerebbe molte imprese consolidate, ma potrebbe anche favorire la nascita di nuove imprese. Come affermava uno studio accademico del 2025, ci si dovrebbe attendere «una crescente pervasività e diffusione dell’innovazione dell’IA e l’emergere di un “regime imprenditoriale” nell’innovazione dell’IA»[15].

La rilevanza di questi monopoli va oltre l’ambito economico. Se l’IA è detenuta da un numero ristretto di aziende, queste acquisiscono un potere che pochi Stati sarebbero in grado di governare o regolamentare. Inoltre, in quanto tecnologia generale e trasversale, l’IA ripropone una questione già sollevata da Internet: porterà a un’informazione sempre più distorta, o addirittura a forme deliberate di manipolazione? In molti casi, gli incentivi saranno di natura economica: omologare i formati dei contenuti, adattarsi ai meccanismi di filtraggio, mantenere rapporti favorevoli con governi desiderosi di controllare l’informazione e, in ultima analisi, capitalizzare alcuni degli istinti umani più bassi, come la violenza e il sesso.

In molti casi, i travisamenti non riguarderebbero soltanto quelli più evidenti legati a nazione, ideologia o cultura, ma anche i particolari presupposti antropologici incorporati negli algoritmi dell’IA. Il controllo dei contenuti da parte di poche aziende aggrava il problema della riduzione della «conoscenza» a ciò che può essere compreso attraverso la sola ragione scientifica e reso accessibile ai computer attraverso il codice, nonché la limitata capacità dell’IA di riconoscere deviazioni patologiche rispetto anche a quel razionalismo riduttivo, come le teorie del complotto, le ideologie violente e le fake news. Ovviamente, anche in un mercato più competitivo, l’ascesa dell’IA solleverebbe interrogativi su che cosa debba essere considerato conoscenza, pensiero e, in ultima analisi, verità, e sul concetto stesso della persona umana. Come gli esseri umani plasmano gli strumenti, così inevitabilmente gli strumenti «plasmano» gli esseri umani.

Le condizioni di tipo monopolistico aggravano la questione riguardante chi deve decidere come l’IA debba essere utilizzata, da chi e a beneficio di chi. Il documento della Santa Sede sull’intelligenza artificiale Antiqua et Nova fa notare che l’IA ha il potenziale di rimodellare la società umana in un’ampia gamma di ambiti: dalla politica alla vita sociale, dall’economia alla sanità, dai conflitti armati fino al rapporto dell’uomo con Dio. In altri termini, le imprese che operano nel campo dell’IA non devono soltanto resistere alla tentazione umana di «giocare a fare Dio», ma devono esercitare questa resistenza nel contesto di una feroce competizione economica e di imperativi politici che le spingeranno a utilizzare ogni mezzo disponibile per prevalere in tali competizioni[16].

La geopolitica dell’intelligenza artificiale


Lo sviluppo di questi mercati non avviene nel vuoto: fattori politici condizionano, in modo più o meno deliberato, l’ascesa e il declino di tali imprese. In questo contesto si inseriscono dinamiche di rivalità geopolitica, che a loro volta si intrecciano con la crescente esigenza di cooperazione internazionale in materia di regolamentazione.

Proviamo ora a elencare le principali preoccupazioni regolative riguardanti l’IA: la concorrenza leale e le politiche antitrust; l’uso dei dati e la tutela della privacy; la sicurezza, inclusa la protezione dei consumatori dell’IA da pregiudizi algoritmici, abusi o incidenti; i meccanismi di responsabilità e di ricorso per i consumatori che subiscano danni derivanti dall’uso dell’IA; la regolamentazione energetica e ambientale legata alle ingenti esigenze infrastrutturali delle tecnologie di IA; e il modo in cui i legislatori gestiranno le differenze tra tecnologie di IA open source[17] e closed source, comprese le soluzioni ibride.

Divergenze su come affrontare tali sfide regolatorie sono già emerse, in particolare tra l’Unione europea e gli Stati Uniti. A questo proposito, va notato che l’Ue è rimasta un po’ indietro nello sviluppo dell’IA, ma ha adottato un approccio particolarmente incisivo nella sua regolamentazione. Gli Usa, al contrario, hanno in larga misura assunto una posizione «accelerazionista» nei confronti dell’IA, deregolamentando il mercato. Ciò risulta evidente, per esempio, negli approcci differenti delineati dall’EU AI Act e dall’America’s AI Action Plan[18]. Di conseguenza, i mercati europei hanno registrato una crescita più lenta nel settore dell’IA. Nel 2024, per esempio, le imprese statunitensi hanno creato 40 modelli di IA, mentre quelle dell’Unione europea soltanto tre[19]. Ciò nonostante, gli investimenti di venture capital nell’IA in Europa sono in aumento, e alcuni analisti ritengono che, a lungo termine, il mondo trarrà beneficio dai pioneristici sforzi regolamentatori di Bruxelles in questo campo, soprattutto quando le piattaforme di IA di successo commerciale – generalmente sviluppate altrove – saranno sempre più chiamate ad adeguarsi alle richieste europee in materia di sicurezza, privacy e trasparenza[20].

Oltre ai conflitti regolatori, anche la rivalità geopolitica più ampia tra Cina e Usa ha inciso in modo significativo sul mercato dell’IA. Negli Stati Uniti, il settore dell’IA è stato finanziato prevalentemente da capitali privati di venture capital, mentre in Cina gran parte della crescita è stata sovvenzionata e gestita direttamente dal governo. In questo contesto, per contrastare l’influenza cinese, gli Stati Uniti hanno coinvolto partner strategici nell’Asia orientale, come Giappone, Corea del Sud e Taiwan (quest’ultima al centro delle relazioni sino-statunitensi e della produzione globale di semiconduttori). Ma Usa e Cina sembrano talvolta perseguire obiettivi differenti. Gli Stati Uniti hanno privilegiato un modello di IA a sistema chiuso, in cui le imprese private sviluppano tecnologie con sistemi operativi in gran parte proprietari, e dunque riservati. Il settore dell’IA in Cina, al contrario, si è concentrato in larga misura su modelli a sistema aperto, che consentono agli utenti di leggere, copiare e modificare il codice alla base delle piattaforme.

Se Cina e Stati Uniti stanno perseguendo obiettivi diversi attraverso l’IA, allora, come scrive Michael Froman, presidente del Council on Foreign Relations, «la questione strategica è se, nel tempo, un’intelligenza diffusa attraverso l’economia fisica risulti più trasformativa della saggezza di un futuro “ChatGPT-15”». È possibile che i differenti approcci delle grandi potenze all’IA si rivelino più complementari che conflittuali, anche se a molti osservatori questa ipotesi potrebbe sembrare ingenua. Per esempio, il piano del presidente Trump di autorizzare la vendita di chip Nvidia alla Cina ha suscitato critiche bipartisan[21]. In ultima analisi, le due potenze sono talmente intrecciate sul piano economico da rendere altamente probabile una qualche forma di cooperazione politica, almeno a determinati livelli[22].

Podcast | MORTI SUL LAVORO. «LA PIÙ GRANDE TRAGEDIA CIVILE DEL PAESE»


Ogni anno, in Italia, più di mille persone muoiono sul proprio posto di lavoro. Circa tre lavoratori ogni giorno. Un «bollettino di guerra», così come lo ha definito papa Francesco nel 2023, i cui numeri risultano ancora più elevati rispetto a quelli delle vittime del crimine organizzato o dei femminicidi. Ne parliamo con Bruno Giordano, magistrato presso la Corte di Cassazione, e Alberto Verzulli dell’Anmil.

Scopri di più

Un’ulteriore rivalità geopolitica nel campo dell’IA riguarda la Cina e l’India, dal momento che quest’ultima si trova nuovamente in una posizione di primo piano tra le «nazioni non allineate». L’India è diventata un mercato rilevante per le tecnologie di IA e ha avviato programmi di formazione dei cittadini per lavori basati sull’IA[23]. Questa crescita include finanziamenti e indirizzi governativi. Allo stesso tempo, gli agenti governativi e del settore privato in India hanno cercato di utilizzare l’IA per contrastare l’influenza cinese nel Paese e per offrire servizi alternativi a quelli sviluppati da Pechino. Inoltre, l’India ha mirato a impiegare l’IA per rafforzare le proprie capacità militari nei confronti di altri Stati, compresa la Cina. La posta in gioco non è soltanto il rapporto dell’India con il suo vicino nord-orientale, ma anche il suo ruolo globale. Resta da vedere se tale strategia consentirà a questo Paese di assumere la leadership tra le economie emergenti e di delineare una «terza via» praticabile[24].

IA e politica interna


La geopolitica e le questioni regolative internazionali possono apparire scollegate dalla politica interna dei Paesi coinvolti. Tuttavia, man mano che l’IA diventa una realtà sempre più quotidiana per le persone in tutto il mondo, quelle discussioni geopolitiche e regolative di alto livello acquistano rilevanza anche per gli elettori delle singole nazioni.

L’opinione pubblica, a livello globale, è ambivalente. Per esempio, in un sondaggio del Pew Research Center condotto in 25 Paesi, «le persone sono più preoccupate che entusiaste per la crescente presenza dell’IA nella vita quotidiana»[25]. Così la pensa il 50% degli intervistati negli Stati Uniti e in Italia, il 49% in Australia e il 48% in Brasile. Per molti, tuttavia, prevale l’ambiguità: essi si dichiarano «ugualmente entusiasti e preoccupati per il crescente utilizzo dell’IA». È il caso del 61% degli intervistati in Corea, del 55% in Giappone, del 53% in Germania e del 49% in Francia e in Indonesia.

All’interno dell’Unione europea, la questione dell’IA mette in luce la tensione tra la spinta all’integrazione dei mercati e le esigenze della sovranità nazionale. Sebbene, a livello globale, più persone tendano a fidarsi dell’Ue nella regolazione dell’IA piuttosto che degli Stati Uniti o della Cina, questa fiducia varia considerevolmente tra i Paesi dell’Ue, oscillando dal 38% in Grecia al 71% in Germania[26]. Una delle principali preoccupazioni è che la regolamentazione europea dell’IA possa limitare la crescita economica dell’Unione. Come ha affermato la presidente della Banca centrale europea, Christine Lagarde: «Con Stati Uniti e Cina in testa, l’Europa ha già perso l’opportunità di essere un precursore nell’ambito dell’IA»[27].

Un’ulteriore fonte di potenziale mobilitazione politica attorno all’IA riguarda il lavoro. Una delle grandi questioni ancora irrisolte concerne infatti l’impatto dell’IA sull’occupazione. I suoi effetti si ripercuoteranno sui salari, sulla formazione professionale e sul potere contrattuale relativo dei lavoratori manuali e impiegatizi, e produrranno cambiamenti non solo a livello nazionale, ma anche a livello globale, perché le trasformazioni indotte dall’IA favoriranno i lavoratori in alcuni mercati e non in altri, modificando le condizioni che regolano l’esternalizzazione del lavoro.

Le prossime elezioni negli Stati Uniti a livello locale, statale e nazionale potrebbero offrire presto un’anticipazione delle crescenti dinamiche politiche legate all’IA. Tra le principali preoccupazioni politiche negli Stati Uniti riguardo all’IA figura il consumo di energia e di acqua dei data center in costruzione in tutto il Paese[28]. La loro realizzazione è aumentata notevolmente: un rapporto del 2024 segnalava un incremento del 70% dei centri in costruzione rispetto all’anno precedente[29]. I data center costituiscono la principale infrastruttura fisica dell’IA, ospitando i server che elaborano e conservano la tecnologia, ma anche gli impianti necessari per mantenerli sicuri e raffreddati. Essi richiedono quindi grandi estensioni di territorio, notevoli quantità di energia e ingenti volumi di acqua destinati al raffreddamento.

Negli Stati Uniti, in un contesto di inflazione – in cui crescono anche i prezzi dell’energia – e di progressivo esaurimento delle risorse idriche, alcuni elettori stanno diventando più sensibili all’impatto di tali infrastrutture sulla loro zona e si mostrano più inclini ad accogliere le affermazioni di politici secondo cui i data center starebbero peggiorando la qualità della vita, invece di migliorarla, come ha provocatoriamente titolato una testata: «È arrivata la resistenza ai data center»[30].

Il presidente Joseph Biden aveva promulgato nel 2022 il CHIPS and Science Act, in cui si autorizzavano finanziamenti per investimenti nell’industria nazionale dei semiconduttori e in altri settori tecnologici. Quella legge ha sottolineato l’importanza strategica della produzione interna di semiconduttori per la sicurezza nazionale e la necessità di ampliare la forza lavoro e le infrastrutture tecnologiche degli Usa. La catena di approvvigionamento dei semiconduttori resta tuttavia complessa, e alcuni hanno messo in dubbio gli effettivi benefìci apportati dalla legge. Ciò nonostante, essa rimane una delle politiche statunitensi più importanti in materia di IA, ed è stata sostenuta anche dall’amministrazione Trump[31].

Al di là di queste specifiche questioni politiche, si pone una domanda più ampia: come si possono educare i cittadini a comprendere tali fenomeni e a rispondervi? Quali sono gli spazi della società civile in cui ciò può avvenire? L’IA si afferma in un tempo in cui il significato dell’essere umano è messo in discussione, in un tempo in cui i cittadini oscillano tra il ripiegamento in bolle ideologiche e l’abbandono della partecipazione politica, e in un tempo in cui gran parte dell’istruzione formale si è trasformata in formazione tecnica. Ne conseguono ben pochi elementi favorevoli alle persone di buona volontà che desiderano affrontare le sfide poste dall’IA. E tuttavia questo compito è urgente. Come ha affermato papa Leone XIV, la formazione nella e attraverso la famiglia va sostenuta in modo particolare, soprattutto per salvaguardare la dignità dei minori[32].

Conclusioni


Le metafore utilizzate per discutere dell’IA tendono agli estremi, sia che si tratti di apocalisse sia di utopia. Questo linguaggio è importante anche perché rientra in un problema più generale che Yuval Levin, direttore degli Studi Sociali, Culturali e Costituzionali all’American Enterprise Institute, ha individuato come dannoso per la governance: la tendenza a presentare ogni questione politica come un «pericolo immediato e assolutamente apocalittico»[33].

Secondo Levin, non si tratta semplicemente del fatto che l’IA è diventata l’ennesimo fenomeno di proporzioni tali da non poter essere affrontato da una singola persona, né tantomeno da un singolo Paese. Si tratta anche del fatto che molti studiosi, decisori politici, leader economici, giornalisti e cittadini si sono ormai talmente abituati a inquadrare i problemi sentiti come minacce esistenziali senza via d’uscita, da percepire quasi istintivamente l’IA in questi termini. L’apocalitticismo che ne deriva non riesce a trovare un terreno comune con coloro che, mossi da incentivi politici ed economici, puntano ad accelerare la potenziale rivoluzione dell’IA, e si scontra direttamente con il fervore quasi religioso di coloro che vedono nella tecnologia l’unica realtà salvatrice dell’umanità.

Data l’inevitabile incertezza su come l’IA svilupperà e rimodellerà il mondo, tale apocalitticismo pretende di possedere una conoscenza che nessuno possiede e rischia di distogliere l’attenzione dei pensatori riflessivi e attenti dal compito concreto che li attende. L’industria dell’IA e le tecnologie a essa associate, come qualsiasi altro paradigma della vita moderna, richiedono il recupero di una politica sobria e dei suoi ordinari strumenti di «contrattazione, compromesso e gradualità»[34].

Questo dovrebbe rassicurare i cittadini che si sentono impotenti di fronte all’IA. In questo articolo abbiamo indicato diversi motivi per cui non dovrebbero sentirsi così: le elezioni hanno già avuto un impatto significativo sulla politica riguardo all’IA; Cina e Stati Uniti non sono destinati a entrare in guerra per l’IA; la distinzione tra ottimisti e catastrofisti dovrebbe essere abbandonata; ed è possibile, oltre che auspicabile, una politica sobria e moderata riguardo all’IA.

Vi è un ulteriore motivo per non cedere allo sconforto. Un’analisi approfondita dell’economia politica dell’IA mostra non solo che questi fattori economici e politici si sovrappongono necessariamente in modi complessi, rendendo difficile sia la loro regolazione sia la loro comprensione e la formazione dei cittadini a loro riguardo, ma sottolinea anche che la questione decisiva rimane la persona umana e il suo destino. Per questo giunge molto opportuna la conclusione a cui Levin approda nella sua riflessione sulla necessità di una rieducazione contro l’apocalitticismo: «E se, in questo processo, giungessimo a pensare che la politica non sia l’alfa e l’omega della vita in una società libera, sarebbe ancora meglio»[35].

Copyright © La Civiltà Cattolica 2026
Riproduzione riservata
***


[1] F. Patsch, «“Antiqua et nova”. L’intelligenza artificiale al servizio della dignità umana e del bene comune», in Civ. Catt. 2025 II 207.

[2] Cfr C. Freiberg – J. Bishop, «The specter of principlism: from bioethics to AI ethics to autonomous weapon systems», in AI and Ethics 6 (2026), in philpapers.org/rec/FRETSO-38

[3] Il venture capital è l’attività di investimento istituzionale, di medio-lungo termine, in capitale di rischio di aziende non quotate in fase di start up, caratterizzate da un elevato potenziale di sviluppo, con l’obiettivo di ottenere un consistente guadagno in conto capitale dalla vendita della partecipazione acquisita o dalla quotazione in borsa (cfr borsaitaliana.it/borsa/glossar…).

[4] Cfr N. Ferguson, «OpenAI’s House of Cards», in The Free Press (thefp.com/p/niall-ferguson-the…), 17 novembre 2025.

[5] Cfr T. Cowen, «Is AI a Bubble? Not So Fast», in The Free Press (thefp.com/p/is-ai-a-bubble-not…), 18 novembre 2025.

[6] Cowen ha affrontato molte di tali questioni in un episodio del podcast «Odd Lots», disponibile su Bloomberg (tinyurl.com/yjdc63f3), 20 novembre 2025.

[7] Cfr P. Jayaraj, «Nvidia Dominates GPU Market Share, Reaching 94% in Q2 2025», in NDTV Profit (tinyurl.com/38eehujt), 5 settembre 2025.

[8] Cfr E. Sayegh, «The AI Chip Race: Who Can Compete With Nvidia?», in Forbes (tinyurl.com/vu32u5ps), 11 dicembre 2024.

[9] Il cloud è una rete globale di server remoti, che permette di archiviare, gestire ed elaborare dati tramite server.

[10] F. Okeke, «Cloud Spending Jumps 22% as AI Fuels Hyperscaler Growth», in Channel Insider (tinyurl.com/tte23d95), 11 settembre 2025.

[11] Cfr Z. Kleinman, «What caused the AWS outage – and why did it make the internet fall apart?», in BBC News (bbc.com/news/articles/cev1en90…), 21 ottobre 2025.

[12] «Top Companies in Generative AI Market – Microsoft (US), Google (US), IBM (US), NVIDIA (US) and OpenAI (US)», in Markets and Markets (tinyurl.com/bdw3772t).

[13] Cfr «The Risks of AI Concentration in a Few Tech Giants», in Rice AI Blog (riceai.net/blog-post-tech-giants), 23 giugno 2025.

[14] Cfr «Toxic Competition: Regulating Big Tech’s Data Advantage», in AI Now Institute (ainowinstitute.org/publications/toxic-competition), 11 aprile 2023.

[15] G. Damioli – V. Van Roy – D. Vertesy – M. Vivarelli, «Is artificial intelligence leading to a new technological paradigm?», in Structural Change and Economic Dynamics 72 (2025) 347-359.

[16] Cfr Dicastero per la Dottrina della Fede – Dicastero per la Cultura e l’Educazione, «Antiqua et Nova. Nota sul rapporto tra intelligenza artificiale e intelligenza umana», 14 gennaio 2025 (tinyurl.com/rrf49hrs).

[17] Si tratta di un software non protetto da copyright, il cui codice sorgente è lasciato alla disponibilità degli utenti, e quindi liberamente modificabile.

[18] Cfr Commissione europea – Parlamento europeo – Consiglio dell’Unione europea, AI Act (digital-strategy.ec.europa.eu/en/policies/regulatory-framework-
ai), 13 giugno 2024; Winning the Race. America’s AI Action Plan (whitehouse.gov/wp-content/uplo…), luglio 2025.

[19] Cfr Stanford University, Artificial Intelligence Index Report 2025 (hai.stanford.edu/assets/files/…), 46.

[20] Cfr «Il Codice di buone pratiche dell’UE e il futuro dell’IA in Europa», in Open AI (openai.com/it-IT/global-affair…), 11 luglio 2025.

[21] Cfr T. Mickle – A. Swanson, «Trump Clears Sale of More Powerful Nvidia A.I. Chips to China», in The New York Times (nytimes.com/2025/12/08/busines…
trump-nvidia-chips-china.html), 8 dicembre 2025.

[22] Cfr G. Allison, «The Thucydides Trap», in Foreign Policy (foreignpolicy.com/2017/06/09/t…), 9 giugno 2017.

[23] Cfr P. Gupta, «Why AI is being trained in rural India», in BBC News (bbc.com/news/articles/cqjevxvx…), 16 ottobre 2025.

[24] Cfr IndiaAI Portal (indiaai.gov.in/indiaaiportal).

[25] J. Poushter – M. Fagan – M. Corichi, «How People Around the World View AI», in Pew Research Center (tinyurl.com/y6hdwkch), 15 ottobre 2025.

[26] Cfr Idd., «Trust in the EU, U.S. and China to Regulate use of AI», in Pew Research Center (tinyurl.com/5n6wanyr), 15 ottobre 2025.

[27] «EU missing the boat on AI, jeopardising its future, Lagarde warns», in Reuters (reuters.com/business/eu-missin…
2025-11-24), 24 novembre 2025.

[28] Cfr F. de la Iglesia Viguiristi – T. Vinciguerra, «Acqua, un’urgenza mondiale», in Civ. Catt. 2024 I 209-223.

[29] Cfr L. Kearney, «North America sees 70% jump in data center supply in construction, CBRE report says», in Reuters (tinyurl.com/mrzt9shk), 20 agosto 2024.

[30] «The Data Center Resistance Has Arrived», in Wired (tinyurl.com/4wa483ez), 14 novembre 2025.

[31] Cfr D. Butts, «Chipmakers Get larger tax credits in Trump’s latest “big beautiful bill”», in CNBC (tinyurl.com/5fr7an28), 2 luglio 2025.

[32] Cfr Leone XIV, Discorso ai partecipanti al convegno «The dignity of children and adolescents in the age of artificial intelligence» (tinyurl.com/52kk362b), 13 novembre 2025.

[33] Y. Levin, «Don’t Panic. Just Worry», in The Dispatch (thedispatch.com/article/dont-p…), 9 gennaio 2020.

[34] Ivi.

[35] L’autore ringrazia il professore J. P. Bishop, B. Gottschall S.I. e C. Trujillo S.I. per il contributo offerto per la redazione dell’articolo.

The post Economia politica e intelligenza artificiale: tra innovazione e incertezza first appeared on La Civiltà Cattolica.