L'intelligenza artificiale, questa sconosciuta


Se gli addetti ai lavori non hanno compreso in cosa consiste l'IA andiamo incontro a pericolose scelte nell'utilizzo.
Il prof. Franco Bernabé, intervistato da Il Corriere dell'Economia del Corriere della sera il 23 marzo 2026, alla domanda "come evitare le allucinazioni ha affermato":
ma per usare bene l'Ai servono contenuti con basi certificate. Ecco perché in molti ambiti serve un accordo con gli editori che sanno gestire, raccogliere le informazioni.

Ma le scelte dell'IA sono fatte su base probabilistica e quindi le allucinazioni sono, come per gli umani, connaturate con i risultati delle loro valutazioni e sono insopprimibili anche se la "base dati" è perfettamente corretta ad eccezione dei sistemi puramente deduttivi, ovvero che non usano la probabilità nelle scelte. Una base dati perfetta potrebbe permettere di far passare allucinazioni vere come fatti concreti senza che ce ne possiamo accorgere immediatamente in quanto all'apparenza perfettamente coerenti. Si eviterebbero quindi quelle evidenti, ma non si eviteranno quelle complesse da riconoscere. È come se decidessimo di affidare i nostri calcoli ad un frenastenico che li esegue in pochissimo tempo indipendentemente dalla loro complessità e, per attività vitali e importanti, decidessimo che quelli sono corretti senza bisogno di controllo.

If industry professionals do not understand what AI entails, we are heading toward dangerous decisions regarding its use.
Prof. Franco Bernabé, interviewed by *Il Corriere dell'Economia* (the business section of *Corriere della Sera*) on March 23, 2026, responded to the question “How can we avoid hallucinations?” by stating:
“But to use AI effectively, we need content with verified sources.” That is why, in many fields, we need an agreement with publishers who know how to manage and collect information.

But AI’s decisions are made on a probabilistic basis, and therefore hallucinations are, as with humans, inherent in the results of its assessments and cannot be suppressed—even if the “database” is perfectly correct—with the exception of purely deductive systems, i.e., those that do not use probability in their decisions. A perfect database could allow hallucinations to pass as concrete facts without us immediately noticing, as they would appear perfectly coherent. We would thus avoid the obvious ones, but we would not avoid those that are complex to recognize. It is as if we decided to entrust our calculations to a mentally deficient who performs them in a very short time regardless of their complexity and, for vital and important activities, We decided that they are correct without the need for verification.

Translated with DeepL.com (free version)