Pubblicità

IA troppo fiduciosa? La si corregge imitando il cervello

Uno studio coreano mostra come l’uso di rumore casuale, simile all’apprendimento prenatale, possa mitigare l’overconfidence

Allucinazioni: un termine ormai diventato popolare quando si parla di Intelligenza Artificiale (IA) e che si riferisce principalmente alle cantonate prese da Large Language Model (LLM) come ChatGPT, Gemini e Claude quando rispondono — tra l’altro senza alcuna apparente incertezza — alle domande ricevute.

Certo, sbagliare è umano, e così capita naturalmente anche agli LLM addestrati su dati da noi prodotti; ma questo eccesso di sicurezza (overconfidence, in inglese) si rivela particolarmente insidioso quando consideriamo altri tipi di IA, che operano in settori critici o particolarmente sensibili agli errori, quali la guida autonoma e il sistema sanitario.

Una coppia di ricercatori coreani, specializzati nel campo delle scienze cognitive, sembra però aver trovato un modo per limitare l’overconfidence di cui sopra e per raggiungere l’obbiettivo hanno seguito un’ispirazione piuttosto insolita: il processo di apprendimento che avviene nel cervello degli esseri viventi ancor prima della nascita.

CONTINUA A LEGGERE

- / 5
Grazie per aver votato!
PubblicitàPubblicità

Pubblicato da Girolamo Castaldo

I miei interessi principali sono scacchi, sci, anime, manga, videogiochi, musica e (astro)fisica. Storie Semplici: http://storiesemplici.substack.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.