Uno studio coreano mostra come l’uso di rumore casuale, simile all’apprendimento prenatale, possa mitigare l’overconfidence
Allucinazioni: un termine ormai diventato popolare quando si parla di Intelligenza Artificiale (IA) e che si riferisce principalmente alle cantonate prese da Large Language Model (LLM) come ChatGPT, Gemini e Claude quando rispondono — tra l’altro senza alcuna apparente incertezza — alle domande ricevute.
Certo, sbagliare è umano, e così capita naturalmente anche agli LLM addestrati su dati da noi prodotti; ma questo eccesso di sicurezza (overconfidence, in inglese) si rivela particolarmente insidioso quando consideriamo altri tipi di IA, che operano in settori critici o particolarmente sensibili agli errori, quali la guida autonoma e il sistema sanitario.
Una coppia di ricercatori coreani, specializzati nel campo delle scienze cognitive, sembra però aver trovato un modo per limitare l’overconfidence di cui sopra e per raggiungere l’obbiettivo hanno seguito un’ispirazione piuttosto insolita: il processo di apprendimento che avviene nel cervello degli esseri viventi ancor prima della nascita.