IA inguaia Microsoft: rivelate password, messaggi e altri dati dei dipendenti

IA inguaia Microsoft: rivelate password, messaggi e altri dati dei dipendenti

Altre brutte notizie sul fronte dell’Intelligenza artificiale (IA). Questa volta ha “colpito” proprio un colosso dell’informatica, che la sta sfruttando appieno e sicuramente contribuirà al suo sviluppo e alla sua diffusione: Microsoft. Del resto, non può restare indietro in quella che è la tecnologia in grande ascesa e che influirà sempre più in tutte le sfere della nostra vita: privata, sociale, professionale, ludica, ecc.

Il team di ricerca sull’intelligenza artificiale di Microsoft, mentre pubblicava un contenitore di dati di formazione open source su GitHub, ha accidentalmente esposto 38 terabyte di dati privati ​​aggiuntivi, incluso un backup su disco, delle workstation di due dipendenti.

Il backup include segreti, chiavi private, password e oltre 30.000 messaggi interni di Microsoft Teams. I ricercatori hanno condiviso i loro file utilizzando una funzionalità di Azure chiamata token SAS, che consente di condividere dati dagli account di archiviazione di Azure. Il livello di accesso può essere limitato solo a file specifici; tuttavia, in questo caso, il collegamento è stato configurato per condividere l’intero account di archiviazione, inclusi altri 38 TB di file privati.

I rischi dell’IA mietono una vittima illustre: Microsoft

Questo caso è un esempio dei nuovi rischi che le organizzazioni devono affrontare quando iniziano a sfruttare la potenza dell’intelligenza artificiale in modo più ampio, poiché sempre più ingegneri ora lavorano con enormi quantità di dati di addestramento.

Mentre i data scientist e gli ingegneri si affrettano a portare in produzione nuove soluzioni di intelligenza artificiale, le enormi quantità di dati che gestiscono richiedono ulteriori controlli e tutele di sicurezza.

Come visto, il semplice passaggio di condividere un set di dati AI ha portato a una grave perdita di dati, contenente oltre 38 TB di dati privati. La causa principale è stata l’utilizzo dei token Account SAS come meccanismo di condivisione. A causa della mancanza di monitoraggio e governance, i token SAS rappresentano un rischio per la sicurezza e il loro utilizzo dovrebbe essere il più limitato possibile.

Questi token sono molto difficili da tenere traccia perché Microsoft non fornisce un modo centralizzato per gestirli all’interno del portale di Azure. Inoltre, questi token possono essere configurati per durare effettivamente per sempre, senza alcun limite massimo alla loro scadenza. Pertanto, l’utilizzo dei token SAS dell’account per la condivisione esterna non è sicuro e deve essere evitato.

Ennesimo monito sui rischi dell’Intelligenza Artificiale

In un ambito più ampio, incidenti simili possono essere prevenuti garantendo ai team di sicurezza maggiore visibilità sui processi dei team di ricerca e sviluppo dell’IA. Poiché assistiamo a un’adozione più ampia di modelli di intelligenza artificiale all’interno delle aziende, è importante aumentare la consapevolezza dei rischi rilevanti per la sicurezza in ogni fase del processo di sviluppo dell’intelligenza artificiale e assicurarsi che il team di sicurezza lavori a stretto contatto con i team di data science e di ricerca per garantire che siano definiti i confini adeguati.

Qui abbiamo parlato delle ripercussioni negative dell’IA sul lavoro.

Fonte: Wiz

Ricevi le news su Telegram iscrivendoti al canale dal bottone seguente:

5,0 / 5
Grazie per aver votato!

Pubblicato da Vito Andolini

Appassionato di geopolitica e politica nazionale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.