I ricercatori di IA di Microsoft hanno accidentalmente divulgato vari terabyte di dati sensibili

  • 2023-10-09 08:00:00
  • Techcrunch

Nel mese di Settembre 2023 il colosso Microsoft è finito sotto ai riflettori per l'ennesima volta, e non per motivi positivi. All'interno dell'azienda, alcuni ricercatori di IA hanno inavvertitamente pubblicato online decine di terabyte di dati sensibili, tra cui password, chiavi private e oltre 30.000 messaggi interni di Microsoft Teams. Durante il caricamento di bucket di dati di formazione open source su GitHub, i responsabili hanno condiviso anche i dati privati menzionati.

La situazione non è delle migliori: 38 terabyte di informazioni, tra cui i backup personali dei computer di due dipendenti Microsoft, sono stati resi pubblici. Come se non bastasse, si è scoperto che l'URL contenente i dati menzionati esisteva dal 2020 ed era stato configurato in modo errato - chiunque fosse in possesso di quest'ultimo aveva la possibilità di cancellare, sostituire e introdurre contenuti dannosi.

L'IA è indubbiamente di notevole importanza all'interno di questo settore, motivo per cui dovrebbe essere fondamentale garantire un certo livello di sicurezza quando si maneggiano i dati privati di miliardi di utenti.