Cerca
Logo
Cerca
Edicola digitale
+

ChatGPT per ora resta offline. Il Garante per la privacy studia la nuova proposta

  • a
  • a
  • a

La piattaforma di intelligenza artificiale ChatGPT resterà offline in Italia almeno per qualche altro giorno, sicuramente fino a dopo Pasqua. Allo staff del Garante per la protezione dei dati personali è pervenuto nella giornata di ieri il documento della società americana OpenAi, che gestisce la piattaforma, con una serie di proposte per garantire gli utenti e adeguare l’attività del servizio agli standard previsti dal garante. Il documento è allo studio degli esperti coinvolti da Pasquale Stanzione, che si sono presi qualche giorno per valutare le proposte con estrema attenzione, prima di decidere se dare il via libera o chiedere altri chiarimenti.

 

 

“OpenAI si impegna a mantenere l’IA potente sicura e ampiamente vantaggiosa. Sappiamo che i nostri strumenti di IA offrono molti vantaggi alle persone di oggi. I nostri utenti in tutto il mondo ci hanno detto che ChatGPT aiuta ad aumentare la loro produttività, a migliorare la loro creatività e a offrire esperienze di apprendimento su misura. Riconosciamo anche che, come ogni tecnologia, questi strumenti comportano rischi reali, per questo lavoriamo per garantire che la sicurezza sia integrata nel nostro sistema a tutti i livelli” il messaggio della società americana che gestisce la piattaforma di intelligenza artificiale. 

 

 

OpenAI ha poi continuato così: “Inostri modelli linguistici di grandi dimensioni sono addestrati su un ampio corpus di testi che comprende contenuti disponibili pubblicamente, contenuti su licenza e contenuti generati da revisori umani. Non usiamo i dati per vendere i nostri servizi, fare pubblicità o creare profili di persone, ma per rendere i nostri modelli più utili alle persone. ChatGPT, per esempio, migliora grazie a un ulteriore addestramento sulle conversazioni delle persone. Sebbene alcuni dei nostri dati di addestramento includano informazioni personali disponibili su Internet, vogliamo che i nostri modelli imparino a conoscere il mondo, non le persone private. Per questo motivo, lavoriamo per rimuovere le informazioni personali dal set di dati di addestramento, ove possibile, per mettere a punto i modelli in modo da rifiutare le richieste di informazioni personali di individui privati e per rispondere alle richieste degli individui di cancellare le loro informazioni personali dai nostri sistemi. Queste misure riducono al minimo la possibilità che i nostri modelli generino risposte che includono informazioni personali di persone private”. Basterà per il Garante?

Dai blog