Chat GPT-4 privacy e sicurezza

Blocco ChatGPT-4

Il 31 marzo 2023, il Garante per la protezione dei dati personali ha bloccato Chat GPT in Italia per mancanza di informativa sulla raccolta dei dati che gli utenti immettono e sulla loro gestione.

Tale blocco resterà in vigore fino a quando non verrà creata e gestita secondo le normative italiane vigenti la disciplina della privacy.

L’Italia è il primo paese Occidentale a chiedere tale blocco.

C’è anche un problema legato all’età degli utilizzatori che dovrebbero essere maggiori di 13 anni, ma a livello di sistema non è stato implementato alcun controllo a riguardo. Anche la non correttezza delle risposte è sotto il mirino del Garante

Ora OpenAI – società di Chat GPT ha 20 gg per riuscire ad ottemperare a quanto richiesto, nel caso non riuscisse rischia una sanzione salatissima fino a 20 mln di Euro o al 4% del suo fatturato globale annuo.

Tale decisione non ci ha stupito dopo la lettera firmata da Elon Musk e gli altri +1100 in cui si esplicitava la preoccupazione sull’utilizzo di Chat GPT per la sicurezza dell’umanità e dei cittadini.

Già qualche giorno fa in UK è stato predisposto un piano per regolamentare l’utilizzo dell’intelligenza artificiale che dia delle linee guida per un “uso responsabile”. La preoccupazione in questo caso è sulla possibilità che l’intelligenza artificiale possa avere dei pregiudizi su gruppi particolari se addestrata con grande mole di dati che possono includere materiale razzista, sessista o comunque che non dia una visione senza preconcetti. Potrebbe infatti essere usata per diffondere disinformazione.

Da qui la necessità che ci sia una regolamentazione, in particolare è stato definito un white paper di linee guida che delinea i 5 principi che le autorità dovrebbero tenere in considerazione:

  1. Sicurezza, protezione e robustezza – le applicazione di AI dovrebbero funzione secondo questi 3 principi
  2. Trasparenza e spiegabilità del sistema decisionale – dovrebbe poter essere chiara la modalità con cui viene effettuata una scelta
  3. Equità: utilizzo conforme delle leggi UK es uguaglianza, protezione dei dati senza discriminare e creare risultati commerciali sleali
  4. Responsabilità e governance: sono necessarie misura per garantire una supervisione del modo di utilizzo e una chiara responsabilità dei risultati
  5. Contestabilità e ricorso: deve essere possibile contestare le azioni non corrette prese dall’intelligenza artificiale

L’analisi effettuata in UK ci sembra molto completa e che cerchi di toccare almeno a livello di ambiti di lavoro tutte le principali problematiche connesse all’utilizzo dell’Intelligenza Artificiale.

Dal nostro punto di vista è corretto che ci sia una regolamentazione per garantire a tutti gli utilizzatori di poter utilizzare qualcosa di utile e non potenzialmente dannoso.

Un interrogativo inoltre che ci poniamo risiede sui dati aziendali (per lo più riservati, o comunque che magari danno un vantaggio competitivo a quell’azienda) che vengono imputati in tale strumento. Sono usati per alimentare la conoscenza dell’intelligenza stessa? Potenzialmente diventano improvvisamente usati per rispondere a quesiti di altri utenti?

Servirà una AI “chiusa”? in cui i dati rimarranno solo dell’azienda che li immette e chat gpt diventerà uno strumento di rielaborazione?

Ad oggi non è proprio così, tanto che OpenAi dichiara che tutto quello prodotto da Chat GPT è di sua proprietà intellettuale e può essere usato solo a scopi personali.

Crediamo che nelle prossime settimane e mesi queste questioni debbano pian piano essere dipanate.