Il 31 marzo 2023, il Garante per la protezione dei dati personali ha bloccato Chat GPT in Italia per mancanza di informativa sulla raccolta dei dati che gli utenti immettono e sulla loro gestione.
Tale blocco resterà in vigore fino a quando non verrà creata e gestita secondo le normative italiane vigenti la disciplina della privacy.
L’Italia è il primo paese Occidentale a chiedere tale blocco.
C’è anche un problema legato all’età degli utilizzatori che dovrebbero essere maggiori di 13 anni, ma a livello di sistema non è stato implementato alcun controllo a riguardo. Anche la non correttezza delle risposte è sotto il mirino del Garante
Ora OpenAI – società di Chat GPT ha 20 gg per riuscire ad ottemperare a quanto richiesto, nel caso non riuscisse rischia una sanzione salatissima fino a 20 mln di Euro o al 4% del suo fatturato globale annuo.
Tale decisione non ci ha stupito dopo la lettera firmata da Elon Musk e gli altri +1100 in cui si esplicitava la preoccupazione sull’utilizzo di Chat GPT per la sicurezza dell’umanità e dei cittadini.
Già qualche giorno fa in UK è stato predisposto un piano per regolamentare l’utilizzo dell’intelligenza artificiale che dia delle linee guida per un “uso responsabile”. La preoccupazione in questo caso è sulla possibilità che l’intelligenza artificiale possa avere dei pregiudizi su gruppi particolari se addestrata con grande mole di dati che possono includere materiale razzista, sessista o comunque che non dia una visione senza preconcetti. Potrebbe infatti essere usata per diffondere disinformazione.
Da qui la necessità che ci sia una regolamentazione, in particolare è stato definito un white paper di linee guida che delinea i 5 principi che le autorità dovrebbero tenere in considerazione:
- Sicurezza, protezione e robustezza – le applicazione di AI dovrebbero funzione secondo questi 3 principi
- Trasparenza e spiegabilità del sistema decisionale – dovrebbe poter essere chiara la modalità con cui viene effettuata una scelta
- Equità: utilizzo conforme delle leggi UK es uguaglianza, protezione dei dati senza discriminare e creare risultati commerciali sleali
- Responsabilità e governance: sono necessarie misura per garantire una supervisione del modo di utilizzo e una chiara responsabilità dei risultati
- Contestabilità e ricorso: deve essere possibile contestare le azioni non corrette prese dall’intelligenza artificiale
L’analisi effettuata in UK ci sembra molto completa e che cerchi di toccare almeno a livello di ambiti di lavoro tutte le principali problematiche connesse all’utilizzo dell’Intelligenza Artificiale.
Dal nostro punto di vista è corretto che ci sia una regolamentazione per garantire a tutti gli utilizzatori di poter utilizzare qualcosa di utile e non potenzialmente dannoso.
Un interrogativo inoltre che ci poniamo risiede sui dati aziendali (per lo più riservati, o comunque che magari danno un vantaggio competitivo a quell’azienda) che vengono imputati in tale strumento. Sono usati per alimentare la conoscenza dell’intelligenza stessa? Potenzialmente diventano improvvisamente usati per rispondere a quesiti di altri utenti?
Servirà una AI “chiusa”? in cui i dati rimarranno solo dell’azienda che li immette e chat gpt diventerà uno strumento di rielaborazione?
Ad oggi non è proprio così, tanto che OpenAi dichiara che tutto quello prodotto da Chat GPT è di sua proprietà intellettuale e può essere usato solo a scopi personali.
Crediamo che nelle prossime settimane e mesi queste questioni debbano pian piano essere dipanate.