I sistemi di IA generativa: le misure del legislatore cinese

19 Gennaio 2024

Il 15 agosto 2023, a seguito di un breve periodo di consultazione pubblica, sono entrate in vigore le c.d. “Measures for the Management of Generative Artificial Intelligence Services” (in cinese: 生成式人工智能服务管理暂行办法, le “Misure”), emanate dalla Cyberspace Administration of China (“CAC”) (ovvero l’Autorità cinese competente in materia di supervisione e regolamentazione di Internet, protezione dei dati personali e antitrust), con l’obiettivo principale di dettare regole operative volte a disciplinare lo sviluppo e l’utilizzo sempre più rapido dei sistemi di intelligenza generale generativa[1].

Le Misure sono state predisposte tenendo in considerazione quanto previsto dai “3 pilastri” della disciplina cinese in materia di sicurezza e protezione dei dati: la Cybersecurity Law, la Data Security Law e la Personal Information Protection Law.

Il contenuto delle Misure

Le Misure si applicano agli sviluppatori e fornitori di sistemi di intelligenza artificiale generativa di testi, immagini, audio, video e altri contenuti destinati ai soggetti che vivono nella Repubblica Popolare Cinese (ad es. Ernie, il chatbot cinese di Baidu analogo a ChatGPT, che genera anche immagini – come Dall-E e Midjourney – e video).

Di contro, le società, nonché gli enti pubblici e gli istituti di ricerca che sviluppano e utilizzano, ma che non forniscono a soggetti che vivono nella RPC, servizi e tecnologie di intelligenza artificiale generativa, non sono soggette alle Misure.

La normativa prevede che i soggetti che rientrano nell’ambito di applicazione delle Misure devono:

  • adottare misure adeguate volte a prevenire la discriminazione basata su etnia, convinzioni religiose, Stato, regione, genere, età, impiego di lavoro e stato di salute nel processo di elaborazione degli algoritmi, selezione dei dati di addestramento, generazione e ottimizzazione del modello e nella fornitura del servizio;
  • rispettare i diritti di proprietà intellettuale, gli standard etici aziendali, mantenere i segreti aziendali e non utilizzare algoritmi, dati, piattaforme e altri strumenti per creare un monopolio e compiere atti di concorrenza sleale;
  • rispettare i diritti e gli interessi degli individui, evitando danneggiare la loro salute fisica e mentale;
  • rispettare i diritti in materia di protezione dei dati personali;
  • in base al tipo di servizio, adottare misure efficaci per migliorare la trasparenza dei servizi di intelligenza artificiale generativa e migliorare l'accuratezza e la affidabilità dei contenuti generati;
  • sottoscrivere con gli utenti[2] termini e condizioni di utilizzo di tali sistemi, precisando i diritti e gli obblighi di entrambe le parti;
  • in un’ottica di tutela dei giovani, impedire che i minori abusino di sistemi di intelligenza artificiale generativa (sul tema della tutela dei minori, il CAC ha pubblicato anche le linee guida volte a rafforzare la protezione dei minori online,ne abbiamo parlato qui “Utilizzo di Internet da parte dei minori: combattere la dipendenza attraverso le limitazioni imposte dalle Autorità”);
  • contrassegnare i contenuti creati dai sistemi di intelligenza artificiale generativa, conformemente a quanto previsto dalle “Regulations on Administration of Deep Synthesis of Internet Information Services”;
  • inserire meccanismi di protezione delle informazioni inserite dagli utenti;
  • in un’ottica di minimizzazione dei dati, raccogliere soltanto i dati personali necessari;
  • non conservare informazioni di input che possano identificare gli utenti.

Le Misure stabiliscono altresì che i fornitori di sistemi di intelligenza artificiale generativa debbano svolgere attività di elaborazione dei dati di addestramento, quali il pre-addestramento e l’ottimizzazione dell’addestramento, osservando le seguenti prescrizioni:

  • utilizzare dati e modelli di base derivanti da fonti legittime;
  • non violare i diritti di proprietà intellettuale altrui;
  • nel caso in cui vengano utilizzati dati personali degli interessati, ottenere il loro preventivo consenso;
  • adottare misure tecniche adeguate volte a migliorare la qualità dei dati di addestramento e migliorare l’autenticità, l’accuratezza, l’oggettività e la diversità dei dati di addestramento; e
  • rispettare le ulteriori normative in vigore, quali ad esempio la Personal Information Protection Law.

Inoltre, durante il data labeling[3], i fornitori di sistemi di intelligenza artificiale generativa devono formulare regole di etichettatura chiare, specifiche e operative che soddisfino i requisiti previsti dalle Misure, nonché svolgere una valutazione della qualità dell’etichettatura dei dati e condurre una verifica a campione dell’accuratezza dei contenuti etichettati.

Per quanto riguarda i dati personali, i fornitori di sistemi di intelligenza artificiale generativa, laddove questi sistemi trattino dati personali, sono considerati responsabili del trattamento.

In caso di richieste di cancellazione, modifica e copia dei dati personali da parte degli interessati, i fornitori dei sistemi di intelligenza artificiale generativa devono elaborare la richiesta in modo tempestivo, mettendo altresì a disposizione un meccanismo di reclamo e segnalazione.

Conclusioni

Le recenti iniziative cinesi non solo rappresentano un momento cruciale nel processo legislativo del paese, ma anticipano di fatto numerosi paesi concorrenti, facendo sì che la normativa cinese vada a costituire non solo un benchmark per un futuro quadro normativo più sistematico e approfondito, ma rappresenti anche un momento di cambiamento notevole nel contesto legislativo globale in materia di intelligenza artificiale.

Il legislatore cinese ha mostrato dunque chiaramente la sua determinazione a essere un leader nella regolamentazione di questa tecnologia, aprendo anche il campo a possibili impatti significativi sul futuro sviluppo economico e tecnologico mondiale.

Considerata, quindi, la velocità con cui la Cina si sta muovendo, ci si auspica che anche gli altri paesi (e in primis l’Unione europea) si dotino al più presto di adeguate regole che possano garantire dinamiche competitive nel mercato globale.


[1] Ovvero di tutti quei modelli o tecnologie analoghe in grado di produrre autonomamente contenuti, testi, video o immagini.

[2] Per utenti di sistemi di intelligenza artificiale generativa, ai sensi dell’art. 22 delle Misure, si intendono tutte le persone fisiche e giuridiche che utilizzano sistemi di intelligenza artificiale generativa per generare contenuti.

[3] I dati sono disponibili in molte forme diverse come testo, immagini, audio e video. Per arricchire i dati in modo che la macchina possa riconoscerli tramite algoritmi di apprendimento automatico, i dati devono essere etichettati.

L’etichettatura dei dati è, pertanto, il processo di identificazione dei dati grezzi in modo da attribuire un significato a diversi tipi di dati al fine di addestrare un modello di apprendimento automatico. Quando i dati vengono etichettati, vengono utilizzati per addestrare algoritmi avanzati per riconoscere i modelli in futuro. L’etichettatura è fondamentalmente contrassegnare i dati o aggiungere metadati per renderli più significativi e informativi in ​​modo che le macchine possano capirli e imparare da essi. Ad esempio, un’etichetta può indicare che nell’immagine è raffigurata una persona o un animale, o un file audio è in quale lingua o per determinare il tipo di azione eseguita in un video.

2024 - Morri Rossetti

I contenuti pubblicati nel presente sito sono protetti da diritto di autore, in base alle disposizioni nazionali e delle convenzioni internazionali, e sono di titolarità esclusiva di Morri Rossetti e Associati.
È vietato utilizzare qualsiasi tipo di tecnica di web scraping, estrazione di dati o qualsiasi altro mezzo automatizzato per raccogliere informazioni da questo sito senza il nostro esplicito consenso scritto.
Ogni comunicazione e diffusione al pubblico e ogni riproduzione parziale o integrale, se non effettuata a scopo meramente personale, dei contenuti presenti nel sito richiede la preventiva autorizzazione di Morri Rossetti e Associati.

cross