Durante la “Giornata della Protezione dei dati 2019“, il Comitato consultivo della Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati personali (Convenzione 108/1981), ha fornito dei chiarimenti e suggerimenti sulle linee guida presentate sull’intelligenza artificiale e la protezione dei dati personali. Il Garante Privacy ha ampiamente contribuito alle linee guida e ai lavori del Comitato che presiede dal 2016.

Le linee guida raccomandano una serie di misure generali sull’intelligenza artificiale (“IA”) da seguire per garantire che le applicazioni dell’IA non pregiudichino la dignità umana, i diritti umani e le libertà fondamentali di ogni individuo, in particolare per quanto riguarda il diritto alla protezione dei dati personali.

Si evidenzia che ogni progetto basato sull’IA dovrebbe rispettare (i) la dignità umana e le libertà fondamentali, incluso il diritto alla protezione dei dati personali, nonché (ii) i principi base di liceità, correttezza, specificazione della finalità, proporzionalità del trattamento, privacy by design e by default, sicurezza dei dati e gestione dei rischi.

Tra le indicazioni contenute nelle linee guida si sottolinea che è necessario:

  • adottare un approccio fondato sulla preventiva valutazione dell’impatto che sistemi, software e dispositivi basati sull’IA possono avere sui diritti fondamentali;
  • minimizzare i relativi rischi per i soggetti interessati adottando uno “human rights by-design approach” volto ad evitare potenziali pregiudizi (bias) ed altri effetti discriminatori, come quelli basati sulla differenza di genere o sulle minoranze etniche;
  • adottare sistemi di vigilanza degli algoritmi che possano garantire il rispetto della protezione dei dati personali e dei diritti umani;
  • informare i soggetti interessati sulle applicazioni dell’AI e sul loro diritto di ottenere informazioni sulle ragioni sottostanti le attività di trattamento dei loro dati personali tramite IA.

Il Comitato consultivo suggerisce, infine, di inserire nel processo di valutazione nuove “forme partecipatorie”, basate sul coinvolgimento di individui e di gruppi potenzialmente colpiti dagli effetti dell’IA.

Ulteriori indicazioni anche per la pubblica amministrazione che dovrebbe, ad esempio, predisporre procedure di appalto pubblico dove si richiede a sviluppatori, produttori e fornitori di servizi di IA, il rispetto di specifici obblighi di trasparenza, la valutazione preliminare dell’impatto del trattamento dei dati sui diritti umani e sulle libertà fondamentali, e l’obbligo di “vigilanza sugli algoritmi”, in particolare sugli effetti negativi e sulle conseguenze derivanti dalle applicazioni IA.