1. Introduzione: il concetto di algoritmo

Una sequenza di ordini e istruzioni chiamate a descrivere nel dettaglio un processo volto, a partire da un input (dati in ingresso) e passando per l’esecuzione di un determinato calcolo (elaborazione), a produrre uno specifico output (dati in uscita o risultato). Questa potrebbe essere in estrema sintesi la definizione di che cosa sia un algoritmo.

Nel campo dell’informatica – e, più specificamente, in quello della programmazione – gli algoritmi costituiscono la “logica” di un programma, intesa quale insieme di istruzioni attraverso le quali un programma potrà produrre il risultato (output) per il quale il programma stesso è stato creato, a partire da specifici dati di partenza (input) e attraverso l’elaborazione di tali dati.

Gli algoritmi, quindi, rappresentano parte fondamentale, anche se non immediatamente percepibile, di ogni programma eseguito da un elaboratore.

2. Algoritmi ed elaborazione dei dati

Tuttavia, con il crescere del numero di società che raccolgono – in particolare sul web – ed elaborano enormi quantità di dati anche personali (cd. Big Data), il concetto di “algoritmo” ha acquisito un significato più specifico e, se vogliamo, circoscritto. In tale contesto, infatti, il concetto di algoritmo non viene più inteso – in maniera ampia – come una sequenza di ordini e istruzioni volte all’ottenimento di uno specifico scopo o risultato. Più precisamente, il concetto di algoritmo viene riferito al modo in cui l’insieme di tali ordini e istruzioni sono effettivamente implementati e combinati all’interno di particolari programmi, software o sistemi informatici sfruttati dalle società del web con il fine ultimo (ed è questo il punto) di analizzare Big Data e trarre informazioni ulteriori per migliorare l’offerta dei propri beni e servizi[1].

Peraltro, l’utilizzo di algoritmi da parte di società con rilevanti capacità di elaborazione dati (in particolare le cd. big tech quali Amazon, Google, Facebook, etc.) offre a queste ultime una duplice opportunità. In primis, tali società potranno analizzare masse ingenti di dati che permetteranno loro di ottenerne di nuovi (cd. dati inferiti[2]), dedotti dai primi, e che, spesso, siamo noi stessi a fornire tramite la nostra attività sul web (dati anagrafici, email, dati relativi ai nostri interessi tratti dalle ricerche effettuate mediante motori di ricerca, etc.). Esempio lampante consiste nelle attività predittive relative ai comportamenti dei consumatori, alle loro preferenze e addirittura alle loro emozioni, al fine di poter fornire servizi sempre più mirati e targettizzati per lo specifico consumatore.

In secondo luogo, i dati inferiti potranno essere, a loro volta, ulteriormente analizzati ed elaborati, sempre attraverso algoritmi, al fine di ottenere vantaggi aggiuntivi, sia per le aziende che elaborano tali dati che per gli algoritmi che queste ultime sfruttano nell’espletamento della loro attività d’impresa. Nello specifico, i dati inferiti permetteranno agli algoritmi di “migliorarsi”, perfezionando autonomamente – attraverso tecniche di cd. machine learning – le loro capacità di analisi dei dati[3]. Attraverso il machine learning, infatti, un programma, computer o altro sistema informatico “impara” dalla propria “esperienza” migliorando le proprie prestazioni (in questo senso si parla di apprendimento) a seguito dello svolgimento di un compito o il completamento di un’azione[4].

Ad esempio, il servizio di ricerca online di Google contiene un algoritmo che può analizzare le parole chiave che gli utenti del web immettono all’interno di una search bar, servendosi di centinaia di criteri diversi. Tali “criteri” (es. area geografica in cui si trova l’utente, la precisione dei termini di ricerca, tipologia – desktop o mobile – del dispositivo dal quale viene avviata la ricerca, lingua impostata sul dispositivo, ricerche precedenti effettuate dello stesso utente, etc.) consentono al sistema di scremare i risultati di una ricerca, visualizzando solo quelli che realmente hanno importanza per l’utente medesimo e ordinandoli nel modo corretto, secondo una corrispondenza decrescente (i.e. verranno visualizzati prima i risultati che Google ritiene maggiormente coerenti con la ricerca dell’interessato e successivamente i risultati meno attinenti a quest’ultima).

3. Algocrazia e problematiche connesse: persone fisiche…

Il forte sviluppo dell’economia digitale ha portato ad un aumento vertiginoso nell’utilizzo dei cd. “servizi della società dell’informazione” tra cui uno dei più rilevanti è sicuramente il motore di ricerca di Google[5].

Come accennato al paragrafo precedente, il servizio di ricerca online offerto da Google si basa su complessi algoritmi finalizzati all’elaborazione delle richieste che gli utenti formulano al motore di ricerca stesso tramite la toolbar, al fine di fornire un risultato sulla base delle parole chiave fornite dagli utenti medesimi.

In sostanza, tali algoritmi filtrano i risultati da fornire agli utenti per presentarli a questi ultimi secondo uno specifico ordine, spesso personalizzato a seguito di un processo di profilazione dell’utente medesimo[6].

Google, pertanto, è in grado di determinare le modalità di fruizione dell’informazione, orientando significativamente il successo o meno in termini di visibilità e audience di una notizia, con particolari problematiche legate, ad esempio, alla veicolazione di fake news non rilevate come tali dal motore di ricerca.

Il pericolo che si intravede dietro all’aumento della rilevanza di Google e dei suoi algoritmi all’interno della nostra società è quello di una eccessiva personalizzazione dei contenuti proposti, dalla quale conseguirebbe una determinazione eterodiretta – da parte degli algoritmi per l’appunto – dell’informazione, la quale risulterebbe, in ultima analisi, non libera e ad accesso mediato.

In pratica, Google mostrerebbe all’utente del suo motore di ricerca solo ciò che Google stessa ritiene attinente al profilo legato all’utente medesimo, senza che sia chiaro secondo quali criteri Google, attraverso i propri algoritmi, selezioni specifici risultati “nascondendone” altri.

A fronte della crescente influenza e del crescente potere “opaco” – dato che molto spesso non se ne conoscono le dinamiche di funzionamento – degli algoritmi nella nostra società è stato coniato il termine “Algocrazia” ossia una sorta di prevaricazione dell’algoritmo sulle nostre determinazioni individuali, che limita l’autodeterminazione “sulle nostre vite, sui nostri dati, sulle nostre scelte[7].

Tale idea sembra riflessa anche nelle parole di Antonello Soro, Presidente italiano dell’Autorità Garante per la Protezione dei Dati Personali (il “Garante Privacy”) il quale all’interno della Relazione Annuale del Garante Privacy del 2017 ha affermato “ll web di cui facciamo esperienza non è, dunque, la rete, ma soltanto la sua parte selezionata da algoritmi che, analizzando le nostre attività e preferenze, ci espongono a contenuti il più possibile affini ad esse, per esigenze di massimizzazione dei ricavi da parte dei gestori, legate al tempo di permanenza e al traffico online”[8].

4. …E concorrenza

Tuttavia l’Algocrazia – intesa quale vero e proprio “potere dell’algoritmo” – può comportare anche una ricaduta negativa sul principio della libera concorrenza tra imprese, come stabilito dalla decisione “Google Shopping” (la “Decisione”) adottata dalla Commissione Europea nei confronti di Google[9].

La decisione riguardava il prodotto di Google denominato “Google Shopping”. Tale prodotto consente ai consumatori di raffrontare i prodotti e i prezzi online e individuare offerte proposte sul web da rivenditori di tutti i tipi, tra cui negozi online di produttori di specifici beni, piattaforme come Amazon e eBay e altri rivenditori.

In particolare, la decisione illustra il trattamento più favorevole, in termini di posizionamento e visualizzazione, riservato da Google nelle sue pagine generali dei risultati di ricerca al proprio servizio di acquisti comparativi (Google Shopping) rispetto ai servizi di acquisti comparativi offerti da società concorrenti. Questi ultimi servizi, infatti, sarebbero stati retrocessi nelle pagine dei risultati di ricerca generica di Google, con conseguenti ripercussioni sulla loro visibilità da parte degli utenti all’interno di tali pagine.

Come rilevato dalla Commissione, tale retrocessione dipendeva da specifici algoritmi implementati da Google, i cui servizi di acquisti comparativi risultavano, al contrario e grazie a funzionalità migliorate non accessibili ai concorrenti, in cima ai risultati – o comunque tra i primi risultati – che comparivano nella prima pagina di ricerca generica.

Pertanto, la Commissione ha concluso che Google ha abusato della sua posizione dominante nel mercato dei servizi di ricerca generica al fine di promuovere il proprio servizio di acquisti comparativi, ponendolo in cima ai (o tra i primi) risultati delle ricerche degli utenti del motore di ricerca e retrocedendo, invece, servizi della stessa specie offerti dai concorrenti.

In tal modo, Google avrebbe impedito ad altre imprese di competere in base ai propri meriti e negato ai consumatori europei di scegliere liberamente i prodotti da acquistare e i servizi di cui usufruire. Il tutto, è bene sottolinearlo, tramite l’utilizzo di propri algoritmi. Un perfetto esempio di “Algocrazia”.

5.     Search Neutrality e Trasparenza: una possibile soluzione?

A fronte di tale situazione di “opacità” del funzionamento dei motori di ricerca e di possibili distorsioni concorrenziali causate dalla tecnologia algoritmica, un richiamo alla search neutrality e alla trasparenza di tale tecnologia appare doveroso. Tuttavia è bene intendersi sul significato di questi ultimi due concetti.

Innanzitutto appare opportuno sottolineare che gli algoritmi costituiscono un “prodotto umano”, ideati, progettati e scritti da specifiche persone fisiche, ognuna con proprie idee e opinioni; e tali idee e opinioni si rifletteranno evidentemente e inevitabilmente sull’algoritmo medesimo.

Riprendendo nuovamente le parole del Presidente del Garante Privacy, gli algoritmi “non sono neutri sillogismi di calcolo ma opinioni umane strutturate in forma matematica che, come tali, riflettono, in misura più o meno rilevante, le precomprensioni di chi li progetta, rischiando di volgere la discriminazione algoritmica in discriminazione sociale”[10].

Pertanto gli algoritmi non potranno mai essere del tutto neutrali nell’elaborazione dei dati, essendo progettati sulla base di parametri e criteri “umani” – quelle opinioni/“precomprensioni” proprie dei creatori degli algoritmi medesimi e richiamate dalle parole del Presidente del Garante Privacy.

Inoltre, invocare la neutralità “pura” dei motori di ricerca significherebbe esigere che questi debbano sempre generare risultati completi, imparziali e basati su criteri di pubblico dominio, standard e prefissati. Sotto questo aspetto è bene evidenziare che l’obiettivo dei motori di ricerca consiste nell’individuazione dell’idea, spesso vaga se non contraddittoria, che il consumatore/utente del web ha in mente quando effettua una ricerca, ben lontana da un preciso termine o concetto cui si vorrebbe imporre un significato univoco al fine di standardizzare l’indicizzazione dei risultati[11].

Peraltro, imporre una standardizzazione del funzionamento degli algoritmi significherebbe limitare l’innovazione in questo campo, con l’evidente ottenimento del risultato paradossale di offrire un servizio qualitativamente inferiore al consumatore[12] nonché di ledere la libera concorrenza tra imprese, di cui l’innovazione costituisce un cardine fondamentale.

Preso atto della parzialità “ab origine” degli algoritmi è necessario, però, che tale circostanza non diventi una giustificazione a scelte direttamente e ingiustificatamente discriminatorie, come direttamente e ingiustificatamente discriminatoria è stata giudicata dalla Commissione Europea la scelta di Google di riservare un posizionamento più favorevole nelle proprie pagine generali dei risultati di ricerca al proprio servizio di acquisti comparativi rispetto a servizi della medesima specie offerti imprese concorrenti[13].

Un’ulteriore considerazione merita il concetto di “trasparenza algoritmica”, ossia la necessità di rendere interamente pubblici i criteri degli algoritmi – nonché gli aggiornamenti di questi ultimi[14] – attraverso i quali società del web quali Google – o altre società che offrano servizi di ricerca online – producono l’ordinamento dei propri risultati di ricerca.

La critica a questa misura è la necessità da parte di tali imprese di mantenere comunque segrete parti commercialmente sensibili del proprio algoritmo, il quale ben potrebbe costituire un segreto commerciale meritevole di tutela giuridica (in particolare secondo le disposizioni della Direttiva (UE) 2016/943 sulla tutela del segreto commerciale[15]). Peraltro, non sarebbero nemmeno pienamente dimostrati i benefici per gli utenti dovuti alla trasparenza algoritmica. Anche nel caso venissero resi pubblici i meccanismi di funzionamento di un algoritmo, infatti, data l’elevata complessità tecnica della materia, difficilmente questa maggior trasparenza gioverebbe ai consumatori che, al contrario, potrebbero trovare tali specificazioni ambigue e, quindi, poco fruibili[16].

Da quanto sopra potremmo trarre le seguenti conclusioni. Al fine di arginare le problematiche legate alla tecnologia algoritmica (v. par. 3 e 4 del presente articolo) ciò che sembra realmente necessario non è – o quantomeno non pare essere – un semplice richiamo ai principi della search neutrality e della trasparenza algoritmica tout court.

Sarebbe, al contrario, più utile l’avvio di un serio dibattito nell’ambito delle Istituzioni Europee in tema di regolazione normativa sull’utilizzo della tecnologia algoritmica per la fornitura di servizi della società dell’informazione. In particolare tale dibattito dovrebbe concentrarsi, a parere di chi scrive, su come implementare i principi di search neutrality e trasparenza algoritmica all’interno della legislazione europea senza, tuttavia, fermare l’innovazione e la concorrenza tra imprese in questo campo – le quali vanno entrambe, in ultima analisi, a favore dei consumatori – ed evitando di danneggiare il business delle imprese che fondano la loro attività (anche) sulla tecnologia algoritmica.

Tale confronto, inoltre, dovrebbe incoraggiare la partecipazione di tutti gli stakeholders (Autorità garanti della protezione dei dati personali e della concorrenza europee, società del web, rappresentanti degli utenti della rete internet e dei consumatori, etc.), evitando sterili preconcetti e trovando un equo bilanciamento tra search neutrality, trasparenza algoritmica e interesse economico delle tech firm alla tutela giuridica, all’utilizzo e al miglioramento dei propri algoritmi, quali strumenti strettamente funzionali alla loro attività d’impresa, caratterizzata dall’elaborazione di enormi quantità di dati – anche personali – ma volta, in ultima analisi, a fornire agli utenti del web servizi digitali sempre più efficienti e funzionali rispetto alle richieste del mercato.

Un tale confronto getterà certamente le basi per proposte normative bilanciate, volte a regolare la forma che concretamente debbano assumere i principi di search neutrality e di trasparenza della tecnologia algoritmica con lo scopo di correggere gli eccessi e le distorsioni legati allo sfruttamento di tale tecnologia.

[1] M. Maggiolino, Eu Trade Secrets Law and Algorithm Transparency, in L. C. Ubertazzi (diretto da), AIDA, XXVII, Giuffrè Francis Lefebvre, Milano, 2018, pag. 202.

[2] Sul tema F. Pizzetti, “Dati inferiti”, regolarne l’uso per tutelare le persone: la nuova frontiera della privacy, 26 febbraio 2019, disponibile su Agenda Digitale all’indirizzo https://www.agendadigitale.eu/cultura-digitale/dati-inferiti-regolarne-luso-per-tutelare-le-persone-la-nuova-frontiera-della-privacy/.

[3] M. Maggiolino, Eu Trade Secrets Law and Algorithm Transparency, in L. C. Ubertazzi (diretto da), AIDA, XXVII, Giuffrè Francis Lefebvre, Milano, 2018, pag. 202.

[4] Nicoletta Boldrini, AI, Artificial Intelligence: come è nata, come funziona e come l’intelligenza artificiale sta per cambiare il mondo la vostra vita il vostro lavoro, supplemento a MF-Milano Finanza del 23.06.2018, pagg. 18 e 19.

[5] Secondo dati del febbraio 2017 pubblicati sul Sole24Ore e diffusi da Net Market Share (https://netmarketshare.com) Google deteneva una quota del mercato dei motori di ricerca utilizzati tramite dispositivo desktop (i.e. computer) pari all’80.5%. Link all’articolo https://www.infodata.ilsole24ore.com/2017/05/10/google-domina-mondo-della-ricerca-soprattutto-console/. Ora la quota di mercato si sarebbe leggermente ridotta al 74.80% https://netmarketshare.com/search-engine-market-share.

[6] L’operazione di “profilazione” – ossia di creazione di un profilo dell’utente – avviene a seguito dell’elaborazione di grandi quantità di dati personali relativi agli utenti di internet (ultime ricerche effettuate online, dati anagrafici, dati sulla geolocalizzazione, etc.) e in possesso di Google, che li raccoglie secondo diverse modalità (es. attraverso l’utilizzo di cookie o mediante propri servizi quali Google Mail e Google Maps; ovviamente in questi ultimi casi è l’utente stesso a fornirli al fine di poter usufruire dei relativi servizi offerti da Google). Scopo ultimo della profilazione consiste nel suddividere i profili degli utenti in gruppi omogenei in base a gusti, interessi e comportamenti così da poter offrire servizi sempre più mirati e personalizzati in base alle caratteristiche dello specifico profilo utente.

 

[7] R. Razzante, Authority italiane, quali regole per i Re degli algoritmi, 10 agosto 2018, disponibile su Agenda Digitale all’indirizzo https://www.agendadigitale.eu/cultura-digitale/authority-italiane-quali-regole-per-i-re-degli-algoritmi/.

[8] Antonello Soro, discorso di presentazione della Relazione sull’attività svolta nel 2017, disponibile sul sito del Garante all’indirizzo https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9005824, pag. 6.

[9] Decisione C(2017) 4444 final, del 27.06.2017, caso AT. 39740 “Google Search (Shopping)”. Per il testo completo della decisione: http://ec.europa.eu/competition/antitrust/cases/dec_docs/39740/39740_14996_3.pdf. Comunicato stampa della Commissione Europea: http://europa.eu/rapid/press-release_IP-17-1784_it.htm.

[10] Antonello Soro, discorso di presentazione della Relazione sull’attività svolta nel 2017, disponibile sul sito del Garante all’indirizzo https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9005824, pag. 8.

[11] V. V. Comandini, Google e i mercati dei servizi di ricerca su Internet, in Mercato concorrenza regole, Il Mulino, Bologna, 2013, pag. 561.

[12] Google può vantare una posizione dominante sul mercato dei motori di ricerca anche perché nel corso degli anni è stata in grado di fornire ai propri utenti un servizio migliore grazie ai continui miglioramenti e innovazioni apportati ai propri algoritmi.

[13] Sul punto v. quanto detto al par. 4 del presente articolo.

[14] Google aggiorna periodicamente gli algoritmi alla base del funzionamento del suo motore di ricerca. Tali innovazioni sarebbero necessarie per migliore il servizio offerto agli utenti. Tuttavia di tutti questi aggiornamenti solo alcuni vengono annunciati e resi ufficiali da Google.

[15] Direttiva (UE) 2016/943 sulla protezione del know-how riservato e delle informazioni commerciali riservate (segreti commerciali) contro l’acquisizione, l’utilizzo e la divulgazione illeciti, disponibile su https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX:32016L0943; sul tema si v. M. Maggiolino, Eu Trade Secrets Law and Algorithm Transparency, in L. C. Ubertazzi (diretto da), AIDA, XXVII, Giuffrè Francis Lefebvre, Milano, 2018, pagg. 209 – 217.

[16] V. V. Comandini, Google e i mercati dei servizi di ricerca su Internet, in Mercato concorrenza regole, Il Mulino, Bologna, 2013, pag. 563.