Intelligenza artificiale: tra privacy e algoritmi, equilibrio difficile ma necessario

Algoritmi, decisioni automatizzate, intelligenza artificiale (AI), umanità aumentata. Dovrà essere sempre più il pane quotidiano di chi è chiamato a tutelare la nostra privacy perché non si tratterà solo di occuparsi di sicurezza dei dati e dei sistemi ma, spiega al Sir il presidente dell'Istituto italiano per la privacy, Luca Bolognini, occorrerà anche “proteggerci da sensori e da minacce non umane, poco tracciabili e ‘responsabilizzabili’”. E se la sfida è trovare un equilibrio fra diritti inviolabili e corsa all'innovazione tecnologica, l'ultima parola dovrà sempre spettare all'uomo

image_pdfimage_print

Oltre a straordinarie opportunità, il progresso velocissimo e dirompente delle nuove tecnologie porta con sé “minacce per la libertà e la dignità delle persone”. Per questo, tutelare la privacy non sarà più “occuparsi di mera sicurezza dei dati e dei sistemi” ma occorrerà anche “proteggerci da sensori e da minacce non umane, poco tracciabili e ‘responsabilizzabili’”. Insomma “garantire i diritti alla protezione dei dati personali e alla riservatezza significherà occuparsi di algoritmi, decisioni automatizzate, intelligenza artificiale (AI), umanità aumentata (o perfino sostituita)”. Ne è convinto Luca Bolognini, avvocato e uno dei massimi esperti europei di privacy e di diritto dei dati, presidente dell’Istituto italiano per la privacy e la valorizzazione dei dati (IIP) e autore del recente pamphlet “Follia artificiale – Riflessioni per la resistenza dell’intelligenza umana”.

Bolognini è intervenuto nei giorni scorsi al convegno “Le tecnologie che cambieranno la società e le professioni: intelligenza artificiale, internet delle cose, blockchain e 5G” promosso dall’Università europea di Roma. Lo abbiamo incontrato a margine.

Luca Bolognini

Perché occuparsi di “follia artificiale”?
Ho voluto esplorare sia le derive che l’intelligenza artificiale può comportare – e quindi guardare l’intelligenza da un punto di vista “patologico” anche quando si tratta di intelligenza non umana – sia indagare con il filtro del giurista gli aspetti di sbandamento dell’essere umano alle prese con l’utilizzo dell’intelligenza artificiale. Due prospettive che devono essere sempre tenute insieme.

La sua visione è per certi aspetti “umanistica”.
Quando si affronta il tema dell’intelligenza, artificiale o no, non può essere altrimenti. Si sollevano questioni giuridiche, etiche, filosofiche. Bisogna tenere conto del cambiamento degli scenari in cui siamo immersi e dell’intrecciarsi di nuove dinamiche, la principale delle quali è il combinarsi tra fusione materiale e immateriale con il continuo tracciamento di tutto e di tutti e la tecnologizzazione delle relazioni umane. Ciò che saremo e faremo nel mondo fisico sarà sempre più trasformato in dati digitali perché, a prescindere dalla nostra consapevolezza, noi “spargiamo” tracce che i sensori “catturano”. Dietro l’AI c’è l’enorme tema degli algoritmi che si ricollega alla sostituzione del pensiero umano, che non è il mero sostituirsi all’azione dell’uomo come ormai avviene da anni in alcuni settori, bensì la sostituzione di pensiero, di volontà, di scelta e magari di regole.

Che cosa intende dire?
Il codice algoritmico, che comporta delle decisioni e degli effetti, è una norma che si installa da sé. Noi ci ritroviamo ad avere a che fare con scenari normati da un codice informatico e ciò è potenzialmente drammatico per la libertà umana. È difficilissimo capire che cosa c’è dietro un algoritmo che fa meta–analisi.

Un algoritmo che si autoscrive e si evolve in maniera automatica.

Ci troviamo di fronte a black box, scatole nere, impenetrabili se viste da fuori ma collegate all’enorme mole di dati che esiste su ognuno di noi e della quale l’individuo stesso ignora l’esistenza perché si tratta di dati raccolti in maniera silenziosa o di meta-dati nuovi, creati come risultato di elaborazioni intelligenti eseguite a nostra insaputa, veri e propri tesori per i grandi colossi del web e del digitale. Su questo bisogna interrogarsi perché non vi è sufficiente consapevolezza del potere che i big player IT hanno su di noi.

Come cambia e come dovrà allora articolarsi la tutela della privacy e la protezione dei dati?
In futuro la protezione dei dati – e più in generale il diritto dei big data e dei dati personali – sarà sempre più “diritto dell’intelligenza artificiale” in quanto diritto dei dati che servono a fare l’elaborazione intelligente. Il GDPR (General Data Protection, regolamento europeo sulla privacy applicabile dal 25 maggio 2018 in tutti gli Stati, ndr) è sicuramente un primo passo che l’Europa fa a livello mondiale ma non è del tutto adeguato. Tenta di individuare principi generali da applicare anche al mondo dell’AI, ma alcuni di questi principi, se interpretati in maniera troppo ferrea o burocratica, rischiano di essere scollegati dalla realtà e di mettere fuori legge qualsiasi Big Data analyticis. Pericolosa quanto la negazione della privacy è ogni forma di integralismo, di fondamentalismo del diritto che impedisca aprioristicamente, per pregiudizio, il progresso, la ricerca scientifica e la libertà d’impresa.

Quale dunque la sfida?

Bilanciare tutela dei diritti fondamentali e inviolabili degli individui e corsa dell’innovazione.

Quest’ultima deve essere rispettosa di princìpi etico-umanistici. Sono pertanto indispensabili paletti giuridici, ma non devono impedire o frenare la ricerca nel settore altrimenti l’Europa rimarrà indietro rispetto al resto del mondo. Occorre trovare una formula. Non ho la risposta ma bisogna lavorare e interrogarsi. Proprio alla luce di queste sfide, come Istituto italiano per la privacy guardiamo con interesse alla primavera-estate quando il Parlamento dovrà designare i quattro nuovi componenti del Collegio del Garante per la protezione dei dati personali e stiamo lavorando alla stesura di un ampio documento contenente idee e strategie da affidare al Parlamento e poi alla nuova Authority per il settennato 2019-2026. Il Garante si troverà ad esercitare il suo ruolo nel mondo digitale degli algoritmi, in una cruciale posizione di rilievo meta-costituzionale e sovranazionale perché derivante direttamente dai trattati dell’Unione europea. Pertanto dovrà essere competente in Internet delle cose, intelligenza artificiale, Big data analytics e dovrà conoscere la realtà delle industries che fanno ricerca e innovazione in questi ambiti.

Si è aperto un dibattito sull’ipotesi di attribuire personalità elettronica ai robot più sofisticati e autonomi. Che ne pensa?
Riconoscere loro personalità giuridico-elettronica sarebbe un grave errore per l’umanità perché trasformare l’oggetto non umano in centro di imputazione giuridica significherebbe in qualche maniera cedergli una parte di “sovranità” con la conseguenza di rendere l’essere umano “soggiogabile” alla scelta del non umano. E non si tratta di scenari fantascientifici. Nella progettazione di sistemi informatici intelligenti, l’ultima parola dovrà sempre spettare all’uomo. In altre parole,

il “comandante in capo”, il super-admin di sistema dovrà sempre essere solo ed esclusivamente umano.

(AgenSir)

Facebooktwittermail