Privacy: il 2024 l’anno dell’intelligenza artificiale

Il 2024 sarà l’anno di svolta per ciò che più ormai sta prendendo piede in Europa e nel Mondo; L’intelligenza Artificiale: si sente sempre più parlare di quello che prima era solo un progetto e adesso sta diventando realtà che attira sempre più interesse. Ma se da un lato vediamo un bellissimo passo avanti per la scienza dall’altro gli interrogativi risultano essere tanti e variegati; uno di quelli che più inquieta è: l’intelligenza artificiale sarà a prova di Privacy?

Il recente accordo sul testo del Regolamento UE sull’Intelligenza Artificiale (AI Act) rappresenta un importante passo avanti verso la regolamentazione dell’utilizzo di detta tecnologia. Il nuovo accordo vieta che i sistemi di IA possano causare gravi violazioni dei diritti fondamentali o altri rischi significativi, ciò non rappresenta un divieto esplicito dell’utilizzo basta che gli stessi presentino un rischio limitato e rispettino gli obblighi di trasparenza. Un esempio su tutti: rendere noto se un contenuto è generato dall’Intelligenza Artificiale così da far scegliere gli utenti di prendere decisioni più consapevoli e informate.

Per fissare dei paletti nell’uso dell’IA, il Parlamento Europeo ha fatto introdurre nell’accordo che un sistema ad alto rischio di intelligenza artificiale, prima di essere introdotto sul mercato, deve aver superato una valutazione d’impatto sui diritti fondamentali. Si introducono dei divieti assoluti: la manipolazione comportamentale cognitiva; lo scraping non mirato delle immagini facciali da Internet o da filmati di telecamere a circuito chiuso; il riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione; l’attribuzione di un punteggio sociale (credit scoring); la categorizzazione biometrica per dedurre dati sensibili, quali l’orientamento sessuale o le convinzioni religiose; alcuni casi di polizia predittiva per gli individui. Lo stesso regolamento prevede delle sanzioni e anche i modi di presentare un reclamo all’autorità competente sui sistemi di IA che a parer loro violino diritti.  

L’IA si fa strada anche all’interno degli Istituti scolastici: anche qui bisogna un trade-off adeguatoper bilanciare un ottimo supporto che l’IA può fornire nelle tecniche di apprendimento e, dall’altro canto, limitare un rischio maggiore sia per il cyberbullismo che per la privacy.

Il suo utilizzo all’interno degli Istituti scolastici nasce dell’esigenza di dare maggiore aiuto e innovazione alla didattica, formando gli insegnanti in modo adeguato, al fine di introdurre già nei primi anni di vita scolastica degli alunni, un approccio più tecnologico per poter superare la tradizionale didattica; l’IA potrebbe introdurre un’innovazione anche per la valutazione e l’autovalutazione mediante l’assegnazione automatica di esercizi aggiuntivi e interrogazioni virtuali, con eventuale supporto di un tutor virtuale. Creare ed implementare nuovi approcci di valutazione basati su domande personalizzate, permetterebbe una analisi più approfondita e un supporto più centrato sul singolo studente; la disponibilità di una quantità maggiore di dati aiuterebbe i docenti a identificare i punti di forza e di debolezza dello studente in termini di apprendimento, permettendo una maggiore personalizzazione dei contenuti, così come delle lezioni.

Al contempo, questo rappresenterebbe un notevole vantaggio anche per gli studenti, che avrebbero l’opportunità di aumentare la consapevolezza dei propri progressi e la conoscenza di sé stessi in relazione alle attività svolte. Fermo restando una particolare attenzione rivolta al trattamento dei dati personali, l’Intelligenza Artificiale potrebbe dunque potenziare i sistemi d’istruzione in virtù dei nuovi livelli di competenze richiesti dal mondo del lavoro, ma quindi ciò vuol dire che gli alunni dovranno essere educati all’utilizzo di questi nuovi strumenti per lo sviluppo della propria istruzione;  Nel “Libro Bianco per l’Intelligenza Artificiale al servizio del cittadino” a cura dell’Agenzia per l’Italia Digitale, viene specificato che l’uso di soluzioni di IA nel settore scolastico consentirebbe di ridurre le diseguaglianze sociali. Nel documento è scritto infatti che nelle scuole “…è ipotizzabile un intervento significativo dei sistemi intelligenti di supporto all’apprendimento. C’è una lunga tradizione nell’uso del calcolatore per tali scopi: dai sistemi Computer Assisted Instruction (CAI) ai sistemi Intelligent Tutoring Systems (ITS). Negli ITS è sempre presente uno student model, inteso come base di conoscenza in cui sono rappresentate in modo esplicito le caratteristiche e le conoscenze dello studente. Questa soluzione svolge un ruolo di sostegno fornendo un’integrazione ai sistemi di insegnamento tradizionali, contribuendo a colmare le lacune di apprendimento degli studenti con problemi cognitivi”.

Non va trascurato il fatto che, per poter funzionare, l’IA deve trattare una grande quantità di dati personali, immessi dagli stessi utenti utilizzatori. Diventa quindi fondamentale accertarsi che tutti i sistemi vengano implementati secondo il rispetto dei principi di “privacy by design” e “privacy by default” previsti dal GDPR.

Gli algoritmi, fin dalla loro fase di progettazione, vanno impostati sul rispetto della riservatezza delle persone, e devono perciò trattare solamente i dati necessari per l’assolvimento delle finalità per cui sono programmati. Le scuole dunque, laddove intendano dotarsi di sistemi di IA (in quanto dalle stesse ritenuti importanti per lo svolgimento delle attività didattiche), saranno libere di farlo, previo accertamento della loro sicurezza e della loro conformità alle disposizioni del GDPR. Gli strumenti per giungere a questo risultato sono costituiti dalla valutazione del rischio e dalla valutazione di impatto (DPIA); bisogna infatti tener presente l’art. 75 e 76 del GDPR laddove si evince che se da un trattamento dati possono derivare danni fisici e materiali, la probabilità e la gravità del rischio devono essere determinate sulla base di una valutazione oggettiva, svolta dal titolare del trattamento tenendo conto della natura, dell’ambito di applicazione, del contesto e delle finalità del trattamento stesso, nonché dei rischi aventi probabilità e gravità diverse per i diritti e le libertà delle persone fisiche, mettendo in atto misure tecniche e organizzative adeguate, riesaminate periodicamente, per garantire, ed essere in grado di dimostrare, che il trattamento è effettuato conformemente al GDPR (cfr. Art. 24 e 32 GDPR). Deve perciò essere condotta un’analisi finalizzata a determinare il livello di esposizione al rischio dei dati personali trattati. L’importanza di tale analisi consiste nel fatto che i suoi risultati consentiranno di individuare gli ambiti su cui focalizzare gli interventi, ottimizzando l’impiego delle risorse a disposizione. Per fare ciò il Titolare del Trattamento non ha uno schema giuridico standard da seguire ma il tutto è rimesso al suo controllo e alla sua osservazione nel  rispetto del principio dell’accountability e dovrà individuare la metodologia più idonea per raggiungere l’obiettivo.

Punto focale di questa analisi è che, una volta effettuata, dovrà essere coinvolto il responsabile della protezione dei dati (DPO) affinché possa esprimere il suo parere in merito. Una volta approvata definitivamente, andranno implementate le misure di sicurezza suggerite dai risultati. Laddove, a seguito della DPIA, permangano dubbi in merito alla rischiosità del nuovo trattamento dati, il titolare del trattamento dovrà chiedere un parere preventivo all’autorità di controllo. È importante sottolineare che sia la valutazione del rischio che la DPIA devono essere redatte prima dell’adozione del trattamento dati considerato come a rischio, proprio per questo il ruolo del DPO è fondamentale in quanto dovrà assiduamente aggiornarsi su un argomento così in costante evoluzione. L’avanguardia dell’argomento e l’interesse generale suscitato dovranno essere ancora oggetto di approfondimento; a tal proposito, proprio qualche settimana fa, il direttore operativo di OpenAI, Brad Lightcap, ha dichiarato che metterà in piedi un team per valutare le possibili applicazioni educative di ChatGPT nelle scuole. Resteremo a vedere.

Avv. Imma Daiana Rivetti

Certificazione ISO 9001
Certificazione ISO 27001
Certificazione ISO 45001

©2021 OXfirm s.r.l. | Tutti i diritti riservati | P.IVA 15972861007
Viale Antonio Ciamarra 259 – 00173 – ROMA (RM)
Privacy Policy | Cookie Policy | Certificazioni