L’affermazione che “non basta l’etica per governare l’AI” evidenzia una questione cruciale nel campo dell’intelligenza artificiale: mentre gli aspetti etici sono fondamentali, da soli potrebbero non essere sufficienti a garantire un utilizzo sicuro e responsabile di queste tecnologie.

 

Un sondaggio di Federprivacy, rivolto a circa 1000 professionisti italiani, rivela che gli esperti della protezione dei dati riconoscono l’importanza di promuovere un uso etico dell’intelligenza artificiale (63%), sottolineando però anche la necessità di un maggiore rispetto delle normative (73%) e di un rafforzamento delle attività ispettive da parte dell’Autorità (43,2%). Inoltre, più della metà (56,9%) considera che il GDPR abbia uniformato le regole per tutti, ma si evidenziano criticità per le micro, piccole e medie imprese, spesso in difficoltà nell’applicare le normative in modo efficace.
 
Se molti vedono l’intelligenza artificiale come un’opportunità, d’altra parte gli esperti temono che possa sfuggire di mano, come il Premio Nobel per la fisica Geoffrey Hinton, che nei giorni scorsi l’ha descritta in modo sibillino dal palcoscenico del Gitex Europe a Berlino: “L’AI è come una tigre. Da cucciola sembra innocua, addirittura affascinante. Ma crescerà. E a meno che non siate certi che non vorrà uccidervi, dovreste preoccuparvi.” E all’intervistatore che gli proponeva l’etica come principale rimedio scaccia incubi, il pioniere del machine learning ha risposto in modo perentorio: “Le grandi aziende perseguono il profitto, non l”etica“.
Non mancano quindi le preoccupazioni per gli impatti che avrà l’intelligenza artificiale nei prossimi anni, e un nuovo sondaggio di Federprivacy rivolto a 1000 addetti al settore, rivela l’attuale termometro della comunità dei professionisti che hanno il compito di tutelare la privacy e la protezione dei dati delle persone.
Il 63% degli addetti ai lavori ritiene che promuovere un uso etico dell’intelligenza artificiale abbia la priorità per favorire la sostenibilità della società digitale, ma tutto crede fuorché ci si possa affidare solo all’etica. Se in 7 anni di GDPR le autorità europee hanno inflitto più di 2.500 multe per un ammontare di oltre 6 miliardi di euro senza intravedere un cambio di rotta significativo, il  73,9% dei professionisti pensa però che non occorra cambiare gli attuali profili sanzionatori, bensì farli rispettare in modo più efficace. Piuttosto, il 43,2% di essi vorrebbe un numero maggiore di attività ispettive del Garante e della Guardia di Finanza a presidio della legalità. E a differenza di quello che possono pensare i cittadini che vedono minacciata la loro privacy come mai prima, il 63,5% dei professionisti che vede le aziende dall’interno afferma che dal 2018 ad oggi la situazione è comunque migliorata grazie alle sanzioni più severe che sono state introdotte dal Regolamento UE sulla protezione dei dati.
“Si parla tanto di etica per affrontare le sfide dell’intelligenza artificiale, ma attualmente essa costituisce un principio troppo astratto per offrire una guida concreta per lo sviluppo della società digitale – è il commento di Nicola Bernardi, presidente di FederprivacyÈ quindi comprensibile che la comunità di addetti ai lavori invochi punti riferimento più concreti come il rispetto delle regole. E i risultati del sondaggio mostrano obiettività e coerenza, perché non chiedono una società digitale basata esclusivamente sulla privacy solo perché una manciata di Big Tech non la rispetta come dovrebbe, ma ben il 78,3% indica la necessità di trovare un equilibrio per conciliare i diritti fondamentali con l’innovazione, e questo non dovrebbe andare a discapito delle piccole realtà imprenditoriali.”
Al riguardo, se le semplificazioni proposte dalla Commissione Europea non si stanno rivelando le agevolazioni tanto attese, il 56,9% dei professionisti riconosce che il GDPR ha effettivamente introdotto regole uguali per tutti, ma lamenta che esso avrebbe dovuto agevolare maggiormente le micro, piccole e medie imprese, che costituiscono la stragrande maggioranza del tessuto imprenditoriale italiano.
“Le piccole aziende non possono permettersi né di dedicare budget importanti alla privacy né di assumere un Data Protection Officer, e se non adottano le dovute contromisure rischiano sia di esporsi a sanzioni che di perdere competitività – spiega l’Avv. Paola Casaccino, docente di diritto di internet e tutela dell’innovazione all’Università Cattolica del Sacro Cuore Le soluzioni più efficaci per la compliance GDPR vengono proprio dagli strumenti di intelligenza artificiale, che sono in grado di far risparmiare a un professionista fino a 12 ore di lavoro settimanali[1]. Nella società che sta cambiando profondamente, concentrarsi solo sulle criticità dell’AI e rifiutarsi di avvalersene sarebbe come intestardirsi di voler continuare a fare i conti con carta e penna mentre gli altri usano la calcolatrice”.
I risultati completi del Rapporto del sondaggio “Innovazione responsabile e compliance per la sostenibilità della trasformazione digitale” saranno analizzati e commentati da esperti e rappresentanti delle autorità al Privacy Day Forum 2025, in programma venerdì 6 giugno al Centro Congressi e Fiere di Arezzo.