L’Europa vuole che le piattaforme etichettino l’intelligenza artificiale
L’Unione Europea si appoggia ai firmatari del suo Codice di condotta sulla disinformazione online per etichettare i deepfake e altri contenuti generati dall’intelligenza artificiale.
Nelle osservazioni di ieri a seguito di un incontro con gli oltre 40 firmatari del Codice, la commissaria europea per i Valori e la Trasparenza, Vera Jourova, ha affermato che coloro che hanno aderito alla lotta alla disinformazione dovrebbero mettere in atto una tecnologia per riconoscere i contenuti dell'intelligenza artificiale ed etichettarli chiaramente per gli utenti.
"Le nuove tecnologie di intelligenza artificiale possono essere una forza positiva e offrire nuove strade per una maggiore efficienza ed espressione creativa. Ma, come sempre, dobbiamo menzionare il lato oscuro di questa questione e presentano anche nuovi rischi e potenziali conseguenze negative per società", ha avvertito. "Anche quando si tratta di creazione e diffusione di disinformazione.
"I chatbot avanzati come ChatGPT sono in grado di creare contenuti e immagini complessi e apparentemente ben documentati in pochi secondi. I generatori di immagini possono creare immagini dall'aspetto autentico di eventi che non si sono mai verificati. I software di generazione vocale possono imitare la voce di una persona sulla base di un campione di pochi secondi. Le nuove tecnologie pongono nuove sfide anche per la lotta alla disinformazione. Per questo oggi ho chiesto ai firmatari di creare un percorso dedicato e separato all'interno del codice per discuterne."
"Quando si tratta di produzione di intelligenza artificiale, non vedo alcun diritto che le macchine abbiano libertà di parola.
I firmatari del codice di condotta dell’UE contro la disinformazione dovrebbero mettere in atto una tecnologia per riconoscere i contenuti dell’intelligenza artificiale ed etichettarli chiaramente per gli utenti."
- Vicepresidente @VeraJourova pic.twitter.com/yLVp79bqEH
— Commissione europea (@EU_Commission), 5 giugno 2023
L’attuale versione del Codice, che l’UE ha rafforzato l’estate scorsa – quando ha anche confermato che intendeva che lo strumento volontario diventasse una misura di mitigazione ai fini del rispetto del (giuridicamente vincolante) Digital Services Act (DSA) – non impegna attualmente identificare ed etichettare i deepfake. Ma la Commissione spera di cambiare la situazione.
Il commissario UE ha affermato di vedere due principali angoli di discussione su come includere misure di mitigazione per i contenuti generati dall'intelligenza artificiale nel codice: uno si concentrerebbe sui servizi che integrano l'intelligenza artificiale generativa, come New Bing di Microsoft o i servizi di ricerca aumentata con intelligenza artificiale Bard di Google, che dovrebbero impegnarsi a creare "tutele necessarie affinché questi servizi non possano essere utilizzati da soggetti malintenzionati per generare disinformazione".
Un secondo impegnerebbe i firmatari che dispongono di servizi potenzialmente in grado di diffondere disinformazione generata dall’intelligenza artificiale a mettere in atto “una tecnologia per riconoscere tali contenuti e etichettarli chiaramente per gli utenti”.
Jourova ha detto di aver parlato con Sundar Pichai di Google e le è stato detto che Google ha una tecnologia in grado di rilevare contenuti di testo generati dall'intelligenza artificiale, ma anche che sta continuando a sviluppare la tecnologia per migliorare le sue capacità.
In ulteriori osservazioni durante una sessione di domande e risposte con la stampa, la commissaria ha affermato che l'UE vuole che le etichette per i deepfake e altri contenuti generati dall'intelligenza artificiale siano chiare e veloci, in modo che gli utenti normali siano immediatamente in grado di capire che un contenuto che viene loro presentato ha stato creato da una macchina, non da una persona.
Ha inoltre precisato che la Commissione vuole che le piattaforme implementino l'etichettatura adesso, "immediatamente".
La DSA include alcune disposizioni che richiedono alle piattaforme online molto grandi (VLOP) di etichettare audio e immagini manipolate, ma Jourova ha affermato che l'idea di aggiungere l'etichettatura al Codice sulla disinformazione è che ciò possa avvenire anche prima della scadenza di conformità del 25 agosto per le VLOP ai sensi della DSA. .
"Ho detto molte volte che il nostro compito principale è tutelare la libertà di parola. Ma quando si tratta della produzione di intelligenza artificiale, non vedo alcun diritto che le macchine abbiano libertà di parola. E quindi anche questo torna al punto i vecchi pilastri del nostro diritto. Ed è per questo che vogliamo lavorare ulteriormente su questo aspetto anche nell'ambito del Codice di condotta sulla base di questa idea fondamentale", ha aggiunto.