Il dispiegamento dell'assistente Meta AI su tutte le piattaforme di Meta: WhatsApp, Facebook, Instagram, Messenger e Threads, avviene in modo progressivo ma sostenuto, spesso senza un chiaro avviso, né possibilità di esclusione globale. Un dispiegamento massiccio che, secondo Adrianus Warmenhoven, esperto di cybersicurezza presso NordVPN, solleva serie questioni in materia di trasparenza e protezione dei dati degli utenti.

Un'UX progettata per favorire l'engagement piuttosto che la trasparenza

Secondo Warmenhoven, Meta progetta la sua IA per essere percepita come intuitiva, naturale e utile. Tuttavia, questa apparente semplicità nasconde un design orientato alla massimizzazione dell'engagement dell'utente, a scapito di una ridotta trasparenza. L'assenza di chiari indicatori per identificare le interazioni con l'IA, la raccolta passiva di dati comportamentali e la difficoltà di rifiutare l'uso dell'IA sollevano questioni profonde.
L'esperto avverte di un'"adozione forzata", in cui gli utenti possono condividere dati con l'IA senza rendersene pienamente conto. Afferma:
"Ciò che sembra trasparente e utile in superficie nasconde una verità scomoda. Meta privilegia la comodità alla trasparenza, facilitando la condivisione dei dati senza rivelarne il costo reale."

Design psicologico e responsabilità etica

Il design delle piattaforme gioca qui un ruolo chiave. Gli utenti interagiscono a volte con l'IA senza esserne consapevoli, questa ambiguità rende difficile l'esercizio di una scelta informata.

"L'uso da parte di Meta della psicologia del design solleva preoccupazioni sull'etica del dispiegamento dell'IA. Integrando l'IA nelle interazioni regolari delle applicazioni senza chiari indicatori visivi né avvertimenti, gli utenti possono impegnarsi in interazioni che non avevano previsto, spesso senza rendersene conto."


aggiungendo:

"Le persone credono di conversare con un umano o di utilizzare semplicemente la piattaforma normalmente. Ma in background, l'IA di Meta impara da loro e immagazzina ciò che apprende."

Rischi specifici a seconda della piattaforma

Le preoccupazioni non sono uniformi: ogni piattaforma Meta presenta falle specifiche, come si può vedere in questa tabella condivisa da NordVPN.
 
Piattaforma
Rischi legati alla protezione della privacy
Punti chiave
WhatsApp
🔴 Grave
- Consenso parziale nelle chat di gruppo- Nessun opt-out globale- L'IA elude la crittografia end-to-end.
"Anche se non usi l'IA, i tuoi metadati potrebbero essere integrati senza il tuo consenso."
🔴 Grave
- Nessun rifiuto chiaro - Gli strumenti di IA si fondono nell'interfaccia - Raccolta passiva di dati comportamentali.
"Interagisci con l'IA prima ancora di rendertene conto ed è intenzionale."
Instagram
🟠 Alto
- Engagement implicito- Nessun parametro IA dedicato- Miglioramento dei segnali di engagement e dati comportamentali.
"L'attività del tuo feed diventa un dato di addestramento, che tu lo accetti o meno."
Messenger
🟡 Moderato
- Nessuna separazione chiara tra le chat IA/umane- Nessuna crittografia per le chat IA-. Divulgazioni oscure
"Due chat dall'aspetto identico possono avere implicazioni totalmente diverse in termini di protezione della privacy."
Threads
🟡 Moderato
- Consenso implicito e specifico alla regione- Nessun opt-out- Analisi dell'engagement da parte dell'IA in background.
"Anche se ignori l'IA, continua a osservarti e a modellare la tua esperienza."

 

Quale governance per un dispiegamento responsabile?
Warmenhoven sostiene la necessità di funzioni universali di opt-in/opt-out, accompagnate da una comunicazione chiara e omogenea sull'uso dei dati:

"Per un dispiegamento responsabile dell'IA, servono funzioni universali di opt-in e opt-out. Un'impostazione che consenta alle persone di attivare e disattivare le funzioni di IA su tutte le piattaforme di Meta. Se non è un'opzione opt-in, almeno una spiegazione chiara fin dall'inizio su come saranno utilizzati i dati".

L'esperto conclude:

"L'IA può sicuramente coesistere con la privacy. Ma solo se aziende come Meta danno la priorità alla trasparenza, al consenso e alla sicurezza. Senza questo, la fiducia scompare e con essa, il valore a lungo termine dell'IA".

 

Per capire meglio

Quali sono gli obblighi legali riguardanti il consenso degli utenti per le aziende digitali come Meta in Europa?

In Europa, il Regolamento generale sulla protezione dei dati (GDPR) impone alle aziende digitali di ottenere il consenso informato ed esplicito degli utenti prima di raccogliere o utilizzare i loro dati personali. Ciò significa che gli utenti devono essere informati in modo chiaro e comprensibile sulla natura dei dati raccolti e sullo scopo della loro raccolta, e devono avere un modo semplice per rifiutare o revocare il loro consenso.

Come ha influenzato l'evoluzione delle politiche di privacy sui dati sulle pratiche delle grandi aziende tecnologiche come Meta?

L'evoluzione delle politiche sulla privacy dei dati, soprattutto dopo l'adozione del GDPR in Europa, ha costretto le grandi aziende tecnologiche ad adottare pratiche più trasparenti nella gestione dei dati degli utenti. Regolamenti simili in altre regioni hanno spinto queste aziende a implementare misure di conformità globali. Tuttavia, alcune aziende continuano a testare i limiti di questi regolamenti, cercando spesso di massimizzare lo sfruttamento commerciale dei dati riducendo al minimo la percezione del loro utilizzo da parte degli utenti.