ChatGPT, nuove regole su salute e privacy: cosa cambia per chi utilizza il chatbot

ChatGPT cambia volto: più filtri su salute mentale, minori e contenuti sensibili. L’AI continua a rispondere, con nuove cautele

Foto di Mauro Di Gregorio

Mauro Di Gregorio

Giornalista politico-economico

Laurea in Scienze della Comunicazione all’Università di Palermo. Giornalista professionista dal 2006. Si interessa principalmente di cronaca, politica ed economia.

Pubblicato:

OpenAI ha introdotto nuove regole per ChatGPT e gli altri suoi modelli, definendo cosa l’intelligenza artificiale può o non può fare.

L’aggiornamento arriva dopo mesi di confronti con governi, ricercatori e utenti in risposta alle crescenti preoccupazioni sugli effetti dell’utilizzo delle intelligenze artificiali su sicurezza e trasparenza. ChatGPT continua a rispondere su temi sensibili come salute e diritto, ma con nuove cautele.

Sicurezza e disinformazione

La nuova policy vieta in modo esplicito l’uso dei modelli OpenAI per sviluppare, progettare o gestire armi. È proibita anche ogni forma di sorveglianza biometrica o riconoscimento facciale senza consenso, compresi i database di immagini o voci realistici.

ChatGPT non potrà inoltre essere usato per campagne politiche, lobbying o interferenze elettorali. Il divieto vale anche per contenuti grafici e video generati a scopo di disinformazione, oggi sempre più diffusi sui social.

Tutela dei minori e contrasto alla violenza

OpenAI rafforza i limiti contro molestie, minacce e contenuti sessuali non consensuali, inclusi i deepfake che denudano le vittime.

Le regole stabiliscono che ChatGPT non potrà generare o diffondere materiale riconducibile ad abusi, né favorire adescamento o sfide pericolose tra minori.

Vietato anche promuovere disturbi alimentari o comportamenti autolesionisti, così come deridere o stigmatizzare l’aspetto fisico di giovani utenti.

Profilazione e privacy

Le nuove regole vietano qualsiasi uso dell’AI per classificare individui in base a comportamenti, dati biometrici o caratteristiche personali. Sono vietate anche deduzioni sulle emozioni di una persona sul lavoro o a scuola e l’uso dell’AI per prevedere la propensione a commettere reati.

OpenAI, inoltre, esclude esplicitamente usi legati a sicurezza nazionale o intelligence senza approvazione diretta: un modo per evitare che i modelli vengano impiegati in ambiti grigi, come la sorveglianza o l’intercettazione di dati sensibili.

Consulenze professionali

ChatGPT continuerà a rispondere su salute, diritto o finanza, ma non potrà sostituirsi a un medico, un avvocato o un consulente abilitato. In realtà, è un divieto più giuridico che tecnico: il chatbot non può sapere se dietro una conversazione c’è un professionista reale.
La responsabilità, di fatto, viene spostata sull’utente. OpenAI si tutela con un “disclaimer”, ricordando che l’AI può fornire spiegazioni o esempi, ma non diagnosi o prescrizioni.

Conversazioni sensibili

ChatGPT è stato addestrato con il contributo di 170 esperti tra psicologi, medici e assistenti sociali per riconoscere segnali di disagio o vulnerabilità (depressione, autolesionismo, psicosi). Quando l’utente manifesta un campanello d’allarme come ad esempio frasi del tipo “preferisco parlare con te che con le persone reali” il chatbot non asseconda la conversazione, ma invita a cercare aiuto umano. Secondo OpenAI, i nuovi filtri riducono fino all’80% le risposte inadeguate o potenzialmente dannose.

Si tratta di un cambio di passo cautelativo anche a tutela di OpenAI: secondo recenti accuse, ChatGPT avrebbe favorito suicidi e crisi mentali. Sono sette le nuove cause che travolgono OpenAI. Si tratta di quattro casi di morte e tre casi in cui i querelanti sostengono di essere stati danneggiati mentalmente dalle interazioni con ChatGPT.

Divieti a volte fragili

In molti casi, però, i divieti possono essere aggirati come dimostrano i forum che condividono prompt per bypassare le protezioni.