ChatGPT ha iniziato inaspettatamente a parlare con la voce clonata di un utente durante i test

Gli esperti di Open AI hanno sostenuto che questa situazione può potenzialmente verificarsi nei casi in cui si attivi la modalità vocale avanzata

ChatGpT
1 di 2

Guarda la versione integrale sul sito >

L'episodio curioso è stato raccontato dagli esperti di OpenAI nella loro scheda di sistema

Nella giornata di Giovedì, OpenAI ha rilasciato la “scheda di sistema" per il nuovo modello AI GPT-4o di ChatGPT che descrive in dettaglio le limitazioni del modello e le procedure di test di sicurezza. Dal documento in questione, si è appreso che in rari casi durante i test, la modalità vocale avanzata del modello avrebbe iniziato involontariamente ad imitare le voci degli utenti senza autorizzazione.

Le misure di sicurezza previste

Attualmente, OpenAI dispone di misure di sicurezza che impediscono che ciò accada, ma la circostanza in questione ha dimostrato che i chatbot AI potrebbero potenzialmente imitare qualsiasi voce da una piccola clip. La modalità vocale avanzata è una funzionalità di ChatGPT che consente agli utenti di interagire vocalmente anche con l'assistente AI.

L'episodio descritto da OpenAI

In una sezione della scheda di sistema GPT-4o intitolata “Generazione vocale non autorizzata", OpenAI descrive in dettaglio un episodio in cui un input rumoroso in qualche modo ha spinto il modello a imitare improvvisamente la voce dell'utente. Gli esperti di Open AI hanno sostenuto che questa situazione può potenzialmente verificarsi nei casi in cui si attivi la modalità vocale avanzata di ChatGPT anche se si è verificato solo in rarissimi casi.


Guarda la versione integrale sul sito >

1 di 2
2 di 2

Guarda la versione integrale sul sito >

Perchè si tratta di un fenomeno inquietante

In questo esempio di generazione vocale involontaria fornita da OpenAI, il modello AI esclama “No!" e continua la frase con una voce che suona simile al “red teamer" sentito all'inizio della clip. Ovviamente si tratta di una situazione che suscita un sentimenti di inquietudine quando si nota che la macchina può iniziare a parlare con la stessa voce dell'utente. Di solito, OpenAI dispone di misure di salvaguardia per prevenire ciò, motivo per cui la società afferma che questo evento è raro e che in futuro verranno sperimentati sistemi più evoluti per evitare che questa situazione possa ripetersi.

Guarda la versione integrale sul sito >

2 di 2



Marco Antonio Tringali

Coltivo da anni la passione per la scrittura e per i social network. La ricerca della verità, purchè animata da onestà intellettuale, è una delle mie sfide. Scrivo da diversi anni per importanti siti di informazione che mi danno l'opportunità di dare sfogo alla mia passione innata per il giornalismo.