Lo que necesitas saber de este tema
- El informe de la tarjeta del sistema GPT-4o describe las preocupaciones de OpenAI de que las personas se vuelvan emocionalmente dependientes del modo de voz de ChatGPT.
- Las voces en el modo de voz ChatGPT son muy realistas y dan la ilusión de que el usuario está hablando con una persona real.
- El informe destaca que el modo de voz puede beneficiar a algunas personas, pero impactar negativamente a otras que dependen demasiado de él o dependen demasiado de sus respuestas.
El modo de voz mejorado de ChatGPT causó revuelo cuando se anunció por primera vez. Pero según recientes informe de seguridadOpenAI ya teme que su modo de voz avanzado, que suena inquietantemente como una voz humana, pueda llevar a que los usuarios se vuelvan emocionalmente dependientes de su chatbot de IA.
El modo de voz mejorado ha sido una de las funciones más esperadas de ChatGPT. Puede mantener conversaciones en tiempo real, emitir sonidos humanos como «Umm», «Ah» y otras interjecciones durante las conversaciones, imitar sonidos, cantar canciones e incluso detectar su estado emocional según el tono de su voz. En pocas palabras, es el asistente de IA más realista disponible. Pero al ser una característica tan poderosa y capaz, el modo de voz de ChatGPT tiene un alto potencial de abuso.
OpenAI mencionó en su informe:
“Durante las primeras pruebas… observamos a los usuarios usar un lenguaje que podría indicar la formación de conexiones con el modelo. Por ejemplo, esto incluye lenguaje que exprese vínculos compartidos, como «Este es nuestro último día juntos».
El modo de voz también abre nuevas formas para que las personas «pirateen» ChatGPT para hacer todo tipo de cosas, incluso hacerse pasar por otras personas. Un interlocutor con apariencia humana también puede hacer que las personas confíen más en los chatbots de IA, incluso si su producción está plagada de errores y alucinaciones.
Interactuar con el modo de voz de ChatGPT puede beneficiar a las «personas solitarias», así como ayudar a algunos a superar su miedo a la interacción social. Pero el uso excesivo también puede afectar las relaciones saludables y merece más estudios, señaló OpenAI en su informe.
Si bien el informe muestra una transparencia cada vez mayor por parte de OpenAI, la empresa todavía no es tan abierta sobre sus datos de capacitación. Por supuesto, las preocupaciones de OpenAI sobre a qué podría conducir el uso generalizado de su modo de voz no son infundadas. Pero la excesiva dependencia de la tecnología está incorporada en la mayoría de los dispositivos tecnológicos. Y, saliendo directamente de la película, no es difícil ver lo que le deparará el futuro al modo de voz y cómo los usuarios interactúan con él.
Incluso en el evento de demostración, el modo de voz se consideró demasiado coqueto. Con la similitud de la voz de Sky con la de Scarlett Johansson y la consiguiente controversia, es difícil no pensar en la película Her y los riesgos asociados con la antropomorfización de los modelos de IA.