• 14 agosto, 2024

Nueva versión de ChatGPT puede generar dependencia emocional, según OpenAI

Nueva versión de ChatGPT puede generar dependencia emocional, según OpenAI

Los avances en términos de audio y texto ha levantado sospechas sobre sus facultades cercanas a las humanas.

Síganos en Instagram: @revistavidayexito

OpenAI ha señalado que modelo GPT-4o presenta un «moderado riesgo» frente a su capacidad en influir en sus usuarios, en especial en interacciones textuales, y que podría fomentar la dependencia emocional en las personas debido a los avances en tecnologías de audio y voz.

La empresa dirigida por Sam Altman, presentó el modelo GPT-4o en el mes de mayo, destacando su habilidad para procesar combinaciones de texto, audio, imagen, y su capacidad para responder a una entrada de voz en solo 232 milisegundos, con un promedio de 320 milésimas de segundo, un tiempo de respuesta comparable al humano.

Y es que, recientemente, la compañía un informe interno llamado ‘Ficha de Sistema de GPT-4o en el cual detalla los hallazgos de su investigación sobre la seguridad de este nuevo modelo de inteligencia artificial generativa.

Inteligencia artificial

Allí se describe que el modelo ha sido evaluado «de manera exhaustiva» para poder identificar posibles riesgos y, basado en estos datos, se han implementado medidas de seguridad pertinentes antes de integrarlo en ChatGPT o en la API.

Particularmente, la empresa ha subrayado un riesgo «moderado» en las capacidades de persuasión del modelo como uno de los hallazgos, además de advertir sobre el riesgo de darle cualidades antrópicas, lo cual provocaría que los usuarios desarrollen una dependencia emocional, esto al confiar en la IA debido a sus características muy parecidas a las de una persona.

De las categorías generales de riesgo (ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión), OpenAI ha identificado este nivel de riesgo en la última categoría. Esto se ha visto especialmente en la presentación de texto de modelo, donde los expertos han explicado que GPT-4o puede influenciar las opiniones de los usuarios.

¿Dependencia emocional?

Otro de los peligros que destaca OpenAI en su informe es la tendencia a humanizar y, en efecto, desarrollar una dependencia emocional hacia GPT-4o. Este término hace referencia a la atribución de comportamientos y rasgos propios de los humanos a entidades in humanas, tales como los modelos de IA.

En el coso de GPT-4o, este riesgo se  intensifica dada a sus capacidades de audio, que permiten interacciones muy similares a las de un ser humano.

Esta corta distancia y alta fidelidad en la reproducción de voz y expresiones humanas pueden ocasionar que los usuarios desarrollen una confianza «inapropiada» en sus interacciones con este modelo, lo que llevaría a una dependencia emocional.

Fuente: PORTAFOLIO

Etiquetas: modelo GPT-4o presenta un "moderado riesgo" / Nueva versión de ChatGPT puede generar dependencia emocional / Sam Altman

Recomendaciones sobre este tema

Mi lista de invitados

Mi lista de invitados

En esta sección invitamos a amigos de la revista para que nos presenten a las personas con las…
Creador de ChatGPT reveló el secreto para lograr cualquier objetivo en la vida y en el trabajo

Creador de ChatGPT reveló el secreto para lograr cualquier objetivo en la vida y en el trabajo

El creador de OpenIA inició con el sueño de crear su propia aplicación en el 2005 sin estudios…
OpenAI lanza sistema de IA capaz de convertir texto en videos realistas: así funciona

OpenAI lanza sistema de IA capaz de convertir texto en videos realistas: así funciona

La empresa se convierte en la última desarrolladora de inteligencia artificial en adoptar la tecnología de video generativo.