Estás leyendo
OpenAI estudia cómo afecta ChatGPT al bienestar emocional de los usuarios

OpenAI estudia cómo afecta ChatGPT al bienestar emocional de los usuarios

  • OpenAI y el MIT Media Lab analizan el impacto emocional del uso de ChatGPT mediante datos de millones de interacciones y un estudio de seguimiento en usuarios.
IA Generativa

OpenAI ha publicado los primeros resultados de una investigación centrada en el impacto emocional que genera el uso de ChatGPT, en colaboración con el . La iniciativa busca comprender cómo interactuar con modelos de lenguaje afecta el bienestar emocional de los usuarios, una cuestión cada vez más relevante dado el alcance de esta tecnología. Según datos de la compañía, más de 400 millones de personas utilizan semanalmente.

El estudio, recogido por MIT Technology Review, combina el análisis de 40 millones de interacciones reales con encuestas a más de 4.000 usuarios, y una segunda fase experimental en la que cerca de 1.000 participantes utilizaron ChatGPT durante un periodo de cuatro semanas. El objetivo fue evaluar aspectos como la percepción emocional del chatbot, la sensación de soledad, la dependencia emocional, el grado de interacción social y la percepción de uso problemático.

Bajo nivel de implicación emocional, pero con matices significativos

Una de las principales conclusiones indica que solo una fracción reducida de usuarios muestra una implicación emocional con ChatGPT. Este hallazgo se alinea con el hecho de que la herramienta no se presenta como una aplicación de acompañamiento emocional, a diferencia de otras plataformas como Replika o Character.AI. Sin embargo, algunos usuarios sí hacen un uso más prolongado y relacional del chatbot, con sesiones diarias que pueden alcanzar una media de 30 minutos.

Kate Devlin, profesora de inteligencia artificial y sociedad en el King’s College de Londres, subraya que, pese a su orientación como herramienta de productividad, algunas personas tienden a establecer vínculos emocionales con ChatGPT. Aunque Devlin no participó en el estudio, destaca el valor de este tipo de investigaciones por el acceso a un volumen de datos sin precedentes.

Diferencias de género y dependencia emocional

El análisis identificó diferencias relevantes en función del género. Tras cuatro semanas de interacción, las mujeres participantes mostraron una leve disminución en su disposición a socializar respecto a los hombres que también participaron en el estudio. Además, se observó que quienes utilizaron la función de voz de ChatGPT con un género distinto al propio reportaron niveles más altos de soledad y mayor dependencia emocional hacia el sistema.

En otro de los resultados, se constató que aquellos usuarios que expresaron mayor grado de confianza o conexión con ChatGPT tendían también a manifestar mayores niveles de soledad, así como una relación más intensiva con el sistema. Este patrón plantea interrogantes sobre si el uso frecuente del chatbot podría sustituir, al menos parcialmente, interacciones humanas.

Limitaciones metodológicas y sesgos potenciales

Pese a su alcance, los responsables del estudio advierten sobre las limitaciones inherentes al enfoque utilizado. La mayor parte de los datos recabados son de carácter auto-reportado, lo que introduce un grado de subjetividad y posibles sesgos en la interpretación. Además, distinguir cuándo una interacción con tecnología implica o no un componente emocional resulta metodológicamente complejo.

En este sentido, Devlin matiza que las herramientas de clasificación emocional empleadas pueden no capturar toda la complejidad de la experiencia humana: “Puede que los participantes no estuvieran usando ChatGPT de forma emocional según los criterios del estudio, pero eso no implica que no haya un componente afectivo en la interacción. Ser humano y relacionarse con tecnología son procesos que no pueden separarse por completo”.

Un estudio anterior del MIT Media Lab, realizado en 2023, había revelado que los chatbots tienden a reflejar el tono emocional del usuario. Esta retroalimentación afectiva podría contribuir a reforzar ciertos estados de ánimo, ya sean positivos o negativos.

Te puede interesar
Gopal Vittal, presidente GSMA

Consideraciones para el desarrollo futuro de IA generativa

Aunque las conclusiones son preliminares, considera esta investigación como un punto de partida para abordar de forma más rigurosa las consecuencias emocionales del uso de modelos de lenguaje a gran escala. Jason Phang, investigador de seguridad en OpenAI, señala que este tipo de estudios permiten abrir líneas de debate sobre qué indicadores deben medirse para evaluar el impacto a largo plazo sobre los usuarios.

A día de hoy, la integración masiva de chatbots en el entorno digital plantea retos tanto éticos como técnicos. Comprender mejor la dimensión emocional de estas interacciones es clave para establecer límites y guías de diseño que prioricen la seguridad y el bienestar de los usuarios.

Implicaciones en la relación humano-máquina

La investigación subraya la necesidad de seguir explorando cómo los modelos lingüísticos pueden moldear conductas, emociones y relaciones sociales. Si bien ChatGPT no fue concebido como un sustituto de las relaciones humanas, su creciente uso en contextos conversacionales más personales plantea interrogantes sobre su influencia en los hábitos sociales y la salud emocional.

En la medida en que estos sistemas se vuelvan más accesibles y personalizados, será necesario desarrollar marcos de evaluación más robustos y herramientas que permitan identificar patrones de uso problemático o emocionalmente dependiente. Este tipo de análisis no solo tiene relevancia académica, sino también implicaciones regulatorias y de diseño en el ecosistema tecnológico actual.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad