Estás leyendo
Estudios de MIT y OpenAI alertan sobre signos tempranos de adicción a ChatGPT

Estudios de MIT y OpenAI alertan sobre signos tempranos de adicción a ChatGPT

  • MIT y OpenAI detectan síntomas iniciales de adicción a ChatGPT entre algunos usuarios frecuentes según estudios recientes
OpenAi ChatGPT

Dos estudios recientes realizados por el MIT Media Lab y OpenAI han identificado indicios de dependencia emocional y conductas similares a la adicción entre algunos usuarios frecuentes de .

Según el artículo publicado en eWEEK por J.R. Johnivan, estas investigaciones revelan síntomas como cambios de humor, dificultades para desconectarse del sistema, y una creciente dependencia afectiva hacia el modelo conversacional basado en inteligencia artificial.

La relación humana con las tecnologías digitales ha sido objeto de análisis durante las últimas décadas, especialmente en lo relativo a la adicción a internet y redes sociales. Sin embargo, el auge de los modelos de lenguaje de gran escala (LLM, por sus siglas en inglés), como ChatGPT, plantea un nuevo escenario: la posible implicación emocional profunda con sistemas automatizados que simulan conversación humana. Esta situación adquiere relevancia empresarial y social dado el uso creciente de estos modelos en entornos laborales, educativos y personales.

ChatGPT, desarrollado por , se ha consolidado como uno de los asistentes conversacionales más utilizados mundialmente. Su capacidad para mantener diálogos complejos ha abierto nuevas posibilidades para la interacción hombre-máquina, pero también ha generado interrogantes sobre sus efectos psicológicos a largo plazo.

Desarrollo detallado

Análisis masivo de interacciones por parte de OpenAI

El primer estudio fue llevado a cabo por investigadores de OpenAI. Analizó más de 40 millones de interacciones entre usuarios y ChatGPT. A través del análisis cuantitativo y la recopilación de encuestas cualitativas con usuarios reales, se buscaba identificar patrones conductuales que pudieran indicar una relación emocional o adictiva con el sistema.

Del análisis se desprende que si bien la mayoría interactúa con ChatGPT sin carga emocional, existe un segmento específico que muestra señales preocupantes: «Aquellos que consideran a ChatGPT como un amigo son más susceptibles a los impactos negativos», explicaron los autores.

Ensayo controlado aleatorio del MIT sobre bienestar emocional

El segundo estudio fue liderado por el MIT Media Lab mediante un ensayo clínico aleatorizado (RCT) con cerca de 1.000 participantes durante cuatro semanas. Este experimento evaluó cómo distintas funcionalidades del sistema —como el modo voz o el tipo de conversación— afectan al estado emocional y bienestar subjetivo del usuario.

Los resultados apuntan a que el uso breve del modo voz puede mejorar temporalmente el bienestar emocional. Sin embargo, esta mejora disminuye cuando se prolonga su uso. El estudio también distingue entre conversaciones personales y no personales: las primeras tienden a estar asociadas con una mayor sensación de soledad, aunque con menor dependencia emocional; mientras que las segundas generan una conexión afectiva más intensa.

Te puede interesar
Bankinter adopta inteligencia artificial y analítica avanzada mediante Google Cloud

Seis conclusiones clave sobre la interacción usuario-IA

  • Percepción como «amigo» aumenta vulnerabilidad: Los usuarios que ven al modelo como una figura cercana presentan mayor riesgo psicológico.
  • Efectos positivos limitados del modo voz: Mejora breve del bienestar que se diluye con el uso continuo.
  • Baja frecuencia de interacciones emocionales: Incluso entre usuarios intensivos, las conversaciones afectivas son poco comunes.
  • Diferencias según tipo conversacional: Las charlas impersonales están más asociadas a dependencia emocional que las personales.
  • La mayoría no desarrolla vínculos emocionales: El uso generalizado permanece racional y funcional.
  • Aproximación metodológica mixta imprescindible: La combinación de análisis masivo e investigación experimental es clave para comprender los efectos sociales y emocionales.

En palabras conjuntas recogidas en un comunicado oficial: «Nuestros hallazgos muestran que tanto los comportamientos del modelo como los del usuario influyen en los resultados sociales y emocionales».

Implicaciones futuras

A medida que los modelos conversacionales se integran en múltiples ámbitos —desde atención al cliente hasta salud mental—, entender sus efectos psicológicos será crucial para su desarrollo ético y sostenible. Las evidencias presentadas por MIT y OpenAI podrían motivar investigaciones adicionales centradas en mejorar la experiencia del usuario sin comprometer su bienestar emocional.

OpenAI ya ha anunciado medidas preventivas. Una de ellas es la actualización continua de su Model Spec, documento técnico donde se detallan comportamientos esperados, capacidades y limitaciones del sistema. Esta transparencia busca minimizar malentendidos sobre las capacidades reales del asistente conversacional.

Además, los expertos sugieren establecer límites claros en cuanto al tiempo e intensidad del uso individual o institucional del modelo. En entornos corporativos, podría ser necesario implementar protocolos internos para garantizar un uso seguro desde el punto de vista psicológico y social.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad