Estás leyendo
ESET aconseja sobre cómo utilizar ChatGPT en el trabajo de manera segura y sin comprometer los datos de la empresa

ESET aconseja sobre cómo utilizar ChatGPT en el trabajo de manera segura y sin comprometer los datos de la empresa

  • La compañía líder en ciberseguridad da las claves para aprovechar las ventajas de las innovadoras herramientas de IA sin comprometer la seguridad
chatgpt

Los debates sobre las herramientas de IA están a la orden del día y cada vez son más las personas que lo utilizan en su trabajo, debido a su capacidad para aumentar la productividad y ahorrar tiempo. Sin embargo, antes de aprovechar las ventajas de las innovadoras herramientas de IA, debes saber cómo interactuar con ellas de forma segura, sin poner en peligro la seguridad de los datos de la empresa.

Las herramientas de IA pueden ayudarnos a desarrollar ideas, resumir o reformular fragmentos de texto, o incluso crear una base para una estrategia empresarial o encontrar un error en un código. Sin embargo, al utilizar la IA debemos recordar que los datos que introducimos en las herramientas dejan de pertenecernos en cuanto pulsamos el botón de envío.

Una de las principales preocupaciones a la hora de utilizar grandes modelos lingüísticos (LLM), como , es compartir datos sensibles con grandes empresas internacionales, señala ESET. Estos modelos son texto en línea, lo que les permite interpretar y responder eficazmente a las consultas de los usuarios. Sin embargo, la compañía líder en recuerda que, cada vez que interactuamos con un chatbot y le pedimos información o ayuda, podemos compartir inadvertidamente datos sobre nosotros o nuestra empresa, ya que, cuando escribimos una consulta para un chatbot, los datos introducidos se hacen públicos. “Esto no significa que los chatbots utilizan inmediatamente esta información como base para responder a otros usuarios, pero el proveedor de LLM o sus socios pueden tener acceso a estas consultas y podrían incorporarlas a futuras versiones de la tecnología”, añade Albors.

En este sentido, OpenAI, la organización que está detrás de ChatGPT, introdujo la opción de desactivar el historial de chat, lo que evita que los datos de los usuarios se utilicen para entrenar y mejorar los modelos de IA de OpenAI. De esta forma, los usuarios tienen más control sobre sus datos. Por tanto, si los empleados de una empresa desean utilizar herramientas como ChatGPT, es conveniente que desactiven el historial de chat, según ESET.
Pero incluso con el historial de chat desactivado, todos los datos de los avisos siguen almacenados en los servidores del chatbot. Al guardar todos los avisos en servidores externos, existe la amenaza potencial de acceso no autorizado por parte de piratas informáticos. Además, los errores técnicos pueden permitir ocasionalmente que personas no autorizadas accedan a datos pertenecientes a otros usuarios del chatbot. Por ello, ESET aconseja sobre cómo utilizar plataformas como ChatGPT de forma segura, y advierte de los erres más comunes al utilizar esta herramienta y cómo evitarlos:

  • Utilizar datos de clientes como entrada: El primer error común que puedes cometer al utilizar las LLM es compartir inadvertidamente información sensible sobre los clientes de tu empresa. ESET aconseja que anonimices permanentemente tus consultas antes de introducirlas en los chatbots. Para proteger la privacidad de los clientes, anímales a revisar y redactar cuidadosamente los datos sensibles, como nombres, direcciones o números de cuenta. La mejor práctica es evitar el uso de información personal en primer lugar y basarse en preguntas o consultas generales.
  • Cargar documentos confidenciales en los chatbots: Los chatbots pueden ser herramientas valiosas para resumir rápidamente grandes volúmenes de datos y crear borradores, presentaciones o informes. Aun así, subir documentos a herramientas como ChatGPT puede significar poner en peligro los datos de la empresa o del cliente almacenados en ellos. Aunque puede resultar tentador copiar documentos y pedir a la herramienta que cree resúmenes o sugerencias para diapositivas de presentaciones, no es una forma de proteger los datos. Esto se aplica a los documentos importantes, como las estrategias de desarrollo, pero también a los menos esenciales -como las notas de una reunión-, que pueden llevar a los empleados a descubrir el preciado ‘know-how’ de la empresa.Para mitigar este riesgo, ESET recuerda que es conveniente poner en marcha políticas estrictas para el manejo de documentos sensibles y limitar el acceso a dichos registros con una política de «necesidad de saber». Es muy importante revisar manualmente los documentos antes de solicitar un resumen o asistencia del chatbot.
  • Exponer los datos de la empresa en los avisos: Al igual que introducir documentos confidenciales o datos de clientes en los chatbots, incluir datos confidenciales de la empresa en la solicitud es una práctica común, aunque potencialmente perjudicial, que puede conducir a un acceso no autorizado o a la filtración de información confidencial. Para abordar este problema, la anonimización inmediata debería ser una práctica esencial. Esto significa que nunca se deben introducir nombres, direcciones, datos financieros u otra información personal en las solicitudes de chatbot. Por este motivo, una práctica útil sería utilizar mensajes estandarizados como plantillas.
Las herramientas de IA no son sólo el futuro de nuestro trabajo; ya están presentes. Como los avances en el campo de la IA y, en concreto, del Machine learning avanzan día a día, las empresas necesitan inevitablemente seguir las tendencias y adaptarse a ellas. Por eso, es importante preguntarse si podemos utilizar estas nuevas tecnologías sin arriesgarse a una fuga de datos.Josep Albors
Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad