Los peligros ocultos de ChatGPT: qué datos guarda y cómo podrían usarse para robarlo
ChatGPT almacena información de sus usuarios para mejorar el servicio, pero esto podría implicar riesgos de seguridad.
Por:
Cristian Serrano
ChatGPT
Foto: Pexels
El uso masivo de ChatGPT ha convertido a este modelo de inteligencia artificial en una herramienta de uso cotidiano para millones de personas en el mundo. Esto se debe a que la plataforma permite resolver preguntas, generar contenido en segundos y organizar esquemas de trabajo para optimizar el desarrollo de tareas diarias.
Sin embargo, el frecuente uso del chatbot también plantea una pregunta clave: ¿qué tanta información almacena ChatGPT y qué riesgos implica?
Mire además: Alerta por nueva estafa con multas de tránsito falsas: así se meten en las cuentas bancarias
Es importante tener presente que ChatGPT no solo registra los datos que los usuarios ingresan en sus consultas, sino que también recopila información técnica, preferencias y patrones de uso.
Pese a que OpenAI dice que el almacenamiento de estos datos tiene como objetivo mejorar la experiencia del usuario, ESET, compañía especializada en ciberseguridad, advierte que un manejo inadecuado de la configuración de privacidad podría exponer información personal a ciberdelincuentes o terceros no autorizados.
Qué datos guarda ChatGPT y cómo los utiliza
El almacenamiento de información por parte de ChatGPT se divide en tres categorías principales: datos de cuenta, información técnica y datos de uso.
Los datos de cuenta incluyen información básica como el correo electrónico y el nombre de usuario. Para los usuarios que pagan la opción Plus, también se almacena información relacionada con el método de pago. Además, se guardan las preferencias de personalización, como el idioma, el historial de conversaciones (si está activado) y las configuraciones de la cuenta.
En cuanto a la información técnica, ChatGPT registra la dirección IP del usuario, lo que permite identificar su ubicación aproximada y prevenir intentos de suplantación de identidad o accesos no autorizados. También se recopilan detalles sobre el dispositivo y el navegador utilizados, información que puede ser clave para detectar de actividades sospechosas.
Lea también: Trucos que pocos conocen para ocultar apps y acceder a otros beneficios en su celular Android
Los expertos precisan que los datos de uso abarcan aspectos como la frecuencia y duración de las sesiones, así como las funciones empleadas dentro de la plataforma, incluyendo la generación de código, navegación o creación de imágenes.
Si bien OpenAI no guarda datos personales fuera de las sesiones activas a menos que el usuario lo configure de esa manera, toda la información brindada en las conversaciones puede almacenarse y ser utilizada para mejorar la personalización del servicio.
¿Qué tan grave puede ser la filtración de una cuenta de ChatGPT?
Uno de los mayores riesgos en el uso de ChatGPT es la posibilidad de que una cuenta sea secuestrada por ciberdelincuentes. Esto podría exponer el historial de conversaciones, donde los usuarios, muchas veces sin darse cuenta, han compartido información privada, credenciales de acceso o incluso datos financieros.
Según un informe de Group-IB en 2023, más de 100.000 cuentas de ChatGPT fueron vendidas en la dark web, lo que deja en evidencia el gran interés de los hackers por obtener acceso a estos perfiles. Los datos extraídos pueden ser utilizados en ataques de ingeniería social, suplantación de identidad o estafas personalizadas dirigidas a la víctima.
ESET advierte que el riesgo no es solo que OpenAI almacene datos, sino que estos puedan ser utilizados en caso de un acceso no autorizado. A pesar de que la empresa protege la información con cifrado AES-256 para datos en reposo y protocolos TLS 1.2 o superiores para datos en tránsito, la compañía de ciberseguridad recomienda tomar medidas adicionales para reducir la exposición a posibles ataques.
Cómo proteger su cuenta de ChatGPT y evitar riesgos
El uso creciente de la inteligencia artificial también trae consigo nuevos desafíos en términos de seguridad y privacidad. De acuerdo con expertos de ESET, la mejor forma de proteger la información personal es adoptar hábitos que minimicen los riesgos conectados al uso de estas plataformas.
Uno de los primeros pasos es configurar correctamente las opciones de seguridad y privacidad dentro de ChatGPT. Antes de compartir cualquier tipo de información en la plataforma, es fundamental revisar qué datos se almacenan, si se comparten con terceros y cómo pueden ser utilizados en el futuro. También es recomendable revisar periódicamente los términos y políticas de la aplicación, ya que estos pueden cambiar con el tiempo e incluir nuevas configuraciones de seguridad.
Debe saber: La táctica que pocos conocen para conseguir un iPhone más barato: es legal y seguro
Otra medida clave es evitar compartir datos personales y sensibles. Ingresar información como contraseñas, números de tarjetas bancarias o documentos de identidad en un chat de IA puede representar un riesgo, ya que en algunos casos estos datos pueden utilizarse para entrenar modelos futuros.
Para proteger la cuenta de ChatGPT, ESET recomienda utilizar contraseñas robustas y activar la autenticación en dos pasos (2FA) si está disponible. Esta capa de seguridad adicional dificulta el acceso no autorizado a la cuenta, reduciendo el riesgo de exposición del historial de conversaciones.
Además, desactivar el historial de chats es una opción que muchos usuarios desconocen. Esta configuración impide que las conversaciones sean almacenadas en los servidores de OpenAI, lo que puede reducir significativamente el impacto en caso de una filtración de datos.
Amenazas adicionales al usar inteligencia artificial
Los expertos en seguridad advierten que la IA también puede ser utilizada como un medio de ataque. Por ejemplo, un usuario malintencionado puede manipular la IA con comandos engañosos (conocidos como prompt injection) para obtener respuestas incorrectas, instrucciones erróneas e incluso extraer información privada de una conversación.
También existe el riesgo de que la IA genere enlaces o archivos maliciosos. En algunos casos, los modelos pueden incluir referencias a páginas fraudulentas sin haber verificado su autenticidad. Para evitar caer en trampas de phishing o malware, ESET recomienda verificar los enlaces antes de hacer clic y analizar cualquier archivo generado con una solución de seguridad.
Otra precaución importante es evitar la instalación de extensiones o plugins no verificados. Existen múltiples complementos para navegadores y gestores de contenido que prometen mejorar la experiencia con IA, pero descargar herramientas de fuentes no confiables puede exponer el dispositivo a malware o software espía.
Fuente: Sistema Integrado Digital
Siga las noticias de RCN Radio en Whatsapp