Qué pasa con la información que ingresás en ChatGPT y las claves para evitar riesgos

El uso masivo de herramientas de inteligencia artificial como ChatGPT abrió un debate cada vez más presente: qué ocurre con los datos que los usuarios comparten y cuáles son los riesgos reales de privacidad. Con cientos de millones de personas utilizando estas plataformas, especialistas advierten que no todo lo que se escribe queda en el olvido.
¡Mantenete al tanto de las últimas noticias de San Nicolás y el país!
Unite a nuestro CANAL DE WHATSAPP y recibí las novedades directamente en tu teléfono.
📲 Click AQUÍ Desde la firma de ciberseguridad ESET, el investigador Mario Micucci explicó que la idea de que las conversaciones desaparecen al cerrar la ventana es incorrecta. Por el contrario, la información atraviesa distintos procesos dentro del sistema.
En primer lugar, los datos forman parte de un historial que puede almacenarse en los servidores por un período determinado, lo que permite recuperar conversaciones y mantener continuidad entre dispositivos. Además, existe la posibilidad de que estos registros se utilicen para tareas de seguridad.
Otro punto clave es el entrenamiento de los modelos. En ciertas versiones, las interacciones pueden ser utilizadas para mejorar el funcionamiento de la inteligencia artificial, lo que implica que fragmentos de texto ingresados podrían ser procesados con ese fin. “Los modelos de lenguaje pueden memorizar fragmentos de sus datos de entrenamiento y, en determinadas circunstancias, esta información puede ser extraída mediante técnicas especializadas”, explicó Micucci.
También existe una instancia de revisión humana. Parte de las conversaciones, previamente anonimizada, puede ser analizada por personal especializado con el objetivo de garantizar la calidad de las respuestas y detectar posibles usos indebidos.
En este contexto, los especialistas advierten que el mayor riesgo está en compartir información sensible, ya que podría perderse el control sobre esos datos. Esto incluye desde credenciales hasta documentos internos o información estratégica.
A esto se suma una amenaza externa: los ciberdelincuentes. Durante 2024, más de 225.000 cuentas de acceso a ChatGPT fueron detectadas en foros ilegales, lo que evidencia el interés en este tipo de plataformas para el robo de información.
Cómo proteger tus datos
Frente a este escenario, los expertos recomiendan medidas concretas para reducir la exposición:
Evitar datos sensibles
No ingresar información confidencial. Nombres, claves, datos financieros o código privado deben quedar fuera de estas herramientas.
Fortalecer la seguridad de la cuenta
Utilizar contraseñas únicas y activar la verificación en dos pasos en servicios como OpenAI o Google.
Configurar la privacidad
Revisar las opciones dentro de la plataforma y desactivar el historial o el uso de datos para entrenamiento cuando sea posible. Alternativas como Gemini también permiten gestionar qué información se guarda.
Lectura rápida
¿Los datos se borran al cerrar ChatGPT?
No. Pueden almacenarse temporalmente en servidores.
¿Se usan las conversaciones para entrenar la IA?
En algunos casos, sí. Depende del tipo de cuenta y configuración.
¿Personas pueden leer lo que escribís?
Sí, pero en muestras anonimizadas para control de calidad.
¿Cuál es el mayor riesgo?
Compartir información confidencial o sensible.
¿Existen amenazas externas?
Sí. Ciberdelincuentes buscan acceder a cuentas y datos.
¿Cómo protegerse?
No compartir datos sensibles, usar contraseñas seguras y activar doble verificación.
¿Se pueden ajustar configuraciones?
Sí. Es clave revisar y limitar el uso de datos desde la privacidad de la cuenta.



