TECNO-VIRAL

Alertan sobre riesgos de privacidad al usar chatbots de inteligencia artificial

El uso cada vez más frecuente de chatbots de inteligencia artificial como ChatGPT, Claude o Perplexity se volvió habitual para resolver dudas, trabajar con documentos o pedir consejos. Sin embargo, especialistas en ciberseguridad advierten que muchos usuarios comparten información personal o laboral creyendo que se trata de un espacio privado, cuando en realidad existen riesgos asociados a la seguridad y el manejo de los datos.

Canal de WhatsApp

¡Mantenete al tanto de las últimas noticias de San Nicolás y el país!
Unite a nuestro CANAL DE WHATSAPP y recibí las novedades directamente en tu teléfono.

📲 Click AQUÍ

Según expertos, es común que las personas revelen datos personales como nombre, edad, ubicación, rutinas diarias o información familiar, además de contenido profesional como correos electrónicos, contratos, estrategias empresariales o código fuente. También se realizan consultas sobre salud física, emocional o psicológica, así como opiniones y posturas que, si se difundieran fuera de contexto, podrían generar problemas personales o laborales.

De acuerdo con la empresa de seguridad informática ESET, la combinación de estos datos permite construir perfiles muy detallados de los usuarios, algo que puede resultar valioso para ciberatacantes o para prácticas de espionaje corporativo.

Una de las claves del problema es que la privacidad absoluta de las conversaciones no está garantizada. Muchas plataformas informan en sus políticas que las interacciones pueden almacenarse y analizarse para mejorar el servicio, lo que significa que podrían formar parte de bases de datos o revisarse para entrenar sistemas de inteligencia artificial.

La investigadora de seguridad Martina Lopez explicó que, aunque las plataformas aplican medidas de protección como controles de acceso y monitoreo, ningún sistema es completamente invulnerable. Entre los riesgos posibles figuran contraseñas robadas, ataques de phishing, extensiones maliciosas o incluso brechas de seguridad en las propias plataformas.

Los principales riesgos de una filtración de conversaciones

Especialistas identifican cinco peligros principales si los datos compartidos con un chatbot quedan expuestos:

  • Robo de identidad e ingeniería social: los delincuentes pueden usar información personal para crear fraudes o suplantar identidades.
  • Espionaje corporativo: compartir documentos o estrategias empresariales puede generar pérdidas económicas o conflictos legales.
  • Daño reputacional: opiniones o consultas privadas podrían afectar la imagen pública o profesional de una persona.
  • Exposición de datos sensibles: información sobre salud, creencias o situaciones personales puede derivar en discriminación o estigmatización.
  • Extorsión: los atacantes pueden utilizar datos privados para realizar chantajes o exigir dinero.

Recomendaciones para proteger la privacidad

Los especialistas aseguran que es posible reducir los riesgos si se adoptan medidas de seguridad básicas:

  • Evitar compartir datos personales identificables, como documentos, teléfonos o fechas de nacimiento.
  • Anonimizar casos reales, cambiando nombres de personas, empresas o lugares.
  • No subir documentos confidenciales ni credenciales de acceso en las conversaciones.
  • Revisar la configuración de privacidad y entender qué información se guarda.
  • Usar contraseñas fuertes y activar la verificación en dos pasos.
  • Separar las cuentas de trabajo de las personales.
  • Pensar antes de compartir información, como si se estuviera hablando frente a desconocidos.

El uso de herramientas de inteligencia artificial puede ser muy útil, pero la protección de la información depende en gran medida de la prudencia con la que los usuarios manejan sus datos.


Lectura rápida

¿Cuál es el principal riesgo al usar chatbots de IA?
Compartir información personal o laboral que podría filtrarse o usarse indebidamente.

¿Qué datos suelen revelar los usuarios?
Nombre, ubicación, rutinas, documentos de trabajo o consultas sobre salud.

¿Las conversaciones son completamente privadas?
No necesariamente, ya que pueden almacenarse o analizarse para mejorar los sistemas.

¿Qué puede pasar si se filtran las conversaciones?
Robo de identidad, espionaje corporativo, daño reputacional o extorsión.

¿Cómo reducir los riesgos?
Evitar datos sensibles, usar contraseñas fuertes, activar doble factor y revisar la privacidad de la cuenta.

LEER: Mañana, el tráiler de castración y vacunación llega a B° 7 de Septiembre

Artículos relacionados

Volver al botón superior