Aunque las personas piensen lo contrario, las conversaciones con los chatbots no son privadas; por el contrario: pueden ser usadas por los ciberdelincuentes.
«No es una novedad que muchas personas usan los chatbots como si fueran espacios privados. Utilizarlos de esa manera se contradice con la naturaleza de este tipo de herramientas ya que las propias plataformas remarcan que las conversaciones pueden almacenarse, analizarse o revisarse para mejorar el servicio. Los chatbots no fueron concebidos como un lugar confidencial, más allá de que la experiencia conversacional invite a pensarlos así. Si bien las principales plataformas de IA afirman aplicar medidas de seguridad y privacidad (controles de acceso, monitoreo, protección de infraestructura), esto no elimina el riesgo de sufrir brechas de datos, ni es sinónimo de invulnerabilidad», destaca Martina Lopez, investigadora de seguridad Informática de ESET Latinoamérica.
Por ejemplo, queda expuesta información sensible como nombre, edad, ciudad y país, pero también hábitos cotidianos: dónde trabajas, con quién vives y cómo está compuesta tu familia. Con la necesidad de “Ayúdame a mejorar esto”, muchos usuarios comparten correos internos, contratos, informes, presentaciones, estrategias comerciales, campañas, detalles de clientes, proveedores, conversaciones y tickets. También código fuente y arquitecturas internas.
Las personas pueden ver a los chatbot como consejeros o especialistas y compartir cuestiones vinculadas a la salud, como síntomas, diagnósticos y medicación, y también temas personales como conflictos de pareja, duelos, consultas que no harían en otra red social, o el pedido
de un consejo. Los chatbots reciben opiniones de los usuarios vinculadas con la ideología política o religiosa, posturas sobre empresas, jefes o colegas, y también información que, fuera de contexto, puede generar daño reputacional.
«Meses de conversaciones construyen un perfil que puede tener un valor muy
alto para un ciberatacante», precisa Martina López. Los cinco riesgos destacados a los que se está expuestos por una filtración de chatbots, según ESET, son:
- Robo de identidad / Ingeniería social: Las conversaciones con chatbots aportan contexto humano. El ciberatacante obtiene información sobre hábitos, intereses, rutinas, servicios que se utilizan, problemáticas que los trascienden y hasta el tono que se usa al hablar. Esto permite crear ataques mucho más personalizados, a través de correos o mensajes que parecen escritos por alguien del entorno, estafas que incluyen datos reales de la vida o suplantaciones de identidad mucho más difíciles de detectar.
- Espionaje corporativo: Dado que muchos usuarios usan chatbots como apoyo laboral, es posible
que los atacantes obtengan información confidencial como estrategias, documentos, decisiones
internas, información sobre clientes, detalles de precios y/o productos. Más allá de los riesgos
legales que esa situación puede ocasionar, también puede significar una ventaja competitiva para terceros o el incumplimiento de ciertos compromisos contractuales. - Daño reputacional: Si quedan expuestas opiniones privadas, dudas profesionales o pensamientos íntimos, las consecuencias pueden ir desde conflictos laborales a la pérdida de credibilidad profesional.
- Exposición de datos sensibles: Este tipo de chatbots también se usan como espacio de consulta
íntima, y suelen contener información personal como síntomas, diagnósticos, tratamientos,
creencias religiosas o políticas, conflictos personales o familiares. Si eso se filtrara, el impacto para la víctima puede ser devastador: estigmatización, discriminación y hasta vulneración emocional. - Extorsión: Cuando el ciberatacante cuenta con información privada puede presionar a través de
amenazas creíbles y chantajes personalizados. ¿El objetivo? Obtener algún tipo de rédito económico por parte de la víctima.
Una buena manera de reducir el impacto que puede tener la exposición de conversaciones es adoptar buenas prácticas a la hora de interactuar con estos chatbots. El equipo de ESET comparte este checklist:
No compartir datos personales (cédula, fecha de nacimiento, mail, teléfono)
Anonimizar casos reales (cambiar nombres, empresas, ubicaciones)
No adjuntar documentos sensibles, información confidencial o credenciales
Revisar configuraciones de privacidad (qué se guarda, qué se usa como entrenamiento)
Proteger la cuenta con contraseña robusta y doble factor de autenticación
Utilizar cuentas diferentes para trabajo y uso personal
Pensar: ¿esto lo diría en voz alta en una sala con desconocidos?






