Cada vez más personas recurren a herramientas digitales para hablar de su estrés, su agotamiento o sus problemas de salud mental. Un relevamiento de Oracle junto a Workplace Intelligence reveló que más del 68% de los trabajadores preferiría contarle lo que siente a un robot antes que hablar con su jefe sobre ansiedad o tensiones. La explicación parece simple: las IA no interrumpen, no juzgan y no malinterpretan lo que se dice.

A primera vista, eso suena positivo.

Pero detrás del alivio que puede brindar una conversación con un sistema automatizado, surge una pregunta inquietante: ¿qué pasa con la información privada que se comparte con un asistente de inteligencia artificial? ¿Quién la ve? ¿Podría usarse en su contra más adelante?

Una herramienta que escucha… pero también registra

Estos sistemas están transformando la forma en que las personas comparten relatos íntimos, pero no están exentos de riesgos. Si una herramienta que promete escucha y contención gestiona mal los datos que recibe, la confianza se rompe. Y cuando eso ocurre dentro de una empresa, las consecuencias legales pueden ser importantes.

¿Por qué tantos empleados se sienten más cómodos hablando con una IA que con su jefe directo? Porque no sienten que la máquina los evalúe. Numerosas personas confiesan a un chatbot cosas que nunca dirían en una reunión: que se sienten invisibles, agotadas o desmotivadas. Y como estos sistemas están diseñados para recolectar información e identificar patrones de comportamiento, cuanto más se usan, más evidentes se vuelven esas señales.

En algunas organizaciones, los empleados han admitido que se sinceran más con un sistema virtual que con un colega. Y tiene lógica: un programa no guarda rencores, no altera el trato en el futuro. Para quienes trabajan en ambientes donde no se percibe seguridad psicológica, esa neutralidad es clave. Al menos, así lo esperan.

¿Puede una IA ayudar a sentirse mejor?

Sorprendentemente, sí. Aunque no haya una solución directa tras lo que se dice, el simple acto de contarlo genera alivio. Como escribir un diario o hablar con alguien que no responde con juicio. Estudios han demostrado que compartir pensamientos de forma anónima, incluso con una máquina, puede generar bienestar emocional.

Los programas de coaching con IA ofrecen ese espacio para ordenar ideas, reflexionar y encontrar claridad. Algunos hasta dan sugerencias o pasos concretos. No reemplazan a un profesional de salud mental, pero pueden ayudar a quienes aún no se sienten listos para abrirse con otra persona.

Sin embargo, ahí también hay un riesgo: que ese alivio genere en las empresas una sensación falsa de seguridad. Que alguien se sienta escuchado no significa que su problema esté resuelto. En ese punto, los líderes humanos tienen que actuar.

¿Qué ocurre cuando alguien comparte algo personal con un chatbot?

Ahí es donde la situación puede complicarse. Aunque estas herramientas se diseñaron para mejorar el rendimiento, muchas personas las usan para desahogarse. Pueden revelar que se sienten desbordadas, que perdieron el interés por su trabajo o que atraviesan una crisis personal.

¿Qué sucede con esa información? ¿Alguien la analiza? ¿Recursos Humanos la va a usar? ¿O quedará almacenada en un informe? Peor aún: ¿podría usarse después para perjudicar la evaluación de desempeño de esa persona?

Pocas empresas tienen una respuesta clara. Algunas herramientas sí están programadas para alertar ante señales de riesgo, pero en muchos casos no hay un protocolo para manejar esa información sin dañar la confianza. Y sin esa garantía, compartir deja de ser un alivio y se convierte en una amenaza.

¿Los empleadores pueden ver lo que comparten los empleados con una IA?

Depende de la configuración, pero en muchos casos, sí. Si la IA está integrada en plataformas como Microsoft Teams, Slack o sistemas internos de Recursos Humanos, todo lo que se escribe puede quedar registrado y ser accesible para administradores autorizados.

Un informe de Gartner (2023) alertó que muchas empresas no son conscientes del volumen de datos confidenciales que recopilan estas herramientas. Aunque se presenten como “coach”, en muchos casos rastrean emociones, sentimientos y estados anímicos.

Salvo que la empresa limite el acceso o borre los registros, existe la posibilidad real de que esa información esté disponible para quienes toman decisiones. En Estados Unidos, por ejemplo, pocas leyes impiden que los empleadores accedan a estos datos, salvo que eso implique discriminación o represalias. Así, un empleado puede creer que su conversación es privada cuando no lo es.

Por eso, los líderes deben establecer reglas claras sobre el uso de estas herramientas y proteger a quienes se animan a utilizarlas.

¿Qué riesgos legales enfrentan las empresas?

A medida que más compañías adoptan IA que recolecta información sensible, el terreno legal se vuelve resbaladizo. Si un empleado comparte un dato sobre una discapacidad, una situación de acoso o una condición médica protegida por ley, y la empresa no actúa (o peor, actúa en su contra), pueden surgir consecuencias legales.

En EE. UU., por ejemplo, leyes como la ADA o el Título VII de Derechos Civiles podrían aplicarse si se usa esa información de forma inapropiada.

También está el tema del consentimiento. Las personas deben saber qué datos se recopilan, cómo se almacenan y quién puede verlos. Si una IA capta información emocional que luego influye en evaluaciones o promociones, el problema no es solo ético: también es legal.

¿Qué están haciendo las empresas que ya usan IA como coach?

Algunas firmas ya probaron estas herramientas y enfrentaron dilemas reales.

Experian lanzó a “Nadia”, una coach virtual para el desarrollo de líderes. Al principio, hubo entusiasmo, pero pronto surgieron dudas sobre la privacidad y el rol de la herramienta. ¿Podía reemplazar el contacto humano? ¿Qué pasaba con la información compartida? La empresa respondió fijando límites claros: Nadia estaba ahí para ayudar, no para controlar. Ese encuadre fue clave para que los empleados confiaran.

Salesforce tuvo una experiencia similar con su herramienta Career Agent. Fue útil para orientar el desarrollo profesional interno, pero pronto entendieron que debían agregar funciones optativas y mayor control sobre los datos. Sabían que si las personas temían ser evaluadas por lo que decían, dejarían de usarla. Darles control hizo toda la diferencia.

¿Los gerentes deben temer ser reemplazados por un chatbot?

No necesariamente. Pero si tus empleados se sienten más cómodos con una IA que contigo, hay algo que revisar.

Los gerentes no deben convertirse en terapeutas, pero sí deben crear espacios seguros para hablar. La IA puede dar pistas sobre el clima emocional del equipo, pero los líderes reales deben actuar con empatía. Una cultura saludable no nace de los algoritmos: se construye con vínculos humanos.

¿Qué deberían hacer los líderes antes de implementar un coach con IA?

Antes de avanzar, es clave hacerse preguntas concretas:

  • ¿Quién accede a los datos?
  • ¿Cómo se usan?
  • ¿Hay respuesta para lo que se comparte?
  • ¿Está garantizada la privacidad?

Si alguna de estas preguntas no tiene respuesta clara, entonces la herramienta no está lista.

La IA puede ser una gran aliada si se implementa con responsabilidad. Debe complementar a los líderes, no suplantarlos. Su objetivo es facilitar el diálogo, no evitarlo. La confianza, al fin y al cabo, nace del contacto humano. La inteligencia artificial puede acompañar, pero nunca reemplazar a un jefe que escucha, responde y cuida a su equipo.

Shares: