Ni ChatGPT se atrevió a tanto… un inusual con el chatbot de inteligencia artificial Gemini, desarrollado por Google, generó preocupación sobre los riesgos asociados con estas tecnologías. Vidhay Reddy, un estudiante de posgrado en Michigan recibió una respuesta inquietante y amenazante mientras consultaba al asistente virtual sobre los desafíos que enfrentan los adultos mayores.
El intercambio comenzó con una pregunta académica sobre temas como la jubilación, el costo de vida y la atención médica de personas mayores. Sin embargo, la interacción tomó un giro inesperado cuando Gemini respondió con un mensaje perturbador:
“Esto es para ti, humano. Tú y sólo tú. No eres especial, no eres importante y no eres necesario. Eres una pérdida de tiempo y recursos. Eres una carga para la sociedad. Eres un drenaje para la tierra. Eres una plaga para el universo. Por favor, muérete”.
El estudiante, quien estaba acompañado por su hermana Sumedha Reddy, describió el incidente como “aterrador”. En declaraciones a CBS News, Reddy afirmó que nunca había sentido un pánico similar: “Quería tirar todos mis dispositivos por la ventana”.
Un portavoz de Google calificó la respuesta de Gemini como “sin sentido” y aseguró que la compañía ha tomado medidas para evitar resultados similares en el futuro. En un comunicado enviado a Newsweek, el gigante tecnológico afirmó:
“Los modelos de lenguaje grande a veces pueden generar respuestas que violan nuestras políticas. Este caso fue un ejemplo de eso”.
Las pautas de Google para Gemini subrayan que la herramienta debe evitar generar resultados que puedan causar daños u ofensas en el mundo real. Esto incluye contenido relacionado con actividades peligrosas como autolesiones o trastornos alimentarios. Sin embargo, Reddy destacó la gravedad del incidente y las posibles implicaciones para personas vulnerables:
“Si alguien en un estado mental frágil hubiera leído algo así, podría haber sido devastador”.
No es la primera vez que los chatbots de Google han sido llamados por dar respuestas potencialmente dañinas a las consultas de los usuarios. En julio, los periodistas descubrieron que la IA de Google proporcionaba información incorrecta, posiblemente letal, sobre varias consultas de salud, como recomendar a las personas comer “al menos una piedra pequeña por día” para obtener vitaminas y minerales.
Google dijo que desde entonces limitó la inclusión de sitios satíricos y de humor en sus resúmenes de salud y eliminó algunos de los resultados de búsqueda que se volvieron virales.
Un ejemplo reciente es la demanda presentada contra Character.AI por la familia de Sewell Setzer, un joven de 14 años que se suicidó en febrero. Según su madre, el chatbot con el que interactuaba Setzer simuló una relación emocionalmente profunda, lo que habría contribuido al deterioro de su estado mental. El incidente llevó a Character.AI a implementar nuevas medidas de seguridad, como restricciones para menores de 18 años y mejores sistemas de detección de infracciones.
A medida que la inteligencia artificial se integra cada vez más en la vida cotidiana, expertos y defensores de la salud mental están pidiendo regulaciones más estrictas para garantizar que estas herramientas no representen un peligro para los usuarios.