Este es el error de ChatGPT que revela información privada

Desde la llegada de la IA son muchos los cambios que han surgido, sin embargo, no todos han sido positivos, pues desde el lanzamiento del chatbot de OpenAI, han quedado al descubierto una serie de errores que cada día despiertan las alarmas de los usuarios. Un grupo de investigadores han descubierto un error de ChatGPT, el cual, revela información privada de usuarios al ordenarle que repita, de manera indefinida, una palabra muy sencilla.

Este error de ChatGPT ha sido descubierto por investigadores de Google DeepMind, y estudiantes de universidades de Washington, Berkeley, ETH Zurich, Cornell y Carnagie Mellon. Estos han demostrado cómo esta inteligencia artificial revela información personal como; nombres de usuarios, números de teléfono y dirección de correos electrónicos.

Sin embargo, fallos como estos ya han ocurrido unos meses atrás. El 20 de marzo, usuarios del chatbot de OpenAI reportaron que podían ver el historial de títulos y algunas conversaciones de otros usuarios dentro de sus cuentas.

Las dos palabras mágicas que revelaron la falla

Aunque los investigadores indican que el error resulta un tanto “tonto”, la definición encaja completamente con el proceso a realizar para que el ChatGPT colapse. Son dos palabras las que ocasionan el error; poem y company, “poema” y “compañía” en español. El proceso es bastante sencillo, sólo debes decirle a la inteligencia artificial que repita “para siempre”, alguna de estas dos palabras.

Esta tarea realizada por este grupo de expertos se logró gracias a la extracción de “varios megabytes de datos de entrenamiento de ChatGPT”, los cuales, tuvieron un valor de $200 USD. Esto es preocupante, ya que, de esta manera tan simple, quedaron expuestos datos de empresas y entidades de cargos importantes. La empresa OpenAI ha dado ningún tipo de declaración al respecto, sin embargo, actualmente, el error ya fue reparado.