HoyEnTEC

OpenAI escanea conversaciones riesgosas para alertar a la policía

Los nuevos cambios en la era digital nos hacen contemplar hasta qué punto somos capaces de sacrificar nuestra privacidad para aumentar la seguridad de nuestras interacciones online. En un reciente informe, OpenAI ha confirmado que efectivamente llevan a cabo la revisión y seguimiento de las conversaciones de ChatGPT. Esto con el objetivo de crear un entorno más seguro y transparente, tanto para la sociedad, como para el usuario.

Los alcances de esta tecnología permiten incluso enviar alertas directamente a la policía, evitando así, situaciones que puedan escalar a un nivel de peligrosidad mayor. Ante este escenario, se han generado algunos cuestionamientos, ya que se critica de manera directa la aparente privacidad que hasta el momento se prometía en ChatGPT.

Si un usuario ha tenido interacciones peligrosas con el uso de ChatGPT que puedan ser de interés para las autoridades, entonces la compañía puede activar estos mecanismos. Sin embargo, este proceso no es del todo automatizado, dada la sensibilidad del asunto y las consecuencias que podría haber a partir de ello.

Con el objetivo de ofrecer una detección más precisa y ajustada al contexto, OpenAI ha informado que se utilizan moderadores humanos. Las reacciones no se hicieron esperar luego de que la empresa publicara un informe en el que se abordan algunos asuntos vinculados a los posibles daños mentales generados por una IA conversacional. Como resultado, algunos expertos en privacidad digital han alzado la voz en contra de las medidas.

El proceso es bastante simple, pues si la IA de OpenAI detecta un patrón peligroso en una conversación, con intenciones de hacer daño a otras personas, estas conversaciones son transferidas a un equipo. El equipo está capacitado para limitar cuentas, restringir accesos y alertar a las autoridades a la brevedad posible. El cumplimiento de ciertos protocolos determinen el umbral de amenaza, creando una sinergia entre la participación humana y la inteligencia artificial.