Samsung no quiere que sus empleados usen ChatGPT

Es prácticamente imposible no escuchar hablar en estos días sobre OpenIA y ChatGPT. La revolución de la inteligencia artificial parece no tener marcha atrás y las consecuencias comienzan a vislumbrarse de manera súbita. Lo que hasta hace algunos años era parte de los guiones de ciencia ficción, hoy se ha convertido en noticia del día, poniéndonos frente a un escenario que podría ser tan positivo como negativo, según la perspectiva desde donde se analiza. Lo cierto es que muchas empresas han plantado posición ante el desarrollo acelerado de la inteligencia artificial y sus alcances, por lo que, en esta oportunidad, analizamos la decisión de Samsung.

No cabe duda de que Samsung es una de las multinacionales más poderosas del mundo, razón por la que han decidido restringir el uso de modelos de IA entre los empleados de la compañía. Esto se debe a que un mal uso de la herramienta podría exponer algunos datos que a la empresa no le interesa que caigan en las manos equivocadas. A través de u comunicado interno enviado durante el mes de abril, la empresa de tecnología confirmó la detección de un uso indebido de la herramienta ChatGPT entre los empleados. Al filtrar accidentalmente un código de Samsung, los ingenieros pudieron incorporar en la base de datos de ChatGPT, lo que podría afectar severamente a la compañía.

No hay datos precisos sobre la naturaleza del código y las consecuencias que podría tener esto en la empresa, pero lo cierto es que Samsung no quiere que su información termine en las manos equivocadas. Como resultado, se ha restringido el uso de ChatGPT en los ordenadores de la empresa. Se conoce el profundo interés de explorar la utilidad y eficiencia de la herramienta, pero existe una gran preocupación acerca de los riesgos que representa el uso de la inteligencia artificial generativa. Aquellos empleados que incumplan este protocolo podrían ser objeto de sanciones y acciones disciplinarias que podrían generar el despido.