Empleados de OpenAI quieren protección para hablar de los “graves riesgos” de la IA

Empleados actuales y antiguos de OpenAI y Google DeepMind dicen que los amplios acuerdos de confidencialidad les impiden expresar sus preocupaciones.

Por Bloomberg

Un grupo de empleados actuales y anteriores de OpenAI y Google DeepMind están pidiendo protección contra represalias por compartir preocupaciones sobre los “graves riesgos” de las tecnologías que estas y otras empresas están construyendo.

“Mientras no exista una supervisión gubernamental efectiva de estas corporaciones, los empleados actuales y anteriores se encuentran entre las pocas personas que pueden exigirles cuentas ante el público”, según una carta pública firmada por 13 personas que han trabajado en las empresas, siete de las cuales incluyeron sus nombres. “Sin embargo, los amplios acuerdos de confidencialidad nos impiden expresar nuestras preocupaciones, excepto a las mismas empresas que tal vez no estén abordando estos problemas”.

En las últimas semanas, OpenAI se ha enfrentado a una controversia sobre su enfoque para salvaguardar la inteligencia artificial después de disolver uno de sus equipos de seguridad de más alto perfil y verse afectado por una serie de salidas de personal.

Los empleados de OpenAI también han expresado su preocupación de que se les haya pedido a los empleados que firmen acuerdos de no menosprecio vinculado a sus acciones en la empresa, lo que podría causarles perder lucrativos acuerdos de capital si hablan en contra de la startup de IA.  

Después de algunas reacciones negativas, OpenAI dijo que liberaría a los empleados anteriores de los acuerdos. Jacob Hilton, uno de los ex empleados de OpenAI que firmó la carta el martes, escribió en X que la compañía merece crédito por el cambio de política de no menosprecio, “pero los empleados aún pueden temer otras formas de represalias por la divulgación, como ser despedidos y demandados por daños y perjuicios”. 

En un comunicado enviado a Bloomberg, un portavoz de OpenAI dijo que la compañía está orgullosa de su “historial proporcionando los sistemas de IA más capaces y seguros,  y cree en nuestro enfoque científico para abordar el riesgo”. El portavoz añadió: “Estamos de acuerdo en que un debate riguroso es crucial dada la importancia de esta tecnología y continuaremos colaborando con los gobiernos, la sociedad civil y otras comunidades de todo el mundo”.

Un representante de Google no respondió de inmediato a una solicitud de comentarios. En la carta, titulada ‘Un derecho a advertir sobre la inteligencia artificial avanzada’, los empleados dijeron que están preocupados porque las principales empresas de inteligencia artificial “tienen fuertes incentivos financieros para evitar una supervisión efectiva”. 

Por otro lado, las empresas tienen “sólo obligaciones débiles” de compartir con el público los verdaderos peligros de sus sistemas de IA, dijeron. La carta argumentaba que las protecciones ordinarias a los denunciantes son insuficientes porque se centran en actividades ilegales, mientras que muchos de los riesgos que preocupan a los empleados aún no están regulados.  

En su conjunto de propuestas, los empleados piden a las empresas de inteligencia artificial que se comprometan a prohibir los acuerdos de no menosprecio por inquietudes relacionadas con riesgos y a crear un proceso anónimo verificable para que el personal plantee problemas a las juntas directivas de la empresa y a los reguladores. Las propuestas también exigen que las empresas se abstengan de tomar represalias contra empleados actuales y anteriores que compartan públicamente información sobre riesgos después de agotar otros procesos internos.

OpenAI dijo que celebra sesiones periódicas de preguntas y respuestas con la junta directiva, así como horarios de oficina de liderazgo para que los empleados expresen sus inquietudes. La compañía también dijo que tiene una “línea directa de integridad” anónima para empleados y contratistas.

Daniel Kokotajlo, un ex empleado de OpenAI que renunció a principios de este año, dijo que le preocupa si las empresas están preparadas para las implicaciones de la inteligencia artificial general, una versión hipotética de IA que puede superar a los humanos en muchas tareas. Kokotajlo dijo que cree que hay un 50% de posibilidades de alcanzar el AGI para 2027.

“En realidad, no hay nada que impida a las empresas crear AGI y utilizarlo para diversas cosas, y no hay mucha transparencia”, dijo Kokotajlo, quien se arriesgó a renunciar a su capital para evitar firmar un acuerdo de no menosprecio. “Renuncié porque sentí que no estábamos preparados. No estábamos preparados como empresa y no estábamos preparados como sociedad para esto, y realmente necesitábamos invertir mucho más en prepararnos y pensar en las implicaciones”. 

Donald Trump rechaza participar en otro debate contra Kamala Harris

Por AFP El candidato republicano a la Casa Blanca, el expresidente Donald Trump, anunció este jueves que rechaza otro debate con su rival demócrata Kamala Harris, en una publicación en su...

Reino Unido digitaliza su sistema de inmigración y fronteras

El Gobierno del Reino Unido está dando pasos importantes para lograr su ambicioso objetivo de digitalizar el sistema de inmigración y fronteras del Reino...

Interesados en carreras STEM podrán descubrir grandes oportunidades en el Open House de Texas Tech University Costa Rica

En un mundo cada vez más impulsado por la tecnología, las carreras STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) se han convertido en el motor...

Biden se pone brevemente una gorra de Trump en gesto de unidad entre los dos partidos

Por EFE El presidente de Estados Unidos, Joe Biden, se puso brevemente una gorra de la campaña de Donald Trump durante una visita al cuartel de bomberos de Shanksville (Pensilvania), la...

Murió el expresidente peruano Alberto Fujimori a los 86 años

Por EFE El expresidente peruano Alberto Fujimori murió este miércoles a los 86 años, según informó su hija Keiko Fujimori. “Después de una larga batalla contra...

“Fan de su relación”: el capítulo de “La rosa de Guadalupe” que habría hecho enojar a Ángela y Nodal

Por Diario Libre La serie mexicana "La rosa de Guadalupe" recientemente lanzó un capítulo titulado "Fan de su relación", inspirado en la historia de Ángela Aguilar, Christian Nodal y su expareja Cazzu. En...