Por Bloomberg
Un grupo de empleados actuales y anteriores de OpenAI y Google DeepMind están pidiendo protección contra represalias por compartir preocupaciones sobre los “graves riesgos” de las tecnologías que estas y otras empresas están construyendo.
“Mientras no exista una supervisión gubernamental efectiva de estas corporaciones, los empleados actuales y anteriores se encuentran entre las pocas personas que pueden exigirles cuentas ante el público”, según una carta pública firmada por 13 personas que han trabajado en las empresas, siete de las cuales incluyeron sus nombres. “Sin embargo, los amplios acuerdos de confidencialidad nos impiden expresar nuestras preocupaciones, excepto a las mismas empresas que tal vez no estén abordando estos problemas”.
En las últimas semanas, OpenAI se ha enfrentado a una controversia sobre su enfoque para salvaguardar la inteligencia artificial después de disolver uno de sus equipos de seguridad de más alto perfil y verse afectado por una serie de salidas de personal.
Los empleados de OpenAI también han expresado su preocupación de que se les haya pedido a los empleados que firmen acuerdos de no menosprecio vinculado a sus acciones en la empresa, lo que podría causarles perder lucrativos acuerdos de capital si hablan en contra de la startup de IA.
Después de algunas reacciones negativas, OpenAI dijo que liberaría a los empleados anteriores de los acuerdos. Jacob Hilton, uno de los ex empleados de OpenAI que firmó la carta el martes, escribió en X que la compañía merece crédito por el cambio de política de no menosprecio, “pero los empleados aún pueden temer otras formas de represalias por la divulgación, como ser despedidos y demandados por daños y perjuicios”.
En un comunicado enviado a Bloomberg, un portavoz de OpenAI dijo que la compañía está orgullosa de su “historial proporcionando los sistemas de IA más capaces y seguros, y cree en nuestro enfoque científico para abordar el riesgo”. El portavoz añadió: “Estamos de acuerdo en que un debate riguroso es crucial dada la importancia de esta tecnología y continuaremos colaborando con los gobiernos, la sociedad civil y otras comunidades de todo el mundo”.
Un representante de Google no respondió de inmediato a una solicitud de comentarios. En la carta, titulada ‘Un derecho a advertir sobre la inteligencia artificial avanzada’, los empleados dijeron que están preocupados porque las principales empresas de inteligencia artificial “tienen fuertes incentivos financieros para evitar una supervisión efectiva”.
Por otro lado, las empresas tienen “sólo obligaciones débiles” de compartir con el público los verdaderos peligros de sus sistemas de IA, dijeron. La carta argumentaba que las protecciones ordinarias a los denunciantes son insuficientes porque se centran en actividades ilegales, mientras que muchos de los riesgos que preocupan a los empleados aún no están regulados.
En su conjunto de propuestas, los empleados piden a las empresas de inteligencia artificial que se comprometan a prohibir los acuerdos de no menosprecio por inquietudes relacionadas con riesgos y a crear un proceso anónimo verificable para que el personal plantee problemas a las juntas directivas de la empresa y a los reguladores. Las propuestas también exigen que las empresas se abstengan de tomar represalias contra empleados actuales y anteriores que compartan públicamente información sobre riesgos después de agotar otros procesos internos.
OpenAI dijo que celebra sesiones periódicas de preguntas y respuestas con la junta directiva, así como horarios de oficina de liderazgo para que los empleados expresen sus inquietudes. La compañía también dijo que tiene una “línea directa de integridad” anónima para empleados y contratistas.
Daniel Kokotajlo, un ex empleado de OpenAI que renunció a principios de este año, dijo que le preocupa si las empresas están preparadas para las implicaciones de la inteligencia artificial general, una versión hipotética de IA que puede superar a los humanos en muchas tareas. Kokotajlo dijo que cree que hay un 50% de posibilidades de alcanzar el AGI para 2027.
“En realidad, no hay nada que impida a las empresas crear AGI y utilizarlo para diversas cosas, y no hay mucha transparencia”, dijo Kokotajlo, quien se arriesgó a renunciar a su capital para evitar firmar un acuerdo de no menosprecio. “Renuncié porque sentí que no estábamos preparados. No estábamos preparados como empresa y no estábamos preparados como sociedad para esto, y realmente necesitábamos invertir mucho más en prepararnos y pensar en las implicaciones”.