La transparencia en inteligencia artificial es un tema crucial que ha llevado a empleados de OpenAI y DeepMind a exigir mayor seguridad y claridad en el sector. En una carta abierta, estos trabajadores han solicitado prácticas más seguras y una mayor obligación de compartir información con el público y los gobiernos. La falta de transparencia actual podría tener consecuencias serias para la sociedad. Sigue leyendo para conocer las demandas específicas y el contexto de esta petición, respaldada por reconocidos expertos en IA.
La Carta Abierta

Carta Abierta
En una carta abierta, más de una docena de empleados actuales y antiguos de OpenAI y DeepMind han solicitado mayor transparencia y seguridad en el campo de la IA. A pesar de que las empresas conocen las capacidades potenciales de sus modelos, los empleados afirman que estas compañías «actualmente tienen solo obligaciones débiles para compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil».
Peticiones de los Trabajadores
Los firmantes de la carta piden:
- Eliminación de acuerdos de no desprestigio que impiden a los ex empleados criticar a las empresas de IA donde trabajaron anteriormente. En nuestra web ya tratamos sobre este tipo de política de no descalificación.
- Un proceso anónimo que permita a los empleados plantear preocupaciones sobre problemas de seguridad a sus superiores.
- Protecciones para los denunciantes que decidan hablar o compartir información sobre amenazas a la seguridad.
Apoyo de Expertos
La carta ha sido respaldada por tres prominentes científicos de la computación, incluyendo a Geoffrey Hinton y Yoshua Bengio, quienes recibieron el Premio Turing en 2018 y son considerados dos de los «Padrinos del Aprendizaje Profundo».
Una Voz Autorizada Disonante

Yann LeCun
Yann LeCun, un reconocido experto en inteligencia artificial y Chief AI Scientist en Meta, destaca la importancia de la transparencia en la IA. Para él, la transparencia es esencial para fomentar la confianza pública, garantizar la responsabilidad y facilitar la colaboración científica. LeCun aboga por que las empresas tecnológicas sean abiertas sobre sus investigaciones y prácticas, y apoya la implementación de mecanismos seguros para que los empleados puedan expresar preocupaciones. Además es un ferviente defensor del Open Source o Código Abierto.
En cuanto a los peligros potenciales de la IA, LeCun es escéptico sobre las predicciones catastróficas. Prefiere enfocarse en problemas reales, como el sesgo en los algoritmos y la privacidad de los datos, y apoya regulaciones éticas que no inhiban la innovación. LeCun promueve un equilibrio entre la transparencia y la seguridad en la IA, evitando el pánico infundado y las regulaciones excesivas.
Contexto Actual
El equipo de superalineación orientado a la seguridad de OpenAI fue disuelto después de que ambos líderes renunciaran el mes pasado. La empresa ha creado una nueva división de seguridad, pero los críticos argumentan que no es independiente porque muchos de sus miembros, incluyendo al CEO Sam Altman, son ejecutivos de OpenAI.
Respuesta de OpenAI
OpenAI comentó a Axios que no tiene problema con que sus empleados contribuyan al «riguroso debate» sobre la seguridad en IA, y que los anima a compartir sus perspectivas. Añadieron que ya han implementado algunos de los cambios solicitados por los empleados, como una línea directa de integridad que permite enviar consejos de seguridad de manera anónima.
Para más información, puedes leer el artículo completo de Axios aquí.
Comentarios