IA Multimodal

Sutskever Inicia Una Compañía de Superinteligencia Segura

0

La Superinteligencia segura es el objetivo central de la nueva empresa de Ilya Sutskever, Safe Superintelligence Inc. (SSI). En un mundo donde la inteligencia artificial avanza rápidamente, Sutskever se enfoca en desarrollar sistemas que prioricen la seguridad y la protección. Esta iniciativa no solo promete avances revolucionarios en la IA, sino que también aborda las preocupaciones éticas y técnicas cruciales de estos desarrollos. 

Lanzamiento y Misión de SSI

Superinteligencia

Superinteligencia

El 19 de junio de 2024, Ilya Sutskever anunció oficialmente la creación de Safe Superintelligence Inc. (SSI) en un post en X (anteriormente Twitter). La misión principal de SSI es desarrollar una superinteligencia que supere la inteligencia humana, garantizando siempre la seguridad y la protección. Este enfoque incluye:

  • Evitar distracciones de la gestión y los ciclos de productos.
  • Proteger la compañía de las presiones comerciales a corto plazo.
  • Enfrentar los desafíos técnicos de crear una superinteligencia segura, similar a la seguridad nuclear en términos de importancia.

Miembros Fundadores

Ilya Sutskever

Ilya Sutskever, cofundador y exjefe científico de OpenAI, lidera esta nueva iniciativa como científico jefe. Su papel incluye supervisar los avances revolucionarios en la IA.

Daniel Gross

Daniel Gross, exlíder de IA en Apple, se une al equipo fundador. Gross trabajó en las iniciativas de IA y búsqueda de Apple hasta 2017.

Daniel Levy

Daniel Levy, exmiembro del personal técnico y investigador en OpenAI, también forma parte del equipo fundador. Levy ha colaborado previamente con Sutskever en varios proyectos.

SSI tiene oficinas en Palo Alto, California, y Tel Aviv, Israel.

Partida de Sutskever de OpenAI

OpenAI

OpenAI

Sutskever dejó OpenAI en mayo de 2024 tras un intento fallido de reemplazar al CEO, Sam Altman, en noviembre de 2023. Aunque Sutskever luego apoyó la decisión de reinstalar a Altman, decidió salir de la compañía. Previamente, formaba parte del equipo de superalineación de OpenAI, centrado en la seguridad de la IA. Otro miembro del equipo, Jan Leike, también renunció poco después, señalando que OpenAI había perdido su enfoque en la seguridad en favor de productos comercializables.

Preocupaciones sobre la Seguridad de la IA

El lanzamiento de SSI ocurre en medio de crecientes preocupaciones sobre las implicaciones éticas y de seguridad de los sistemas avanzados de IA. La nueva empresa de Sutskever subraya la importancia de la seguridad en el desarrollo de la IA, abordando los desafíos técnicos que esto implica. La salida de figuras clave de OpenAI, como Jan Leike, refleja estas preocupaciones sobre la pérdida de enfoque en la seguridad.

Plan de Seguridad de SSI

Safe Superintelligence Inc. (SSI) planea garantizar la seguridad de su sistema de IA avanzando rápidamente en capacidades mientras asegura que las medidas de seguridad estén siempre por delante. Este enfoque trata la seguridad y las capacidades como problemas técnicos que deben resolverse mediante ingenierías y avances científicos revolucionarios. El modelo de negocio de SSI está diseñado para:

  • Aislar la seguridad y el progreso de las presiones comerciales a corto plazo.
  • Focalizarse exclusivamente en el desarrollo de una superinteligencia segura.

Reflexión Final

En resumen, SSI se perfila como una iniciativa clave en la industria de la IA, priorizando la seguridad en el desarrollo de superinteligencias. La partida de Sutskever de OpenAI y la creación de SSI subrayan la importancia de un enfoque en la seguridad. ¿Podrá SSI marcar la diferencia en el futuro de la IA?

DimensionIA

Los Peligros del Chip NPU: Amenazas a la Privacidad en la Era Digital

Previous article

CuspAI: Innovación en IA para Buscar Materiales Sostenibles

Next article

Comentarios

Leave a reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Login/Sign up