General

Seguridad de Superinteligencia: Claves para Proteger el Futuro de la IA

0

Tras el tumultuoso despido y posterior retorno de Sam Altman como CEO de OpenAI, parece que las aguas en la organización se están calmando y retomando una senda de crecimiento con ideas más claras. Este episodio, aunque dramático, ha servido para reafirmar la misión de OpenAI y su compromiso con la superinteligencia, un concepto que se refiere a cualquier intelecto que supera con creces el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés.

En este senditod OpenAI ha anunciado que está desarrollando una IA superinteligente, una que superará la inteligencia humana. A pesar de las diferencias ideológicas internas, OpenAI ha establecido el equipo de Superalineación, liderado por el cofundador y científico jefe Ilya Sutskever, con el objetivo de desarrollar herramientas para gestionar estos sistemas de IA superinteligentes.

¿Qué es la Superalineación?

La Superalineación es un concepto que se refiere a la alineación de sistemas de IA superinteligentes con los valores y objetivos humanos. OpenAI está dedicando el 20% de su capacidad de computación a esta investigación, con el objetivo de desarrollar marcos de gobernanza para sistemas de IA avanzados.

¿Cómo se controla la superinteligencia?

OpenAI y Eric Schmidt han lanzado conjuntamente «Superalineación Fast Grants», comprometiendo $10 millones para la investigación sobre la seguridad y alineación de futuros sistemas de IA superhumanos.

El equipo de Superalineación ve la IA como un riesgo existencial potencial y está dedicando abundantes recursos a esta investigación. El enfoque principal es utilizar un modelo de IA más simple para entrenar a uno superior para obtener resultados óptimos y mitigar resultados no deseados. Este proceso se conoce como «generalización de débil a fuerte».

¿Por qué es importante?

La superinteligencia podría traer beneficios asombrosos, pero también podría representar riesgos potenciales si no se desarrolla con cuidado. Los sistemas de IA superinteligentes serán capaces de comportamientos complejos y creativos que los humanos no podrán comprender completamente. Por ejemplo, si un modelo superinteligente genera un millón de líneas de código extremadamente complicado, los humanos no podrán evaluar de manera confiable si el código es seguro o peligroso para ejecutar.

Una idea final

Los resultados de la investigación de OpenAI y la investigación realizada por los beneficiarios de las subvenciones se compartirán públicamente. OpenAI tiene como objetivo contribuir a la seguridad no solo de sus modelos, sino de los sistemas de IA avanzados en general. Aunque la superinteligencia puede parecer un concepto de ciencia ficción, OpenAI está trabajando activamente para hacerla una realidad y garantizar que se utilice de manera segura y beneficiosa para la humanidad

DimensionIA

Gaudi3 de Intel: Nuevo Chip para las Aplicaciones de IA Generativa

Previous article

Descubriendo el Poder de los Modelos de Lenguaje Grandes en Matemáticas: El caso de Google DeepMind

Next article

Comentarios

Leave a reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Login/Sign up