Ciencia y tecnología

Qué es el proyecto Q* de OpenAI, la supuesta "amenaza contra la humanidad" relacionada con el despido de Sam Altman

Reuters apunta a que la marcha del fundador de ChatGPT tuvo que ver con un avance significativo hacia la inteligencia artificial general (AGI), aunque la compañía lo niega

Sam Altma, cofundador de OpenAI. / Getty

Todavía se desconocen las causas del despido y la posterior readmisión de Sam Altman como CEO de OpenAI, un laboratorio de investigación de inteligencia artificial estadounidense conocido por haber creado el popular ChatGPT. Entre la maraña de hipótesis y filtraciones de los trabajadores de la compañía, un nombre ha copado los titulares durante los últimos días: el proyecto Q* (pronunciado Q-Star).

Más información

Según informa Reuters, que cita como fuentes a "dos personas familiarizadas con el asunto", varios expertos de la compañía enviaron una carta a la junta directiva en la que alertaban sobre "un poderoso descubrimiento" de inteligencia artificial que, a su juicio, podía suponer una "importante amenaza contra la humanidad". Preguntada por la mencionada agencia, OpenAI declinó hacer comentarios al respecto, si bien reconoció, en un mensaje interno a su personal, la existencia de un proyecto llamado Q*.

¿Qué es el proyecto Q*?

No existe mucha información sobre el desarrollo de esta supuesta funcionalidad o herramienta, más allá de la exclusiva de Reuters y de los comentarios en foros de la comunidad de OpenAI. Es comprensible, teniendo en cuenta que este tipo de investigaciones suelen llevarse a cabo con la máxima confidencialidad.

De acuerdo con Reuters, "algunos en OpenAI" creen que Q* podría ser un avance significativo en la búsqueda de lo que se conoce como inteligencia artificial general (AGI, por sus siglas en inglés). Este concepto se refiere a sistemas autónomos capaces de superar a los seres humanos en la mayoría de las tareas consideradas de valor en términos económicos.

Probablemente, la Q vendría de Q-learning, una técnica de aprendizaje por refuerzo consistente en enseñar a una inteligencia a artificial qué acción debe tomar en función de las circunstancias para alcanzar una determinada recompensa. El propio ChatGPT lo explica con la analogía de un ratón que aprende salir de un laberinto para obtener un trozo de queso. "A medida que el robot explora más el laberinto, comienza a identificar el camino más eficiente hacia el queso", detalla.

Si en fútbol juegan muchos y siempre gana Alemania, en la tecnología juegan muchos y siempre gana Microsoft"

El supuesto avance rumbo a la AGI sería un nuevo modelo, basado en este sistema de aprendizaje, capaz de resolver ciertos problemas matemáticos. Así lo explica a Reuters un trabajador anónimo, que no está autorizado a hablar en nombre de la empresa. Aunque los problemas matemáticos resueltos por la IA están al nivel de estudiantes de primaria, los responsables del proyecto se muestran "muy optimistas" sobre su potencial, en palabras de esta misma fuente.

¿Por qué la AGI puede ser un riesgo?

Quizás este avance pueda no parecer gran cosa, pero los expertos consideran que las matemáticas son una de las fronteras del desarrollo de la IA generativa. Hasta ahora, herramientas como ChatGPT son buenas en escritura y en traducción de idiomas, pero conseguir fiabilidad en el campo de las matemáticas (donde sólo existe una respuesta correcta) implicaría capacidades de razonamiento similares —o, quién sabe, si superiores— a la inteligencia humana.

A diferencia de una calculadora, que puede resolver un número limitado de operaciones a petición del usuario, la AGI podría aprender, comprender y aplicar sus conocimientos a futuros problemas. Según Reuters, la carta a la junta previa al despido de Altman advertía sobre "la destreza y el peligro potencial de la IA". Además, hacía referencia a un equipo de "científicos de IA", formado por miembros de equipos anteriores de 'Code Gen' y 'Math Gen', que estarían explorando cómo optimizar los modelos de IA existentes para mejorar su razonamiento y su desempeño en la realización de trabajos científicos. No obstante, no se especifican los motivos exactos de preocupación.

Reuters asegura que la ejecutiva de OpenAI Mira Murati comunicó a los empleados que una carta sobre Q* "precipitó las acciones de la junta" para despedir a Sam Altman. El medio especializado en tecnología 'The Verge' le preguntó por este asunto a la portavoz de la empresa, Lindsey Held Bolton, quien desmintió que Murati hubiera confirmado a sus empleados que esta fue la razón de la marcha de Altman: "Les dijo a los empleados de qué trataban las noticias de los medios [sobre OpenAI], pero no hizo valoraciones sobre la exactitud de la información".

Guerra Civil en Open AI

22:56

Compartir

El código iframe se ha copiado en el portapapeles

<iframe src="https://cadenaser.com/embed/audio/460/1700600472959/" width="100%" height="360" frameborder="0" allowfullscreen></iframe>

De hecho, la versión de este medio es que la junta nunca recibió una carta sobre un avance que pusiera en riesgo a la humanidad y que los progresos hacia la AGI no jugaron ningún papel en el despido de Altman. 'The Verge' apunta a que el verdadero motivo habría sido una lucha de poder entre los sectores de investigación y producto de la empresa que, aunque en un principio, se había saldado a favor de Ilya Sutskever, cofundador de OpenAI junto con Sam Altman, se volvió en su contra tras el motín de los empleados que amenazaron con irse a Microsoft.

José Rodríguez Sojo

José Rodríguez Sojo

Periodista, SEO y aprendiz de todo lo que me dejan en la web de la Cadena SER. Me interesa cualquier...

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00