El Proyecto Q* de OpenAI – Científicos advierten de los riesgos

Los temores sobre el Proyecto Q* y AGI en general surgen de la posibilidad de que estas tecnologías se conviertan en sistemas demasiado inteligentes y autónomos, lo que podría llevar a situaciones en las que la IA actúe de manera impredecible.

[Ciencia – Tecnología / Empresa – Información Digital]

 

El Proyecto Q* de OpenAI ha generado un intenso debate en el ámbito de la Inteligencia Artificial (IA) por su potencial para ser un gran avance en la búsqueda de la Inteligencia Artificial General (AGI), pero también por los riesgos que podría representar para la humanidad.

OpenAI, la empresa detrás de ChatGPT, ha definido la AGI como sistemas autónomos que superan a los humanos en la mayoría de las tareas económicamente valiosas.

Esta definición subraya la ambición de la startup de crear sistemas de IA que no solo sean competentes en tareas específicas, sino que también posean la capacidad de aprender y ejecutar una amplia gama de actividades, similar a la inteligencia humana.

El contexto reciente en OpenAI ha sido turbulento. Sam Altman, después de haber sido despedido abruptamente como CEO, fue restituido a raíz de la presión de inversores y empleados. (Del artículo original: ‘Qué es el proyecto Q* de OpenAI, la inteligencia artificial que ‘supone un riesgo para la humanidad», publicado en 20minutos.es, 23-11-2023).

 

Salida de Altman y Brockman

El 17 de noviembre de 2023, Sam Altman fue destituido de OpenAI como CEO por falta de confianza, y la directora de tecnología, Mira Murati asumió el cargo de CEO interina.

Greg Brockman, presidente de OpenAI, fue destituido como presidente de la junta directiva. Brockman anunció su marcha de la empresa tras el anuncio, además de informar de algunos detalles de los hechos ocurridos.

El 18 de noviembre de 2023, se informó de que había conversaciones para que Altman volviera a su papel de consejero delegado en medio de la presión ejercida sobre el consejo por inversores como Microsoft y Thrive Capital, que condenaron la salida de Altman.

Aunque el propio Altman se pronunció a favor de volver a OpenAI, declaró que estaba considerando fundar una nueva empresa y traer consigo a antiguos empleados de OpenAI si las conversaciones no funcionaban.

​El 19 de noviembre de 2023, las negociaciones con Altman para volver a la empresa fracasaron. (Wikipedia).

 

El efecto de la carta abierta de los empleados de OpenAI

Sin embargo, el 20 de noviembre de 2023, en otro giro inesperado de los acontecimientos, el director ejecutivo de Microsoft, Satya Nadella, dejó caer que OpenAI ya tenía nuevo CEO: el cofundador de Twitch, Emmett Shear, quien es conocido por su reticencia hacia la IA.

Asimismo, el directivo anunció que Altman y Brockman, “junto con sus colegas”, se iban a unir a Microsoft “para liderar un nuevo equipo de investigación avanzada de IA”.

Poco después del comunicado de Nadella, prácticamente la totalidad de empleados que tiene la compañía OpenAI firmó una carta abierta asegurando que se irían en masa a Microsoft si no cumplían con dos requisitos: la dimisión de algunos miembros de la junta directiva de OpenAI y la restitución de Altman como CEO de la compañía.

Las demandas de la plantilla fueron también respaldadas por muchos inversores.

Finalmente, todo ese movimiento logró tener el efecto que se buscaba: el 22 de noviembre se anunciaba que tanto Altman como Brockman volvían a OpenAI bajo la condición de que la junta directiva cambiase a la mayoría de sus miembros. (20minutos.es, 24-11-2023)

 

Preocupación sobre cómo se estaba gestionando el Proyecto Q*

Reuters reveló que investigadores de OpenAI escribieron una carta alertando sobre los peligros potenciales del Proyecto Q*, preocupados por una posible comercialización prematura de la tecnología sin comprender completamente sus consecuencias.

Q*, según las fuentes, ha demostrado capacidades en resolver problemas matemáticos a un nivel comparable al de estudiantes de primaria.

Este avance es significativo porque las matemáticas representan una frontera en el desarrollo de la IA generativa. A diferencia de las tareas de lenguaje, donde existen múltiples respuestas correctas, las matemáticas tienen soluciones únicas, lo que implica un razonamiento más riguroso y lógico por parte de la IA.

Los temores sobre Q* y AGI en general surgen de la posibilidad de que estas tecnologías se conviertan en sistemas demasiado inteligentes y autónomos, lo que podría llevar a situaciones en las que la IA actúe de manera impredecible o incluso contraria a los intereses humanos. (Del artículo original: ‘Qué es el proyecto Q* de OpenAI, la inteligencia artificial que ‘supone un riesgo para la humanidad», publicado en 20minutos.es, 23-11-2023)

 

Científicos advierten de los riesgos de la Inteligencia Artificial General (AGI)

Algunos científicos, como Stephen Hawking y Stuart Russell, creen que si la Inteligencia Artificial avanzada algún día gana la capacidad de rediseñarse a un ritmo cada vez mayor, una «explosión de inteligencia» imparable podría llevar a la extinción humana.

Elon Musk caracteriza a la IA como la mayor amenaza existencial de la humanidad. Los fundadores de OpenAI lo estructuraron como una organización sin fines de lucro para que pudieran centrar su investigación en la creación de un impacto humano positivo a largo plazo.

OpenAI afirma que «es difícil comprender cuánto podría beneficiar a la sociedad la IA al nivel humano», y que es igualmente difícil comprender «cuánto podría dañar a la sociedad si se construyera o se usara incorrectamente».

La investigación sobre seguridad no se puede posponer: «debido a la sorprendente historia de la IA, es difícil predecir cuándo la IA estará a nivel humano».

OpenAI afirma que la AI «debe ser una extensión de las voluntades humanas individuales y, en el espíritu de la libertad, distribuirse de la manera más amplia y equitativa posible …». Sam Altman espera que el proyecto supere la inteligencia humana. (Wikipedia).

 

Conclusión

A pesar de los recelos, la llegada de una AGI eficaz también tiene cosas beneficiosas, como la posible capacidad de superarnos en ocupaciones y trabajos, lo que podría llevar a grandes cambios en el mundo laboral. Además también se debe pensar en implementar una ética responsable y global en el desarrollo de la IA.

El Proyecto Q* de OpenAI es un avance prometedor en el campo de la IA, pero viene acompañado de grandes problemas sobre ética y seguridad que habrá que solucionar.

Nos preocupa la idea de Elon Musk, compartida por Altman, de tratar de reducir el riesgo de que la IA cause un daño general, facultando a tantas personas como sea posible para tener IA. 

Una política muy controvertida entre los que están preocupados por el riesgo que puede tener para la humanidad la Inteligencia Artificial, según en qué manos esté.

El filósofo sueco Nick Bostrom, conocido por sus trabajos sobre el principio antrópico, el riesgo existencial, la ética sobre el perfeccionamiento humano, los riesgos de la superinteligencia y el consecuencialismo, es escéptico sobre el enfoque de Musk: «Si tienes un botón que podría hacer cosas malas al mundo, no quieras dárselo a todos».

 

 

Equipo Torrese
eMagazine 39ymas.com  

Origen de la imagen:
pexels.com – cottonbro studio

Ver:

> Smart City Expo 2023 – Soluciones urbanas inteligentes  
> La Inteligencia Artificial Generativa – Una revolución creativa   
> El vehículo conectado es la revolución tecnológica de la movilidad   
> Gemelos digitales y ‘Blockchain’ – Tendencias tecnológicas 2023 – 1 
> ‘Internet de las Cosas, Inteligencia Artificial y Metaverso – Tendencias tecnológicas 2023 – 2’
> La revolución tecnológica – Nuevo marco legal europeo
> Inteligencia artificial híbrida contra las Fake News 
> Hacia una sociedad digital más ética y más segura 
> Los nanomateriales, la salud humana y el medio ambiente
> ChatGPT – La carta escondida de los cibercriminales