La IA es algo más que una sigla. Resume en dos letras la tensión de nuestro tiempo. Contiene todos los factores que nos conducen hacia uno de esos momentos decisivos de la humanidad. Un momento que requiere un diagnóstico preciso de lo que esconde la superficie de las noticias sobre la IA, pues detectar sus claves puede ayudarnos a anticipar las tendencias inevitables que está liberando la innovación sobre ella.

La batalla que se ha librado en OpenAI alrededor de la figura de Sam Altman es un reflejo de ello. Lo mismo que la reacción desesperada de muchos tecnólogos, que promovieron en marzo un manifiesto pidiendo una moratoria en la investigación sobre la IA generativa. ¿Y qué decir de la orden ejecutiva presidencial de la Casa Blanca hace unas semanas y que es justificada por la extraordinaria urgencia de gobernar tanto el desarrollo como el uso de la IA conforme a criterios de seguridad y responsabilidad? Términos estos que invitan a la alarma y que también hace suyos, con menor gravedad discursiva, la declaración de Bletchley, aprobada por el Gobierno británico a principios de mes.

En esa declaración, suscrita incluso por China, se invoca, tras volver a destacar las enormes oportunidades que encierra para el bienestar, la paz y la prosperidad, la urgencia de una supervisión global público-privada de la investigación de la IA. Poniendo énfasis en la fronteriza, esto es, la que está en los umbrales de vanguardia de la innovación en el ámbito generativo. Debate que también sacude a Europa cuando se dilucida la recta final de la negociación que tiene lugar en los trílogos que preceden a la inminente aprobación del reglamento europeo de IA.

¿Qué esta pasando detrás de estas noticias? Que la IA enfila un momento de no retorno sobre las capacidades que está adquiriendo y que pueden hacer viable el progreso definitivo hacia una IA fuerte o general mucho antes de lo previsto. Esto es, una IA con capacidades cognitivas semejantes a nuestro sentido común y nuestra consciencia, aunque con una inteligencia estadística detrás infinitamente superior a la nuestra. Se aventuraba que se alcanzaría en el 2050, pero quizá se esté adelantando esta posibilidad dos décadas.

Un fenómeno que se produce por la presión de un calentamiento geopolítico global, alimentado por la competencia feroz que libran China y Estados Unidos por la hegemonía tecnológica. Los chinos, de acuerdo con una planificación verticalizada de la investigación en IA donde el Estado controla todo el proceso. Los estadounidenses, a través de una competencia horizontal entre las famosas Gafam (Google, Amazon, Facebook-Meta, Apple y Microsoft), tal y como refleja el golpe de timón dado por Microsoft en OpenAI.

Recordemos que el diseño norteamericano de innovación tecnológica se basa en el principio winner-takes-all (quien gana se lo lleva todo). Un modelo neoliberal que ha funcionado con éxito desde el nacimiento del mercado digital en EE.UU. y que ha permitido una competencia eficiente entre monopolios, que es lo que son las Gafam. El problema es que esta competencia puede romperse si una compañía hegemoniza el cambio disruptivo que experimenta la IA. Que es lo que puede suceder con el control definitivo de Microsoft sobre OpenAI.

Esta empresa nació sin ánimo de lucro y con un enfoque abierto, colaborativo y ético. Quería desarrollar una IA generativa gobernada por esos principios, pero impulsada por la misma lógica utópica que desde Alan Turing ha sido el motor de la investigación en este ámbito: reproducir un cerebro humano sin los defectos que le hacen tan a menudo fallido. Los avances logrados por OpenAI en poco tiempo, a través de sus modelos aplicados de aprendizaje profundo, han desarrollado un prototipo como ChatGPT, que ha empezado a cambiar las cosas. Hasta el punto de estar muy cerca de ofrecer una IA generativa a un precio de acceso tan bajo que pudiera expulsar del mercado de servicios análogos a cualquier competidor.

Una iniciativa comercial que podría generar un monopolio capaz de proyectarse sobre todo el conjunto del mercado digital. Algo entrevisto el 6 de noviembre cuando Altman anunció la puesta en marcha de un diseño multi-sided de IA con un GPT-4 turbo a la vanguardia y una App Store en retaguardia para monetizar la oferta de servicios cruzada. Esta decisión provocó la batalla dentro de OpenAI. Por un lado, quienes deseaban mantener la empresa dentro de sus planteamientos originales para frenar la investigación y poderla supervisar éticamente ante el incremento de los riesgos asociados al avance en las capacidades generativas de los sistemas de IA desarrollados. Y por otro, quienes, con Altman a la cabeza, quieren llevar la investigación hasta sus últimas consecuencias. Algo que permitiría a OpenAI lograr el clic que produzca una IA fuerte que dé a su principal accionista, Microsoft, el monopolio del ecosistema digital. Una batalla que han ganado Altman y Microsoft.

Un desenlace que, curiosamente, se produce un mes después de que se aprobara la orden presidencial que atribuye al inquilino de la Casa Blanca la condición de AI Commander in Chief y que hay que relacionar con el control de la supervisión sobre innovación en IA establecida en el 2022 por la ley de Chips y Ciencia. Así las cosas, no es de extrañar que la presencia de Larry Summers, ex secretario de Estado del Tesoro y exrector de Harvard, en el consejo de OpenAI nos ayude a entender lo sucedido dentro de la clave geopolítica mencionada. Una clave que ya es decisiva. Refleja una voluntad de poder alrededor de la existencia de un “complejo industrial-innovador” sobre la IA que pugna con determinación por que Estados Unidos llegue el primero a una IA fuerte en el 2030.

QOSHE - Altman, OpenAI y voluntad de poder - José María Lassalle
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Altman, OpenAI y voluntad de poder

8 0
25.11.2023

La IA es algo más que una sigla. Resume en dos letras la tensión de nuestro tiempo. Contiene todos los factores que nos conducen hacia uno de esos momentos decisivos de la humanidad. Un momento que requiere un diagnóstico preciso de lo que esconde la superficie de las noticias sobre la IA, pues detectar sus claves puede ayudarnos a anticipar las tendencias inevitables que está liberando la innovación sobre ella.

La batalla que se ha librado en OpenAI alrededor de la figura de Sam Altman es un reflejo de ello. Lo mismo que la reacción desesperada de muchos tecnólogos, que promovieron en marzo un manifiesto pidiendo una moratoria en la investigación sobre la IA generativa. ¿Y qué decir de la orden ejecutiva presidencial de la Casa Blanca hace unas semanas y que es justificada por la extraordinaria urgencia de gobernar tanto el desarrollo como el uso de la IA conforme a criterios de seguridad y responsabilidad? Términos estos que invitan a la alarma y que también hace suyos, con menor gravedad discursiva, la declaración de Bletchley, aprobada por el Gobierno británico a principios de mes.

En esa declaración, suscrita incluso por China, se invoca, tras volver a destacar las enormes oportunidades que encierra para el bienestar, la paz y la prosperidad, la urgencia de una supervisión global público-privada de la investigación de la IA. Poniendo énfasis en la fronteriza, esto es, la que está en los umbrales de........

© La Vanguardia


Get it on Google Play