Los grandes acuerdos suelen venir precedidos de jornadas maratonianas. De hecho, en algunas circunstancias, alargar las negociaciones suele ser la estrategia elegida por quienes adoptan el papel de muñidor de pactos: empezar las reuniones por lo sencillo, esto es, por aquello en lo que las partes parecen no diferir mucho, y dejar para el final lo complicado, aquello en lo que existen más discrepancias y más profundas diferencias. La idea es que cuando las partes negociadoras están bajo presión de tiempo o fatiga pueden estar más dispuestas a hacer concesiones que de otro modo no considerarían. Después de horas de negociación, el cansancio puede hacer que las partes implicadas estén más inclinadas a evitar el fracaso de las conversaciones y por lo tanto, más propensas a buscar un compromiso.

Esto es lo que puede haber sucedido con las negociaciones para lograr un acuerdo con respecto a la que se ha convertido en la primera ley integral para limitar el uso de la inteligencia artificial del mundo, acordada por la Unión Europea el pasado viernes, 8 de diciembre. El texto, propuesto en 2021 y modificado tras la rápida evolución de la industria de la IA generativa, estuvo sometido a las fuertes presiones de gobiernos, oenegés y lobbies tecnológicos. Pero finalmente superó el proceso legislativo cuando la Comisión, el Consejo y el Parlamento europeos resolvieron sus diferencias tras 36 horas de dura negociación.

Europa se convierte así en el primer continente en establecer una normativa para el uso de la inteligencia artificial. Una ley con un marcado enfoque regulatorio basado en los riesgos que están vinculados a la privacidad, a la no discriminación, a la transparencia y a la seguridad. Un hito que va asociado con la cada vez mayor inquietud que manifiesta las sociedades de todo el mundo debido a la velocidad de crucero que parece haber tomado la tecnología en general y el desarrollo de la inteligencia artificial en particular, en estos últimos tiempos.

Esta extendida preocupación se pone de manifiesto en los datos de un reciente estudio llevado a cabo por Ipsos para el Foro de Seguridad de Halifax. Sin duda, y al igual que otras herramientas, la inteligencia artificial tiene el potencial de ser usada tanto para fines positivos como negativos, pero son estos últimos los que obviamente más preocupan y los que parecen tener más presentes los ciudadanos de todo el planeta.

Por ejemplo, el sondeo muestra que el 41% (la media global de los 30 países en los que se ha llevado a cabo el estudio) cree que la IA se convertirá en una amenaza para la paz mundial. Un porcentaje que en el caso de España se eleva hasta el 50%. En relación con el tema de la seguridad, a la mayoría (74% de media global) le preocupa que las herramientas de hacking impulsadas por la IA lleven a cabo ataques de ciberseguridad e interrumpan o dañen infraestructuras críticas, como transportes, distribución de energía, o instalaciones sanitarias, entre otros. Una inquietud compartida por tres de cada cuatro españoles (73%). A la amplia mayoría de los ciudadanos de estos 30 países le inquieta también las armas autónomas que incorporan inteligencia artificial como son los drones o los robots. Una preocupación compartida por el 68% de los ciudadanos.

En lo que respecta al riesgo sobre la privacidad, uno de los temas en los que se centra la regulación de la Unión Europea, casi tres de cada cuatro ciudadanos de media en el mundo (73%) dicen estar preocupados por la vigilancia mediante IA que viola los derechos de privacidad y que pueda ser mal utilizada. En España, el 72%. Y seis de cada diez ciudadanos de media a nivel global (59%) piensan que la revolución de la tecnología digital acabará socavando y destruyendo las libertades democráticas que existen actualmente en el mundo. Ese sentimiento ha aumentado significativamente a lo largo del último año en siete países, entre ellos nuestro, donde el 60% de los ciudadanos se muestra de acuerdo con esta afirmación. Suecia, Estados Unidos y Canadá son otros de los países en los que esta preocupación ha aumentado con respecto a 2022.

Además, una parte de la población se siente intranquila por algunos aspectos muy concreto de esta rápida evolución tecnológica. En estos momentos, tres cuartas partes de la población mundial (75%) manifiestan sentirse preocupadas por los deepfakes, esa técnica de la inteligencia artificial que permite crear imágenes y vídeos falsos de personas que parecen reales y que suelen utilizarse para difundir desinformación y para manipular, en algún sentido, a la opinión pública. Entre los países en los que la preocupación por este tema está más extendida se encuentra España: 74%, un porcentaje que le sitúa como el tercer país europeo con mayor preocupación, solo por detrás de Países Bajos (85%) y Polonia (75%). Si ya nos cuesta distinguir la realidad de la ficción en los mensajes y declaraciones de algunos de nuestros líderes políticos sin necesidad de inteligencia artificial, imagínense con ella de por medio. Una campaña electoral salpicada de deepfakes suena a pesadilla más que a broma. Y sería, sin duda, una herramienta que elevaría la polarización afectiva actualmente presente en nuestra sociedad.

Y ante esta generalizada preocupación, la confianza ciudadana en la respuesta de los gobiernos no está muy extendida. De media, a nivel mundial, solo el 43% confía en que su Gobierno sería capaz de proporcionar los niveles adecuados de seguridad y protección, o que sus agencias podrían responder eficazmente, si un sistema de defensa basado en IA se liberara del control humano. Un dato muy similar al de España, donde solo el 42% confía en la capacidad del Gobierno para hacer frente a estas amenazas, situándose, en todo caso, como el tercer país europeo que más confía en su gobierno tras Reino Unido (45%) y Países Bajos (44%).

Como herramienta transversal, la inteligencia artificial tiene la capacidad de incidir en todas las áreas de la vida: desde la política y la economía hasta la sociedad, la educación, la salud y más allá. Nos presenta un futuro lleno de posibilidades, en el que los ciudadanos pueden beneficiarse de su capacidad para mejorar la eficiencia, la precisión y el acceso a servicios clave. Sin embargo, no podemos ignorar los aspectos preocupantes de su adopción. El impacto en la seguridad y privacidad de los países y sus ciudadanos puede ser significativo, si no se controla y se regula adecuadamente. En palabras del sociólogo Manuel Castells, «la tecnología no determina la sociedad: la plasma». Así, es nuestra responsabilidad garantizar que la adopción de la inteligencia artificial se haga de manera que beneficie a la humanidad en su conjunto, sin comprometer nuestra seguridad y privacidad. Y, en este sentido, la nueva ley acordada por la UE es una buena noticia.

QOSHE - La UE y la IA - José Pablo Ferrándiz
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

La UE y la IA

5 0
16.12.2023

Los grandes acuerdos suelen venir precedidos de jornadas maratonianas. De hecho, en algunas circunstancias, alargar las negociaciones suele ser la estrategia elegida por quienes adoptan el papel de muñidor de pactos: empezar las reuniones por lo sencillo, esto es, por aquello en lo que las partes parecen no diferir mucho, y dejar para el final lo complicado, aquello en lo que existen más discrepancias y más profundas diferencias. La idea es que cuando las partes negociadoras están bajo presión de tiempo o fatiga pueden estar más dispuestas a hacer concesiones que de otro modo no considerarían. Después de horas de negociación, el cansancio puede hacer que las partes implicadas estén más inclinadas a evitar el fracaso de las conversaciones y por lo tanto, más propensas a buscar un compromiso.

Esto es lo que puede haber sucedido con las negociaciones para lograr un acuerdo con respecto a la que se ha convertido en la primera ley integral para limitar el uso de la inteligencia artificial del mundo, acordada por la Unión Europea el pasado viernes, 8 de diciembre. El texto, propuesto en 2021 y modificado tras la rápida evolución de la industria de la IA generativa, estuvo sometido a las fuertes presiones de gobiernos, oenegés y lobbies tecnológicos. Pero finalmente superó el proceso legislativo cuando la Comisión, el Consejo y el Parlamento europeos resolvieron sus diferencias tras 36 horas de dura negociación.

Europa se convierte así en el primer continente en establecer una normativa para el uso de la inteligencia artificial. Una ley con un marcado enfoque regulatorio basado en los riesgos que están vinculados a la privacidad, a la no discriminación, a la transparencia y a la........

© La Opinión de Málaga


Get it on Google Play