Aquest 2024 serà l’any de la intel·ligència artificial (IA). Sobretot, després que el 2023 constatés que entra en una fase crítica pels avenços extraordinaris en el seu desenvolupament. Un moment fascinant, que ens exposa a riscos i incerteses que requereixen establir com més aviat millor una mínima governança amb què encarar el futur amb una confiança relativa, perquè serà impossible garantir-la plenament. La causa és que pressionen sobre la IA dos factors que impedeixen que sigui controlable.

D’una banda, la pugna geopolítica dels EUA i la Xina sobre l’augment de les seves capacitats. Una rivalitat que escala a mida que totes dues interioritzen que l’hegemonia tecnològica i planetària per la qual lluiten està subordinada a qui lideri la seva investigació. De fet, d’això dependrà tenir empreses més competitives, armes més letals i governs més eficaços en la capacitat de control social. I d’una altra, el gen utòpic que batega en l’ADN sintètic de la IA. Un factor més determinant del que suposem, ja que opera des que va néixer fa 70 anys i li confereix la naturalesa d’una tecnologia que va més enllà d’una tecnologia facilitadora. És una tecnologia finalista que vol que alguna cosa es converteixi en algú . Per això, la dota d’una intel·ligència estadística més i més poderosa que aspira a aconseguir estats mentals similars als del seu creador.

La suma dels dos factors allibera un desenllaç cada vegada més in­quie­tant. Ho constata el que ha passat aquest any que ens deixa. En què han proliferat iniciatives rellevants on s’ha insistit en l’existència de riscos cada vegada més greus en la investigació sobre IA. El més sorprenent és que no s’arriben a detallar mai de forma concreta, però s’apunta per on poden venir. Com passa amb el manifest firmat per més d’un miler de científics en IA del 29 de març passat. Diu que la “IA avançada pot representar un canvi profund en la història de la vida a la Terra i s’hauria de planificar i gestionar amb compte”. Una cosa que no s’està donant per culpa de la competència agressiva que empreses i països mantenen. Fins al punt que s’assembla a una “ cursa fora de control” que pot donar lloc a “ments digitals cada vegada més poderoses i que ningú, ni tan sols els seus creadors, no poden comprendre, predir o controlar de forma fiable”.

Hi haurà qui pensi que és una cosa exagerada. Sobretot perquè el text concloïa amb la sol·licitud d’una moratòria en la investigació que permetés recapitular sobre on era i cap a on anava. Si analitzem el que diuen les mateixes corporacions tecnològiques que lideren el desenvolupament de la IA als Estats Units, veurem la inquietud que també manifesten sobre la seva investigació. No ho fan amb els caires distòpics dels científics, però sí amb una preocupació evident, ja que insisteixen en la declaració que van firmar el 21 de juliol: és urgent, almenys, una autoregulació que posi límits al seu desenvolupament. Entre altres coses, perquè la “innovació no es pot produir a compte dels drets i la seguretat dels nord-americans”.

Per això els signants –Google, Meta, Microsoft, OpenAI, Amazon, Anthropic i Inflection AI– es comprometen a ser transparents al provar la seguretat dels desenvolupaments dels seus sistemes d’IA, a fer públics els resultats dels tests de control i a evitar biaixos que produeixin discriminació i vulneració de la privacitat i la intimitat. Unes tesis que estan en línia amb l’ordre executiva presidencial dels Estats Units de 31 d’octubre també d’aquest any. En aquesta ordre, a més de convertir l’ inquilí de la Casa Blanca en un “AI commander in chief” que supervisa i coordina la investigació pública i privada en aquest camp, s’insisteix que s’hi ha de fer un ús responsable si vol convertir-se en una promesa per al conjunt de la humanitat. Altrament: podria conduir-nos a “exacerbar danys socials com el frau, la discriminació, els prejudicis i la desinformació, marginar i arrabassar poder als treballadors, ofegar la competència i plantejar riscos per a la seguretat nacional”.

Són més contundents, si pot ser, les exposicions de motius que acompanyen tant la declaració de Bletchley del 2 de novembre i el text de la proposta comuna acordada per la Comissió, el Consell i el Parlament europeus del 7 de desembre sobre el reglament d’IA. En totes, s’insisteix en la necessitat imperiosa d’una governança que neutralitzi els riscos extraordinaris que poden acompanyar la investigació d’una IA sense control. Riscos descrits, fins i tot, com a “catastròfics” per a la humanitat.

No analitzaré amb detall el text de la proposta final del reglament europeu. Queda per al pròxim lliurament, encara que destacaré que Europa s’ha deixat arrossegar per l’ansietat de competir amb la Xina i els EUA per desenvolupar una IA pròpia guiada per un cop de realisme geopolític. Oblidant que si Euro­pa vol ser un actor global, ho ha de ser en nom de tots aquells exclosos per la lògica competitiva que ha portat xinesos i nord-americans a treure’s l’ètica de sobre en veure-la com un obstacle per a la investigació.

Amb tot, el més preocupant en les ini­cia­ti­ves esmentades és que s’aborda un disseny de governança que busca la seguretat en IA com si estiguéssim davant una tecnologia facilitadora més, quan no ho és. Al fer-ho, som víctimes d’una mentalitat científica que és incapaç d’apreciar que estem davant un reducte d’investigació utòpica que vol imitar el cervell humà per fer-lo perfecte artificialment, sense importar-ne les conseqüències. Aquí hi ha el problema. En la mentalitat faustiana que acompanya una IA per a la qual no hi haurà cap governança possible si es dissenya per ser una voluntat de poder en ella mateixa. Una IA nihilista per a un món dominat pel nihilisme.

QOSHE - 2024, any de la intel·ligència artificial - José María Lassalle
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

2024, any de la intel·ligència artificial

7 0
30.12.2023

Aquest 2024 serà l’any de la intel·ligència artificial (IA). Sobretot, després que el 2023 constatés que entra en una fase crítica pels avenços extraordinaris en el seu desenvolupament. Un moment fascinant, que ens exposa a riscos i incerteses que requereixen establir com més aviat millor una mínima governança amb què encarar el futur amb una confiança relativa, perquè serà impossible garantir-la plenament. La causa és que pressionen sobre la IA dos factors que impedeixen que sigui controlable.

D’una banda, la pugna geopolítica dels EUA i la Xina sobre l’augment de les seves capacitats. Una rivalitat que escala a mida que totes dues interioritzen que l’hegemonia tecnològica i planetària per la qual lluiten està subordinada a qui lideri la seva investigació. De fet, d’això dependrà tenir empreses més competitives, armes més letals i governs més eficaços en la capacitat de control social. I d’una altra, el gen utòpic que batega en l’ADN sintètic de la IA. Un factor més determinant del que suposem, ja que opera des que va néixer fa 70 anys i li confereix la naturalesa d’una tecnologia que va més enllà d’una tecnologia facilitadora. És una tecnologia finalista que vol que alguna cosa es converteixi en algú . Per això, la dota d’una intel·ligència estadística més i més poderosa que aspira a aconseguir estats mentals similars als del seu creador.

La suma dels dos factors allibera un desenllaç cada........

© La Vanguardia


Get it on Google Play