Roma, 25 novembre 2023 – Pare che Stephen Hawking, grande e visionario scienziato morto nel 2018, abbia detto, a proposito dell’intelligenza artificiale, che "potrebbe essere la cosa migliore, o peggiore, per l’umanità". Sono passati alcuni anni e nell’accelerato mondo delle tecnologie digitali il dubbio non è ancora sciolto. Tutt’altro. L’intelligenza artificiale appare semmai sull’orlo di una crisi di crescita, e forse anche di nervi, a giudicare dai colpi di scena che hanno avuto al centro la figura di Sam Altman, prima defenestrato, poi richiamato a furor di popolo (e di ricchi investitori) alla testa di OpenAI.

Citando Umberto Eco, c’è chi parla del ritorno dell’antica linea di separazione fra apocalittici e integrati, i primi timorosi che l’intelligenza artificiale possa sfuggire al controllo umano e produca disastri, i secondi convinti che stiamo vivendo una fase di grande e positivo sviluppo. In verità, le posizioni non sembrano così nette, tanto che anche gli ‘integrati’ – ossia Big Tech, le quattro-cinque aziende globali che hanno il controllo dell’intero sistema – chiedono ai governi di fissare regole e limiti di legge, certo meno forti e rigorosi di quelle auspicati dai presunti apocalittici, spesso scavalcati, nel lanciare allarmi, proprio da Big Tech.

Il sospetto è che le grandi aziende abbiano in mente leggi che mantengano la loro posizione dominante. E l’ulteriore sospetto è che prefigurare scenari catastrofici, sia un modo per allontanare l’attenzione da questioni più vicine e più concrete, come la violazione della privacy, l’uso indiscriminato dei dati, l’estensione dei pregiudizi e delle disuguaglianze, la diffusione di sistemi invasivi di controllo, la manipolazione dell’informazione, tutti temi che il legislatore potrebbe e dovrebbe affrontare.

Certo, la ricerca e lo sviluppo di nuove applicazioni corrono a ritmi vertiginosi e la rivelazione che dietro il caso OpenAI ci sarebbe il Progetto Q*, cioè un’intelligenza che va oltre il livello probabilistico e computazione e si avvicina alla cosiddetta Intelligenza artificiale generale (Agi nell’acronimo in inglese), con una propria capacità d’essere adattabile e in qualche modo creativa, sta generando nuove, comprensibili ansie.

Al momento, oltre a tanti dubbi, abbiamo qualche certezza. La prima è che sappiamo molto poco di quanto avviene nei laboratori (non c’è trasparenza su niente); la seconda è che la ricerca è tutta in mani private; la terza è che i poteri pubblici avrebbero il dovere di intervenire, sia per indirizzare gli usi e limitare le applicazioni più pericolose, sia per contrastare lo strapotere dei nuovi feudatari del digitale.

Su primo e terzo punto qualcosa si potrebbe fare e qualcuno ci sta provando. L’Unione europea sta lavorando a una propria direttiva, ma certi inattesi contrasti fanno temere un altro slittamento rispetto ai tempi previsti (primavera 2024). Negli Usa il presidente Biden ha emanato due ordini esecutivi, con i quali si chiede a Big Tech di condividere con l’amministrazione informazioni e risultati. L’intelligenza artificiale però è globale, e forse ci vorrebbe un organismo sul modello dell’ente istituito a suo tempo in sede Onu per il controllo dell’energia atomica. Ma anche l’Onu è in crisi e dunque il dubbio di Hawking è ancora attuale, fin troppo attuale.

QOSHE - Intelligenza artificiale, il Progetto Q*, Altman e la “minaccia per l’umanità”. Ecco cosa sappiamo - Lorenzo Guadagnucci
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Intelligenza artificiale, il Progetto Q*, Altman e la “minaccia per l’umanità”. Ecco cosa sappiamo

6 0
25.11.2023

Roma, 25 novembre 2023 – Pare che Stephen Hawking, grande e visionario scienziato morto nel 2018, abbia detto, a proposito dell’intelligenza artificiale, che "potrebbe essere la cosa migliore, o peggiore, per l’umanità". Sono passati alcuni anni e nell’accelerato mondo delle tecnologie digitali il dubbio non è ancora sciolto. Tutt’altro. L’intelligenza artificiale appare semmai sull’orlo di una crisi di crescita, e forse anche di nervi, a giudicare dai colpi di scena che hanno avuto al centro la figura di Sam Altman, prima defenestrato, poi richiamato a furor di popolo (e di ricchi investitori) alla testa di OpenAI.

Citando Umberto Eco, c’è chi parla del ritorno dell’antica linea di separazione fra apocalittici e integrati, i primi timorosi che l’intelligenza artificiale possa sfuggire al controllo........

© Quotidiano


Get it on Google Play