Giuliano l’Apostata, l’ultimo imperatore romano pagano, ma soprattutto un originale figura di intellettuale dell’antichità che facendo in quel passaggio epocale che fu il IV secolo d.C. il percorso inverso a quello che stava compiendo il mondo verso il cristianesimo, si poneva domande che oggi potrebbero aiutarci a capire dove stiamo andando, soprattutto nella mescolanza fra miti e verità che sta avvolgendo l’intelligenza artificiale. Non tanto e non solo per non cadere nei mille illusionismi e fake che ormai tendono a sostituire la realtà, quanto per capire come ogni verità, anche la più meticolosamente verificata, tenda ormai a essere provvisoria.

Il Wall Street Journal ci informa che la Cina sta cominciando a processare l’enorme mole di dati che ha sottratto ai database occidentali con dispositivi di intelligenza artificiale in grado di selezionare quella massa di informazioni, estraendo di volta in volta le indicazioni che servono alle strategie di contatto e interferenza approntate da Pechino. Gia da due anni almeno, documentano i cronisti del quotidiano americano, stanno affiorando dal web una pluralità di iniziative che colpiscono direttamente singoli bersagli – personalità, compagnie, Istituzioni, impianti digitali - i cui riferimenti sono stati raccolti e individuati proprio grazie alla potenza analitica che si è aggiunta in questi mesi.

Finora infatti proprio l’abbondanza dei dati rendeva difficile il loro utilizzo. Mettere mano su terabyte di documentazione, in cui ricavare proprio quella che serve per intromettersi in questo o quell’apparato, risultava complicato. Oggi questa criticità appare risolta. Lo è per la Cina come per tutti coloro che sono in grado di profilare dispositivi di intelligenza artificiale volti ad interrogare un archivio di informazioni e formattarne i dati singoli.

La stessa Agenzia delle Entrate italiane, un sistema non ancora noto per le sue esuberance tecnologiche, ha confermato che dal settembre sta scannerizzando i set di dati dei contribuenti medianti sistemi intelligenti che possono analiticamente individuare le trasgressioni. Lo stesso sta accadendo nel campo della sanità, dove dalla generica epidemiologia, la scienza che coglie le tendenze sui grandi flussi di documenti sanitari, stiamo arrivando a tracciare mappe molto particolareggiate di sintomatologie in grado di arrivare fino al paziente singolo. Un esempio ancora più evidente ci viene dalla criminologia, dove la capacità di riprocessare verbali e prove testimoniali o di laboratorio permette ormai agli organi di polizia di riaprire casi anche molto vecchi, di 30 o 40 anni fa, individuando precise dinamiche nella scena del crimine che sembravano ormai impossibili da accertare.

Ora questa ci costringe a relativizzare ogni informazione, legandola al livello di tecniche disponibili. Siamo in un campo che potremmo definire, parafrasando la celeberrima opera di Walter Benjamin, la verità al tempo della sua documentazione tecnologica. Il crinale lungo cui stiamo marciando è ormai costituito dalla capacità e competenza tecnologica. In base al modo in cui analizziamo i dati abbiamo la possibilità di mettere a fuoco la realtà.

Come scriveva tempo fa sul suo saggio "Oltre l’infinito" Mauro Magatti, “è ormai vero quel che è certo, è certo quel che è misurabile“. La misura è calcolo, che diventa fatica condivisa, indissolubile da ogni testimonianza.

Proprio come sosteneva Giuliano l’Apostata, che si trovava a destreggiarsi in una transizione diversa per contenuto, ma altrettando pervasiva e intrusiva, quale quella che vedeva mutare completamente il confine fra politica e religione, dobbiamo oggi “affaticarci attorno alla verità riposta”. Questa fatica si sta decentrando così come si rende sempre più accessibile l’intelligenza artificiale. Pensiamo a cosa sta accadendo nel mondo del giornalismo dove, lo vediamo proprio in queste settimane, le notizie arrivano sempre dall’analisi di database piuttosto che dalla testimonianza diretta di cronisti.

Se compariamo i due conflitti in corso - Ucraina e Gaza - osserviamo come nel primo vi sia stato un tappeto di informazioni costanti su cui si è inserita la guerra ibrida teorizzata dal generale russo Gerasimov qualche anno fa, con un terribile gioco di inquinamento delle fonti che comunque non ha certo vanificato l’attività della popolazione che documentava l’invasione russa dettagliatamente. Le notizie che hanno scandito professionalmente quella storia, almeno nel primo anno, venivano dalla capacità di validare i file che arrivavano dai fronti di battaglia. A Gaza gli israeliani hanno spento la luce subito, impedendo di usare Internet come grande agenzia di informazioni, e le rivelazioni che hanno caratterizzato i media venivano da più lontano, dalle redazioni centrali che dovevano destreggiarsi fra gli interessati scoop che venivano preparati dalle diverse intelligence in campo. A fare la differenza è da una parte l’accesso alla rete che rende protagonista del conflitto la popolazione come testimone collettivo, e dall’altra l’abilità a districare e riconoscere i documenti autentici dalle trappole dei servizi di sicurezza dei diversi schieramenti.

Il 2024 sarà l’anno dell’intelligenza artificiale, si dice, e vedremo come si assesterà questa funzione nel nuovo equilibrio fra potenza del fare e pericolo dello strafare, sicuramente sarà l’anno in cui si estenderà questa contesa fra la capacità di usare grandi quantità di dati e la possibilità di falsificarli. Sarà l’anno di una nuova forma di informazione, sempre più provvisoria e occasionale, in attesa di una sua smentita o validazione che dipenderà dai dati che si aggiungeranno continuamente. Come scriveva Nicolò Machiavelli, che ben aveva intuito il concetto di intelligenza come sinonimo di informazione, “la cagione della trista e della buona fortuna degli uomini è riscontrare il modo del procedere suo con i tempi“.

Proprio in questi giorni i giornali ci informano di una guerra digitale scatenatasi fra Cina e Usa a proposito dell’uso di sistemi intelligenti che usano i nostri dati per interferire con le nostre vite. La potenza di calcolo, che è la reale dimensione e soluzione che poi possiamo anche chiamare intelligenza artificiale, spostandoci sempre verso il crinale di una possibile singolarità dei dispositivi computazionali, rendono a questo punto ineludibile in quesito di Giuliano l’Apostata: non affidarci alla nuda parola, ma ad affaticarci intorno alla verità riposta.

Qual è dunque oggi questa linea d’ombra di una verità che non si affidi alla nuda parola? il nodo che proprio questa sessione di lavoro sta affrontando riguarda quale sia il livello di autonomia e libertà che una comunità sociale possa garantirsi pur rimanendo, questo è il punto, all’interno di questo straordinario processo di connessione e automatizzazione dei processi sociali globali.

Voglio ribadire, affinchè le mie successive osservazioni non siano male interpretate che io considero questa fase della storia umana la più promettente e felice di quante ne abbiamo vissute. Come scrive Luciano Floridi nel suo contributo al volume Il pensiero filosofico in Italia, “il digitale ha rotto gli argini che costringevano ad essere quello che eravamo perché nati in quel posto, in quelle condizioni sociali, in quel contesto culturale“. Ma proprio perché si tratta di una eccezionale opportunità penso che vada civilizzata con una logica negoziale e partecipativa che renda trasparente e condivisa la potenza che esprime questo sistema.

In questa ricerca, dato il tempo ristretto e una traccia più estesa che ho già consegnato, vorrei individuare due passaggi che mi sembrano fondanti di un vero umanesimo del calcolo che oggi si è indispensabile per civilizzare questa opportunità che si profila all’umanità, che è appunto il sistema digitale. Il primo riguarda la relatività proprio della sequenza numerica, che chiamiamo algoritmo. Non solo e non tanto nella sua architettura etica e valoriale, che si è già visto orienta e vincola soggettivamente, dal punto di vista del programmatore o comunque del proprietario del dispositivo il suo funzionamento. Quanto proprio della meccanica dell’elaborazione numerica. Come scriveva Giulio Giorello, il filosofo della scienza italiano scomparso nel giugno scorso e che qui voglio ricordare per il suo lucidissimo contributo proprio a questa problematica, nella prefazione di un mio libro “Algoritmi di Libertà” descrivendo la credibilità della struttura di un algoritmo “non sono in gioco solo i nostri famigliari numeri – 0,1,2,3…- piuttosto dati iniziali che possono essere entità astratte arbitrarie come simboli, successioni di simboli, figure geometriche ecc. In questa composizione, aggiungeva Giorello, citando il celebre articolo di Alan Turing del 1936 Sui numeri calcolabili, ”con un’applicazione al problema della decisione“, in cui appare evidente (e qui Giorello usa proprio le espressioni di Turing) “si potrebbe sperare ingenuamente che ogni risultato della matematica sia riconducibile, almeno teoricamente, ad un opportuno algoritmo, ma questa speranza è sbagliata, esistono problemi senza soluzioni”. In sintesi, i numeri non sono la certezza di una ed una sola soluzione per ogni problema come la definizione di algoritmo ci vuole far credere. Le soluzioni sono sempre multiple ed a volte addirittura impossibili. In questo spazio bisogna introdurre una advocacy digitale, una pratica critica che renda permanentemente il calcolo un processo da rivedere socialmente, costantemente e tenacemente. Questo principio richiede la stessa fatica concettuale, giuridica, legislativa, ed istituzionale che nei decenni passati sono state applicate a rendere sicure e socialmente condivisi i prodotti farmaceutici, o la gestione del denaro.

Il secondo passaggio che voglio sottolineare riguarda proprio il ruolo e la funzione della negoziazione sociale nel processo di automatizzazione delle attività discrezionali. Oggi mi pare che il mondo sia diviso lungo un nuovo piano di contrapposizione di interessi, che non coincide più con la proprietà dei mezzi di produzione ma con la titolarietà dei sistemi di calcolo: calcolanti e calcolati sono oggi le due categorie che appaiono sullo scenario di un’apparentemente asettica diffusione di una relazione fra la raccolta ed analisi dei dati di ognuno di noi e l’elaborazione di sistemi intelligenti che contengono sempre più informazioni e bagaglio razionale per interferire con la nostra coscienza. In questo scenario ilo rischio è quello che Paul Viriliò gia nel suo testo di metà degli anni 90, La Bomba Informatica, definiva la democrazia automatica, dove la volontà popolare è calcolata e desunta come l’audience televisiva. In questo quadro è indispensabile introdurre pratiche e procedure di partecipazione negoziale, in cui le intelligenze siano sempre il risultato di una sperimentazione congiunta da calcolanti e calcolati.

L’attuale terribile congiuntura sanitaria ha reso ancora più totalizzante il potere dei sistemi predittivi di calcolo: il virus è recintabile solo da un grafico sociale che ne prevede, in base alle teorie delle particelle, la dinamica. La domanda brutale ma indubbiamente esaustiva credo debba essere: quanti morti ancora ci vogliono per rendere big data e algoritmi parte essenziale di un corredo pubblico, di un patrimonio comune di un sistema istituzionale che possa almeno operare così come le grandi corporation tecnologiche operano da 20 anni accumulando fortune stratosferiche in borsa. Donald Ross, il padre dell’epidemiologia moderna ci ricordava nella sua battaglia contro il cataclisma della spagnola che "se non si colgono le dominanti matematiche e le tecnicalità dei sistemi di calcolo nei fenomeni virali non si riuscirà mai a combatterli”. Mi auguro almeno per questa ragione, al netto di ogni velo ideologico, che un domani nessuno di noi possa scoprire, come minaccia Albert Camus nel suo grande libro La peste “che si possa essere stati per inerzia dalla parte del contagio“.

Segui i temi Commenta con i lettori I commenti dei lettori

Suggerisci una correzione

Giuliano l’Apostata, l’ultimo imperatore romano pagano, ma soprattutto un originale figura di intellettuale dell’antichità che facendo in quel passaggio epocale che fu il IV secolo d.C. il percorso inverso a quello che stava compiendo il mondo verso il cristianesimo, si poneva domande che oggi potrebbero aiutarci a capire dove stiamo andando, soprattutto nella mescolanza fra miti e verità che sta avvolgendo l’intelligenza artificiale. Non tanto e non solo per non cadere nei mille illusionismi e fake che ormai tendono a sostituire la realtà, quanto per capire come ogni verità, anche la più meticolosamente verificata, tenda ormai a essere provvisoria.

Il Wall Street Journal ci informa che la Cina sta cominciando a processare l’enorme mole di dati che ha sottratto ai database occidentali con dispositivi di intelligenza artificiale in grado di selezionare quella massa di informazioni, estraendo di volta in volta le indicazioni che servono alle strategie di contatto e interferenza approntate da Pechino. Gia da due anni almeno, documentano i cronisti del quotidiano americano, stanno affiorando dal web una pluralità di iniziative che colpiscono direttamente singoli bersagli – personalità, compagnie, Istituzioni, impianti digitali - i cui riferimenti sono stati raccolti e individuati proprio grazie alla potenza analitica che si è aggiunta in questi mesi.

Finora infatti proprio l’abbondanza dei dati rendeva difficile il loro utilizzo. Mettere mano su terabyte di documentazione, in cui ricavare proprio quella che serve per intromettersi in questo o quell’apparato, risultava complicato. Oggi questa criticità appare risolta. Lo è per la Cina come per tutti coloro che sono in grado di profilare dispositivi di intelligenza artificiale volti ad interrogare un archivio di informazioni e formattarne i dati singoli.

La stessa Agenzia delle Entrate italiane, un sistema non ancora noto per le sue esuberance tecnologiche, ha confermato che dal settembre sta scannerizzando i set di dati dei contribuenti medianti sistemi intelligenti che possono analiticamente individuare le trasgressioni. Lo stesso sta accadendo nel campo della sanità, dove dalla generica epidemiologia, la scienza che coglie le tendenze sui grandi flussi di documenti sanitari, stiamo arrivando a tracciare mappe molto particolareggiate di sintomatologie in grado di arrivare fino al paziente singolo. Un esempio ancora più evidente ci viene dalla criminologia, dove la capacità di riprocessare verbali e prove testimoniali o di laboratorio permette ormai agli organi di polizia di riaprire casi anche molto vecchi, di 30 o 40 anni fa, individuando precise dinamiche nella scena del crimine che sembravano ormai impossibili da accertare.

Ora questa ci costringe a relativizzare ogni informazione, legandola al livello di tecniche disponibili. Siamo in un campo che potremmo definire, parafrasando la celeberrima opera di Walter Benjamin, la verità al tempo della sua documentazione tecnologica. Il crinale lungo cui stiamo marciando è ormai costituito dalla capacità e competenza tecnologica. In base al modo in cui analizziamo i dati abbiamo la possibilità di mettere a fuoco la realtà.

Come scriveva tempo fa sul suo saggio "Oltre l’infinito" Mauro Magatti, “è ormai vero quel che è certo, è certo quel che è misurabile“. La misura è calcolo, che diventa fatica condivisa, indissolubile da ogni testimonianza.

Proprio come sosteneva Giuliano l’Apostata, che si trovava a destreggiarsi in una transizione diversa per contenuto, ma altrettando pervasiva e intrusiva, quale quella che vedeva mutare completamente il confine fra politica e religione, dobbiamo oggi “affaticarci attorno alla verità riposta”. Questa fatica si sta decentrando così come si rende sempre più accessibile l’intelligenza artificiale. Pensiamo a cosa sta accadendo nel mondo del giornalismo dove, lo vediamo proprio in queste settimane, le notizie arrivano sempre dall’analisi di database piuttosto che dalla testimonianza diretta di cronisti.

Se compariamo i due conflitti in corso - Ucraina e Gaza - osserviamo come nel primo vi sia stato un tappeto di informazioni costanti su cui si è inserita la guerra ibrida teorizzata dal generale russo Gerasimov qualche anno fa, con un terribile gioco di inquinamento delle fonti che comunque non ha certo vanificato l’attività della popolazione che documentava l’invasione russa dettagliatamente. Le notizie che hanno scandito professionalmente quella storia, almeno nel primo anno, venivano dalla capacità di validare i file che arrivavano dai fronti di battaglia. A Gaza gli israeliani hanno spento la luce subito, impedendo di usare Internet come grande agenzia di informazioni, e le rivelazioni che hanno caratterizzato i media venivano da più lontano, dalle redazioni centrali che dovevano destreggiarsi fra gli interessati scoop che venivano preparati dalle diverse intelligence in campo. A fare la differenza è da una parte l’accesso alla rete che rende protagonista del conflitto la popolazione come testimone collettivo, e dall’altra l’abilità a districare e riconoscere i documenti autentici dalle trappole dei servizi di sicurezza dei diversi schieramenti.

Il 2024 sarà l’anno dell’intelligenza artificiale, si dice, e vedremo come si assesterà questa funzione nel nuovo equilibrio fra potenza del fare e pericolo dello strafare, sicuramente sarà l’anno in cui si estenderà questa contesa fra la capacità di usare grandi quantità di dati e la possibilità di falsificarli. Sarà l’anno di una nuova forma di informazione, sempre più provvisoria e occasionale, in attesa di una sua smentita o validazione che dipenderà dai dati che si aggiungeranno continuamente. Come scriveva Nicolò Machiavelli, che ben aveva intuito il concetto di intelligenza come sinonimo di informazione, “la cagione della trista e della buona fortuna degli uomini è riscontrare il modo del procedere suo con i tempi“.

Proprio in questi giorni i giornali ci informano di una guerra digitale scatenatasi fra Cina e Usa a proposito dell’uso di sistemi intelligenti che usano i nostri dati per interferire con le nostre vite. La potenza di calcolo, che è la reale dimensione e soluzione che poi possiamo anche chiamare intelligenza artificiale, spostandoci sempre verso il crinale di una possibile singolarità dei dispositivi computazionali, rendono a questo punto ineludibile in quesito di Giuliano l’Apostata: non affidarci alla nuda parola, ma ad affaticarci intorno alla verità riposta.

Qual è dunque oggi questa linea d’ombra di una verità che non si affidi alla nuda parola? il nodo che proprio questa sessione di lavoro sta affrontando riguarda quale sia il livello di autonomia e libertà che una comunità sociale possa garantirsi pur rimanendo, questo è il punto, all’interno di questo straordinario processo di connessione e automatizzazione dei processi sociali globali.

Voglio ribadire, affinchè le mie successive osservazioni non siano male interpretate che io considero questa fase della storia umana la più promettente e felice di quante ne abbiamo vissute. Come scrive Luciano Floridi nel suo contributo al volume Il pensiero filosofico in Italia, “il digitale ha rotto gli argini che costringevano ad essere quello che eravamo perché nati in quel posto, in quelle condizioni sociali, in quel contesto culturale“. Ma proprio perché si tratta di una eccezionale opportunità penso che vada civilizzata con una logica negoziale e partecipativa che renda trasparente e condivisa la potenza che esprime questo sistema.

In questa ricerca, dato il tempo ristretto e una traccia più estesa che ho già consegnato, vorrei individuare due passaggi che mi sembrano fondanti di un vero umanesimo del calcolo che oggi si è indispensabile per civilizzare questa opportunità che si profila all’umanità, che è appunto il sistema digitale. Il primo riguarda la relatività proprio della sequenza numerica, che chiamiamo algoritmo. Non solo e non tanto nella sua architettura etica e valoriale, che si è già visto orienta e vincola soggettivamente, dal punto di vista del programmatore o comunque del proprietario del dispositivo il suo funzionamento. Quanto proprio della meccanica dell’elaborazione numerica. Come scriveva Giulio Giorello, il filosofo della scienza italiano scomparso nel giugno scorso e che qui voglio ricordare per il suo lucidissimo contributo proprio a questa problematica, nella prefazione di un mio libro “Algoritmi di Libertà” descrivendo la credibilità della struttura di un algoritmo “non sono in gioco solo i nostri famigliari numeri – 0,1,2,3…- piuttosto dati iniziali che possono essere entità astratte arbitrarie come simboli, successioni di simboli, figure geometriche ecc. In questa composizione, aggiungeva Giorello, citando il celebre articolo di Alan Turing del 1936 Sui numeri calcolabili, ”con un’applicazione al problema della decisione“, in cui appare evidente (e qui Giorello usa proprio le espressioni di Turing) “si potrebbe sperare ingenuamente che ogni risultato della matematica sia riconducibile, almeno teoricamente, ad un opportuno algoritmo, ma questa speranza è sbagliata, esistono problemi senza soluzioni”. In sintesi, i numeri non sono la certezza di una ed una sola soluzione per ogni problema come la definizione di algoritmo ci vuole far credere. Le soluzioni sono sempre multiple ed a volte addirittura impossibili. In questo spazio bisogna introdurre una advocacy digitale, una pratica critica che renda permanentemente il calcolo un processo da rivedere socialmente, costantemente e tenacemente. Questo principio richiede la stessa fatica concettuale, giuridica, legislativa, ed istituzionale che nei decenni passati sono state applicate a rendere sicure e socialmente condivisi i prodotti farmaceutici, o la gestione del denaro.

Il secondo passaggio che voglio sottolineare riguarda proprio il ruolo e la funzione della negoziazione sociale nel processo di automatizzazione delle attività discrezionali. Oggi mi pare che il mondo sia diviso lungo un nuovo piano di contrapposizione di interessi, che non coincide più con la proprietà dei mezzi di produzione ma con la titolarietà dei sistemi di calcolo: calcolanti e calcolati sono oggi le due categorie che appaiono sullo scenario di un’apparentemente asettica diffusione di una relazione fra la raccolta ed analisi dei dati di ognuno di noi e l’elaborazione di sistemi intelligenti che contengono sempre più informazioni e bagaglio razionale per interferire con la nostra coscienza. In questo scenario ilo rischio è quello che Paul Viriliò gia nel suo testo di metà degli anni 90, La Bomba Informatica, definiva la democrazia automatica, dove la volontà popolare è calcolata e desunta come l’audience televisiva. In questo quadro è indispensabile introdurre pratiche e procedure di partecipazione negoziale, in cui le intelligenze siano sempre il risultato di una sperimentazione congiunta da calcolanti e calcolati.

L’attuale terribile congiuntura sanitaria ha reso ancora più totalizzante il potere dei sistemi predittivi di calcolo: il virus è recintabile solo da un grafico sociale che ne prevede, in base alle teorie delle particelle, la dinamica. La domanda brutale ma indubbiamente esaustiva credo debba essere: quanti morti ancora ci vogliono per rendere big data e algoritmi parte essenziale di un corredo pubblico, di un patrimonio comune di un sistema istituzionale che possa almeno operare così come le grandi corporation tecnologiche operano da 20 anni accumulando fortune stratosferiche in borsa. Donald Ross, il padre dell’epidemiologia moderna ci ricordava nella sua battaglia contro il cataclisma della spagnola che "se non si colgono le dominanti matematiche e le tecnicalità dei sistemi di calcolo nei fenomeni virali non si riuscirà mai a combatterli”. Mi auguro almeno per questa ragione, al netto di ogni velo ideologico, che un domani nessuno di noi possa scoprire, come minaccia Albert Camus nel suo grande libro La peste “che si possa essere stati per inerzia dalla parte del contagio“.

QOSHE - A giorni sarà il 2024. Ne siamo certi? La provvisorietà della verità al tempo dell’intelligenza artificiale - Michele Mezza
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

A giorni sarà il 2024. Ne siamo certi? La provvisorietà della verità al tempo dell’intelligenza artificiale

6 1
26.12.2023

Giuliano l’Apostata, l’ultimo imperatore romano pagano, ma soprattutto un originale figura di intellettuale dell’antichità che facendo in quel passaggio epocale che fu il IV secolo d.C. il percorso inverso a quello che stava compiendo il mondo verso il cristianesimo, si poneva domande che oggi potrebbero aiutarci a capire dove stiamo andando, soprattutto nella mescolanza fra miti e verità che sta avvolgendo l’intelligenza artificiale. Non tanto e non solo per non cadere nei mille illusionismi e fake che ormai tendono a sostituire la realtà, quanto per capire come ogni verità, anche la più meticolosamente verificata, tenda ormai a essere provvisoria.

Il Wall Street Journal ci informa che la Cina sta cominciando a processare l’enorme mole di dati che ha sottratto ai database occidentali con dispositivi di intelligenza artificiale in grado di selezionare quella massa di informazioni, estraendo di volta in volta le indicazioni che servono alle strategie di contatto e interferenza approntate da Pechino. Gia da due anni almeno, documentano i cronisti del quotidiano americano, stanno affiorando dal web una pluralità di iniziative che colpiscono direttamente singoli bersagli – personalità, compagnie, Istituzioni, impianti digitali - i cui riferimenti sono stati raccolti e individuati proprio grazie alla potenza analitica che si è aggiunta in questi mesi.

Finora infatti proprio l’abbondanza dei dati rendeva difficile il loro utilizzo. Mettere mano su terabyte di documentazione, in cui ricavare proprio quella che serve per intromettersi in questo o quell’apparato, risultava complicato. Oggi questa criticità appare risolta. Lo è per la Cina come per tutti coloro che sono in grado di profilare dispositivi di intelligenza artificiale volti ad interrogare un archivio di informazioni e formattarne i dati singoli.

La stessa Agenzia delle Entrate italiane, un sistema non ancora noto per le sue esuberance tecnologiche, ha confermato che dal settembre sta scannerizzando i set di dati dei contribuenti medianti sistemi intelligenti che possono analiticamente individuare le trasgressioni. Lo stesso sta accadendo nel campo della sanità, dove dalla generica epidemiologia, la scienza che coglie le tendenze sui grandi flussi di documenti sanitari, stiamo arrivando a tracciare mappe molto particolareggiate di sintomatologie in grado di arrivare fino al paziente singolo. Un esempio ancora più evidente ci viene dalla criminologia, dove la capacità di riprocessare verbali e prove testimoniali o di laboratorio permette ormai agli organi di polizia di riaprire casi anche molto vecchi, di 30 o 40 anni fa, individuando precise dinamiche nella scena del crimine che sembravano ormai impossibili da accertare.

Ora questa ci costringe a relativizzare ogni informazione, legandola al livello di tecniche disponibili. Siamo in un campo che potremmo definire, parafrasando la celeberrima opera di Walter Benjamin, la verità al tempo della sua documentazione tecnologica. Il crinale lungo cui stiamo marciando è ormai costituito dalla capacità e competenza tecnologica. In base al modo in cui analizziamo i dati abbiamo la possibilità di mettere a fuoco la realtà.

Come scriveva tempo fa sul suo saggio "Oltre l’infinito" Mauro Magatti, “è ormai vero quel che è certo, è certo quel che è misurabile“. La misura è calcolo, che diventa fatica condivisa, indissolubile da ogni testimonianza.

Proprio come sosteneva Giuliano l’Apostata, che si trovava a destreggiarsi in una transizione diversa per contenuto, ma altrettando pervasiva e intrusiva, quale quella che vedeva mutare completamente il confine fra politica e religione, dobbiamo oggi “affaticarci attorno alla verità riposta”. Questa fatica si sta decentrando così come si rende sempre più accessibile l’intelligenza artificiale. Pensiamo a cosa sta accadendo nel mondo del giornalismo dove, lo vediamo proprio in queste settimane, le notizie arrivano sempre dall’analisi di database piuttosto che dalla testimonianza diretta di cronisti.

Se compariamo i due conflitti in corso - Ucraina e Gaza - osserviamo come nel primo vi sia stato un tappeto di informazioni costanti su cui si è inserita la guerra ibrida teorizzata dal generale russo Gerasimov qualche anno fa, con un terribile gioco di inquinamento delle fonti che comunque non ha certo vanificato l’attività della popolazione che documentava l’invasione russa dettagliatamente. Le notizie che hanno scandito professionalmente quella storia, almeno nel primo anno, venivano dalla capacità di validare i file che arrivavano dai fronti di battaglia. A Gaza gli israeliani hanno spento la luce subito, impedendo di usare Internet come grande agenzia di informazioni, e le rivelazioni che hanno caratterizzato i media venivano da più lontano, dalle redazioni centrali che dovevano destreggiarsi fra gli interessati scoop che venivano preparati dalle diverse intelligence in campo. A fare la differenza è da una parte l’accesso alla rete che rende protagonista del conflitto la popolazione come testimone collettivo, e dall’altra l’abilità a districare e riconoscere i documenti autentici dalle trappole dei servizi di sicurezza dei diversi schieramenti.

Il 2024 sarà l’anno dell’intelligenza artificiale, si dice, e vedremo come si assesterà questa funzione nel nuovo equilibrio fra potenza del fare e pericolo dello strafare, sicuramente sarà l’anno in cui si estenderà questa contesa fra la capacità di usare grandi quantità di dati e la possibilità di falsificarli. Sarà l’anno di una nuova forma di informazione, sempre più provvisoria e occasionale, in attesa di una sua smentita o validazione che dipenderà dai dati che si aggiungeranno continuamente. Come scriveva Nicolò Machiavelli, che ben aveva intuito il concetto di intelligenza come sinonimo di informazione, “la cagione della trista e della buona fortuna degli uomini è riscontrare il modo del procedere suo con i tempi“.

Proprio in questi giorni i giornali ci informano di una guerra digitale scatenatasi fra Cina e Usa a proposito dell’uso........

© HuffPost


Get it on Google Play