IA e disumanizzazione accelerata

Come l’essere umano ha già perso il controllo dell’intelligenza artificiale

Negli ultimi anni c’è stata una vera e propria esplosione di sistemi di intelligenza artificiale (IA, molti preferiscono usare “sistemi intelligenti”, io preferirei qualcosa del tipo “sistemi algoritmo-automatici”). Così è stato anche in ambito militare dove solitamente (purtroppo) avvengono le innovazioni principali che poi vengono dispiegate anche in ambiti civili (ad esempio: l’energia atomica, la rete internet, il GPS, ecc…).

Immagine dell’autore, creata con GIMP

La tecnica in genere ha portato anche in ambito militare una disumanizzazione dei conflitti. Non è che prima dell’arrivo della polvere da sparo i conflitti fossero “umani”, ma per lo meno c’era un contatto di corpi, uno scambio di sguardi, si sentiva l’odore di sangue e morte, un clangore metallico di spade (avete presente a quanti dà fastidio lo sfregare delle posate?), ecc… Con l’evoluzione tecnologica si è passati ad un distacco sempre più ampio. Si ammazza da lontano: dentro enormi bombardieri, lanciando missili davanti a schermi a centinaia di chilometri di distanza dall’obiettivo da colpire o guidando a distanza droni. Nell’ultimo secolo, si è perso un contatto fisico con il nemico, non essere più sul campo vuol dire non essere coinvolto emotivamente, non c’è possibilità che emerga una qualsiasi forma di empatia.

Ora nella striscia di Gaza stiamo sperimentando il passo successivo. Un’inchiesta di +972 Magazine e Local Call ha portato alla luce l’utilizzo criminale di un sistema “intelligente”, il Lavender, responsabile della selezione degli obiettivi. Lavender è un classificatore, è stato addestrato a riconoscere militanti di Hamas in base ai profili di militanti già catturati o uccisi negli scorsi anni di guerra. Lavender analizza i profili dei palestinesi ed assegna un punteggio in base alla probabilità che il soggetto sia o meno legato ad Hamas.

Lavender si occupa di selezionare i bersagli: le case private di potenziali militanti di Hamas. Sistemi di questo tipo sono molto sensibili ai dati utilizzati per l’addestramento ed il successivo utilizzo. Dati anche in minima parte errati portano al cosiddetto “effetto farfalla” generando output proporzionalmente molto più errati. Le case vengono bombardate senza un precedente controllo umano e con bombe “stupide” (quelle “intelligenti” sono troppo costose). Quindi vengono bombardati obiettivi civili e non militari, vengono uccisi i familiari, i vicini e chiunque sia in zona. Inoltre, Lavender non ha la certezza di selezionare solo militanti di Hamas, ma ha un errore del 10% (1 su 10 che viene ucciso sicuramente non c’entra nulla con Hamas). Ma non è finita qui, l’inchiesta riporta che i dati di addestramento di Lavender includerebbero anche lavoratori civili del settore difesa, è quindi lecito pensare che nemmeno tutti i 9 su 10 siano realmente miliziani.

Follia totale! Non solo l’uso della tecnica con la sua potenza distruttiva ed il suo distacco ha portato a massacri senza precedenti disumanizzando sempre più i conflitti, ma ora l’essere umano non si prende nemmeno più la responsabilità di selezionare (o anche solo filtrare) gli obiettivi. In un futuro abbastanza vicino sarà tutto automatico: definizione di strategie-tattiche militari e la loro attuazione (con droni autonomi e bombe “intelligenti”).

Come uscirne? A mio modo di vedere tutto il mondo dell’etica delle nuove tecnologie, in particolare dell’IA, può essere risolto solo da una nuova figura di essere umano: più integra, meno separata con il mondo e veramente “intelligente”. Il punto di svolta è in noi, non lasciamoci ingannare dalla vulgata: “eh il mondo va così purtroppo”. Il mondo è composto da una miriade di relazioni, alcune delle quali ci coinvolgono direttamente, anche noi siamo “il mondo”. Ognuno di noi può decidere di agire in modo diverso, ognuno di noi può smontare atteggiamenti aggressivi e bellici nel proprio piccolo, ognuno di noi può essere Rivoluzione.

Autore: Paolo Giuliodori

Sulla Terra dal 1989, le mie esperienze di vita: - PhD in Computer Science: qualche articolo pubblicato nel mare magnum delle pubblicazioni scientifiche; - deputato della Repubblica: XVIII legislatura, probabilmente una tra le più "divertenti" (governo del cambiamento, covid, guerra in Ucraina, ecc...); - lettore vorace: onnivoro, mastico tutto (anche se a volte qualcosa sputo): filosofia, fisica, economia, romanzi, politica, sociologia, testi sacri orientali, ecc...; - sempre in ricerca, di cosa? Boh, si vedrà!

Un commento su “IA e disumanizzazione accelerata”

  1. Grazie caro Paolo per questo interessante articolo!

    Concordo con te anche nelle considerazioni finali: è totalmente inutile aprire mille tavoli e conferenze sull’etica delle nuove tecnologie, senza innanzitutto porre mano al lavoro verso una nuova figura di essere umano. E se non partiamo sempre e comunque da noi, dalla nostra direi “strutturale” alienazione, produrremo soltanto altri danni.

    Come scrive Marco Guzzi nel volume “Buone Notizie”,

    “L’io umano (…) non è affatto un puro soggetto razionale, che ben nutrito e ben educato si dedicherà spontanea-mente al bene comune, come se lo sognava nel 1794 Condorcet, o nel 1877 De Sanctis, e come sembra continuino a immaginarselo molti liberali e socialisti contemporanei. L’io umano invece è in buona parte costituzionalmente alienato, è in buona parte una costruzione mentale distorta: l’effetto (a livello psicologico) di molteplici reazioni difensive nei confronti di violenze subite nella propria infanzia, e (a livello storico-culturale) di infinite menzogne millenarie accumulate da culture sanguinarie e da visioni religiose false.”

    Se non ripariamo sempre e comunque noi stessi, se non riconosciamo la nostra insufficienza, non “aggiusteremo il tiro ” a nessuna intelligenza artificiale. Sempre Guzzi, poco più avanti

    “L’umanità del XXI secolo, in conclusione, potrà ritrovare lo slancio di un’azione creatrice, solo se accetterà di essere profonda-mente malata, se si disporrà perciò a farsi curare”

    La cosa “strana” è questa: appena accetto l’idea di essere malato, appena accolgo la prospettiva di farmi curare, inizio subito a vedere un po’ di luce, spargo meno violenza in me stesso e nel mondo attorno.

    Il dramma, mi pare, è che a certi tavoli, dove si prendono certe decisioni, si sviluppano certi software, si programmano le guerre e si decidono le economie, a tutto si pensa tranne al fatto che siamo bisognosi, siamo “mendicanti” di cura, premurosa ed urgente.

    Ma questo non deve fermarci, perché ognuno può essere Rivoluzione. Ognuno può cambiare il (suo) universo, dove il termine tra parentesi sfuma, nell’azione convinta e motivata.

    Nel riconoscersi bisognosi di Cura, il punto cardine del cambiamento.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi