Negli ultimi anni c’è stata una vera e propria esplosione di sistemi di intelligenza artificiale (IA, molti preferiscono usare “sistemi intelligenti”, io preferirei qualcosa del tipo “sistemi algoritmo-automatici”). Così è stato anche in ambito militare dove solitamente (purtroppo) avvengono le innovazioni principali che poi vengono dispiegate anche in ambiti civili (ad esempio: l’energia atomica, la rete internet, il GPS, ecc…).
La tecnica in genere ha portato anche in ambito militare una disumanizzazione dei conflitti. Non è che prima dell’arrivo della polvere da sparo i conflitti fossero “umani”, ma per lo meno c’era un contatto di corpi, uno scambio di sguardi, si sentiva l’odore di sangue e morte, un clangore metallico di spade (avete presente a quanti dà fastidio lo sfregare delle posate?), ecc… Con l’evoluzione tecnologica si è passati ad un distacco sempre più ampio. Si ammazza da lontano: dentro enormi bombardieri, lanciando missili davanti a schermi a centinaia di chilometri di distanza dall’obiettivo da colpire o guidando a distanza droni. Nell’ultimo secolo, si è perso un contatto fisico con il nemico, non essere più sul campo vuol dire non essere coinvolto emotivamente, non c’è possibilità che emerga una qualsiasi forma di empatia.
Ora nella striscia di Gaza stiamo sperimentando il passo successivo. Un’inchiesta di +972 Magazine e Local Call ha portato alla luce l’utilizzo criminale di un sistema “intelligente”, il Lavender, responsabile della selezione degli obiettivi. Lavender è un classificatore, è stato addestrato a riconoscere militanti di Hamas in base ai profili di militanti già catturati o uccisi negli scorsi anni di guerra. Lavender analizza i profili dei palestinesi ed assegna un punteggio in base alla probabilità che il soggetto sia o meno legato ad Hamas.
Lavender si occupa di selezionare i bersagli: le case private di potenziali militanti di Hamas. Sistemi di questo tipo sono molto sensibili ai dati utilizzati per l’addestramento ed il successivo utilizzo. Dati anche in minima parte errati portano al cosiddetto “effetto farfalla” generando output proporzionalmente molto più errati. Le case vengono bombardate senza un precedente controllo umano e con bombe “stupide” (quelle “intelligenti” sono troppo costose). Quindi vengono bombardati obiettivi civili e non militari, vengono uccisi i familiari, i vicini e chiunque sia in zona. Inoltre, Lavender non ha la certezza di selezionare solo militanti di Hamas, ma ha un errore del 10% (1 su 10 che viene ucciso sicuramente non c’entra nulla con Hamas). Ma non è finita qui, l’inchiesta riporta che i dati di addestramento di Lavender includerebbero anche lavoratori civili del settore difesa, è quindi lecito pensare che nemmeno tutti i 9 su 10 siano realmente miliziani.
Follia totale! Non solo l’uso della tecnica con la sua potenza distruttiva ed il suo distacco ha portato a massacri senza precedenti disumanizzando sempre più i conflitti, ma ora l’essere umano non si prende nemmeno più la responsabilità di selezionare (o anche solo filtrare) gli obiettivi. In un futuro abbastanza vicino sarà tutto automatico: definizione di strategie-tattiche militari e la loro attuazione (con droni autonomi e bombe “intelligenti”).
Come uscirne? A mio modo di vedere tutto il mondo dell’etica delle nuove tecnologie, in particolare dell’IA, può essere risolto solo da una nuova figura di essere umano: più integra, meno separata con il mondo e veramente “intelligente”. Il punto di svolta è in noi, non lasciamoci ingannare dalla vulgata: “eh il mondo va così purtroppo”. Il mondo è composto da una miriade di relazioni, alcune delle quali ci coinvolgono direttamente, anche noi siamo “il mondo”. Ognuno di noi può decidere di agire in modo diverso, ognuno di noi può smontare atteggiamenti aggressivi e bellici nel proprio piccolo, ognuno di noi può essere Rivoluzione.
Grazie caro Paolo per questo interessante articolo!
Concordo con te anche nelle considerazioni finali: è totalmente inutile aprire mille tavoli e conferenze sull’etica delle nuove tecnologie, senza innanzitutto porre mano al lavoro verso una nuova figura di essere umano. E se non partiamo sempre e comunque da noi, dalla nostra direi “strutturale” alienazione, produrremo soltanto altri danni.
Come scrive Marco Guzzi nel volume “Buone Notizie”,
Se non ripariamo sempre e comunque noi stessi, se non riconosciamo la nostra insufficienza, non “aggiusteremo il tiro ” a nessuna intelligenza artificiale. Sempre Guzzi, poco più avanti
La cosa “strana” è questa: appena accetto l’idea di essere malato, appena accolgo la prospettiva di farmi curare, inizio subito a vedere un po’ di luce, spargo meno violenza in me stesso e nel mondo attorno.
Il dramma, mi pare, è che a certi tavoli, dove si prendono certe decisioni, si sviluppano certi software, si programmano le guerre e si decidono le economie, a tutto si pensa tranne al fatto che siamo bisognosi, siamo “mendicanti” di cura, premurosa ed urgente.
Ma questo non deve fermarci, perché ognuno può essere Rivoluzione. Ognuno può cambiare il (suo) universo, dove il termine tra parentesi sfuma, nell’azione convinta e motivata.
Nel riconoscersi bisognosi di Cura, il punto cardine del cambiamento.