venerdì 5 aprile 2019

5G, ANTICIPARE E RENDERE MISURATI I RISCHI DELLA TECNICA

INTELLIGENZA ARTIFICIALE

HENRY A. KISSINGER – 96enne – invita a riflettere, prima che sia “troppo tardi”:
“Come finisce l'Illuminismo [versione in inglese, in rete]. Filosoficamente, intellettualmente – in ogni modo – la società umana è impreparata all'ascesa dell'intelligenza artificiale”. "La cognizione umana perde il suo carattere personale, gli individui diventano dati e i dati diventano regnanti."

Che fare? Un contributo può venire dall’Assicuratore per impedire azzardi e disastri e l’opinione pubblica e i governi potranno vedere la tecnica rallentare e rischiare (rischiarare, risplendere) per l’uomo e non contro
L’interessante testo dell’ex Segretario di stato Usa sulla nostra povera visione della Intelligenza artificiale (AI) si conclude così: “Se non iniziamo presto questo sforzo [di corretta visione e comprensione della AI], tra non molto scopriremo che siamo partiti troppo tardi”. Le macchine che si nutrono di dati e di realtà virtuali in ambito 5G (interconnessioni 100 volte più veloci di oggi) auto-apprendono e si auto-definiscono, forse, oltre le nostre possibilità di comprensione e controllo. Si teme che determineranno i nostri scopi, scegliendo tra le opzioni con criteri che escludono i valori, i sentimenti e le informazioni di contesto che oggi formano le scelte umane, creative per definizione.

“Ciò che è in potenza è in potenza gli opposti”
Aristotele, citato da Emanuele Severino (Corriere della sera, 01.12.’04)

Questo è il punto: l’uomo ha potuto crescere ed educarsi alla meraviglia perché è creativo e imprevedibile nelle scelte. Non può determinarsi da uno status quo ante. I dati gli servono per riflettere; non sono scienza ma storia. Lo diceva Karl Popper e lo sanno bene gli assicuratori moderni. Così Georg Simmel (inizi del ‘900) in Frammento sulla libertà (a cura di Monica Martinelli, Armando Editore, Roma, 2009, p. 66 e 67):

“È […] assolutamente impossibile sapere con sicurezza […] cosa penseremo o faremo nell’istante immediatamente successivo. Poiché ognuno di questi istanti è creativo, esso genera qualcosa che non è semplicemente una combinazione di ciò che già esiste e, pertanto, non è calcolabile in base a ciò, bensì accessibile al sapere solo quando è presente. […] Ogni stadio della nostra condizione spirituale è uno stadio nuovo che non può essere costruito a partire dal precedente, bensì solo atteso.”
Nella conclusione di Simmel risuona la concezione della probabilità del matematico applicato Bruno de Finetti: la probabilità di un evento è un personale grado di fiducia, un’attesa; non fuoriesce certo dal passato (dalle frequenze viste, dalla statistica).

 L’AI, dice Kissinger, pensa ma non come noi. Memorizza, calcola e decide secondo fini politici, commerciali e militari di base che rispondono a interessi non trasparenti, di parte, momentanei. Possono sfuggire al controllo democratico. È pensata da tecnici che non tengono conto della tradizione umanistica e nemmeno dell’effettivo comportamento economico (Daniel Kahneman: i sentimenti, gli affetti, gli stati d’animo concorrono più dei vantaggi nelle decisioni economiche). Insomma, l’AI suscita domande che non vanno lasciate ai tecnologi. I filosofi sono intimiditi. Si sveglino. Facciano la loro parte.

L’articolo è in rete e merita d’essere letto. Qui desidero cogliere un suo interrogativo chiave che ci può condurre al bandolo della matassa. Dice Kissinger:

“Chi è responsabile per le azioni dell’AI? Come deve essere determinata la responsabilità per i loro errori? Un sistema legale progettato dall’uomo può tenere il passo con le attività prodotte da un’AI capace di pensare e potenzialmente di superarle?”
Mi pare che la complessità della materia suggerisca che qui la responsabilità va composta, intrecciata, per giungere ad anticipare. Non possiamo aspettare gli eventi (come e più che nel Cyber risk). Altrimenti son disastri. Voglio dire che servono regole di mercato capaci di impedire l’azzardo. Lo so, sembra una contraddizione; non lo è. Non nascondiamoci: il tecnologo è un pesce che si muove in ambienti ricchi di risorse (grandi imprese o Stati). Visione e consapevolezza servono a questo: capire qual è il valore della probabilità di evento (in particolare di Responsabilità verso terzi, verso l’umanità). Tutti possiamo riconoscere che l’azzardo (il rischio smisurato) va impedito. Ma come? Io dico: con l’obbligo di un impegno terzo (e solvibile) di far fronte ai danni: una speciale Assicurazione ad hoc. È chiaro: la compagnia di Assicurazione – terza, privata e ri-assicurata da un pool globale – con la sua quotazione dice del livello del rischio in questione e con la sua polizza (la “promessa”, l’impegno a risarcire i danni futuri) assume un ruolo attivo nel determinare il rischio. Necessariamente. Perché lo deve misurare in termini relazionali, processuali e prospettici, non certo statici, momentanei e separati, come nei tre secoli scorsi, i secoli della autoreferenzialità consentita dalla statistica. Non quota? non assicura? Il progetto si blocca, come quello per la perforazione del Polo Nord qualche anno fa. L’indisponibilità ad assicurare ha fatto saggezza.
Un inciso: se non conosciamo le probabilità di danni (adesso, spesso è così; le info sono insufficienti), non si tratta di rischi ma di “pericoli”, distingue opportunamente Niklas Luhmann (1927 – 1998, sociologo e filosofo tedesco, consigliere di Helmut Kohl). E nessuno potrebbe quotare / assicurare un pericolo. Manca l’elemento chiave: la misura. Questo sistema di verifica attiverà l’aspetto centrale: la consapevolezza anticipata delle Istituzioni e dell’opinione pubblica. Oggi è vaga, incerta, ritardata. Lo dice anche Kissinger.
È decisivo impedire l’irresponsabilità, stabilire limiti, rallentare per capire, gustare il nuovo e gestirlo. E rispondere sempre a questa domanda: chi ti assicura? Chi ti conosce, ti ha capito a fondo e pagherà i danni eventuali, i “sinistri”? Niente Assicurazione? Niente azione. Perché azione responsabile è rischio (misura), aperto a esiti opposti (Aristotele).
“Per i Greci era fondamentale conoscere se stessi e avere il senso del limite. E non oltrepassarlo, pena la rovina. Esprimi la tua virtù in Giusta Misura. E conoscine il limite. L’Occidente? Ha una cultura dell’illimitato.” U. Galimberti, intervista a Radio Soul, 09.04.’16
“Le modalità di calcolo del rischio, come sono state sinora definite dalla scienza e dalle istituzioni legali, collassano.” Ulrich Beck, La società del rischio, Ed. Carocci, ‘00, p. 29
"Più non è possibile quello che era possibile nelle epoche passate dove, per una razionale previsione del futuro, bastava guardare il passato.” Umberto Galimberti, Psiche e techne, Ed. Feltrinelli, ‘04, p. 52
Proposta: miriamo ad accordi di responsabilità a livello globale, per far entrare nel gioco della ricerca e applicazione tecnica soggetti e standard (norme) di responsabilità: soggetti terzi specialisti (Assicuratori), economicamente interessati a limitare i danni prodotti e impegnati a risarcirli. Impegnati senza scampo e quindi attivi nella direzione di rendere l’iniziativa e le azioni misurate e dunque rischi (compatibili, sopportabili), non pericoli, non azzardi. Ogni progetto abbia un piano di Gestione dei rischi e trovi un Assicuratore che ne certifica la sostenibilità e ne risponda, li assicuri.

Francesco Bizzotto

Nessun commento:

Posta un commento