Category Archives: Articoli

Sistemi fuori controllo o prodotti fuorilegge? La cosiddetta «intelligenza artificiale» e il risveglio del diritto

DOI

Pinocchio davanti al giudice del paese di Acchiappacitrulli

Pinocchio, alla presenza del giudice, raccontò per filo e per segno l’iniqua frode, di cui era stato vittima […]. Allora il giudice, accennando Pinocchio ai giandarmi, disse loro: — Quel povero diavolo è stato derubato di quattro monete d’oro: pigliatelo dunque e mettetelo subito in prigione. ―

Carlo Collodi

1. Prodotti pericolosi e non funzionanti

I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani: funzioni quali la traduzione di testi, il riconoscimento facciale, la ricerca per immagini o l’identificazione di contenuti musicali, non trattabili con l’intelligenza artificiale simbolica, sono affrontate con crescente successo dai sistemi di apprendimento automatico (machine learning).

Questi sistemi, di natura sostanzialmente statistica, consentono infatti di costruire modelli a partire da esempi, purché si abbiano a disposizione potenti infrastrutture di calcolo e enormi quantità di dati. Le grandi aziende tecnologiche che, intorno al 2010, in virtù di un modello di business fondato sulla sorveglianza, detenevano già l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le infrastrutture di calcolo per la raccolta e l’elaborazione di tali dati, hanno potuto perciò raggiungere, con l’applicazione di algoritmi in gran parte noti da decenni, traguardi sorprendenti1.

Nella generale euforia per i genuini progressi, le imprese del settore hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti», ben oltre l’effettivo stadio di sviluppo della tecnologia. Con la formula di marketing «intelligenza artificiale», hanno diffuso e messo in commercio sistemi di apprendimento automatico per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono

  1. le auto a guida autonoma,
  2. i sistemi di ottimizzazione predittiva,
  3. i generatori di linguaggio naturale.

1.1 Le auto a guida autonoma

Allo stato attuale della tecnologia, le auto «a guida autonoma» non sono a guida autonoma: non è oggi disponibile alcun veicolo in grado di circolare nelle medesime strade in cui circolano i veicoli tradizionali e nel quale l’occupante umano della vettura sia un mero passeggero. Malgrado i reiterati annunci, nell’ultimo decennio, di una loro imminente commercializzazione, tali veicoli non riescono oggi ad evitare di collidere contro un terzo dei ciclisti e contro tutte le altre auto che siano, pur lentamente, in arrivo. Quanto ai veicoli Tesla già in circolazione, di cui è stata millantata l’autonomia completa (con video rivelatisi poi mere costruzioni cinematografiche), gli sforzi dell’azienda si concentrano oggi nel sostenere, nelle sedi giudiziarie, che «il fallimento nella realizzazione di un ideale obiettivo a lungo termine» non equivalga a una frode, quasi che la vendita, a migliaia di dollari, di un optional denominato «Full self driving capability» potesse essere interpretata dai clienti quale espressione di un mero obiettivo a lungo termine.

1.2. I sistemi di ottimizzazione predittiva

I sistemi di «ottimizzazione predittiva» – ossia gli algoritmi di decisione fondati su previsioni circa il futuro di singoli individui – non sono affatto in grado di prevedere il futuro di singole persone, per la semplice ragione che ciò non è possibile (salvo per chi nutra la convinzione, caratteristica delle antiche attività divinatorie e, oggi, dell’astrologia, che il futuro sia già scritto e leggibile). Eppure, sono in commercio e in uso, ormai da anni, sistemi che consentono di assumere decisioni in modo automatico, grazie alla possibilità di prevedere – si dice – se un cittadino  commetterà un crimine, se un candidato per un impiego sarà efficiente e collaborativo, se uno studente abbandonerà gli studi o se un minore sarà maltrattato dai suoi familiari. A una verifica puntuale, tali sistemi risultano così poco affidabili, per la previsione di eventi e azioni individuali, che alcuni ricercatori suggeriscono piuttosto il ricorso a una lotteria tra le persone ammissibili, quando si debbano allocare risorse scarse e non sia possibile utilizzare – anziché sistemi di apprendimento automatico – semplici procedimenti di calcolo con variabili pertinenti ed esplicite. Quando il responso dei sistemi di apprendimento automatico sia utilizzato a fini decisionali, la decisione produce ciò che pretende di prevedere: se il genere predice una paga più bassa e il colore della pelle predice la probabilità di essere fermati dalla polizia, con il passaggio dalla previsione alla decisione tale profilazione sociale si autoavvera, legittimando così, in virtù della presunta oggettività algoritmica, i pregiudizi incorporati nella descrizione statistica iniziale. Simili sistemi producono perciò, infallibilmente, ingiustizia e sofferenze, danneggiando le persone che si trovino –  ancorché per ragioni del tutto irrilevanti, rispetto al trattamento inflitto – ai margini dei modelli algoritmici di normalità e dunque violandone infallibilmente i diritti.

1.3. I generatori di linguaggio naturale

I generatori di linguaggio, quali chatGPT e GPT-4, fondati su grandi modelli del linguaggio naturale, sono descritti da OpenAI come dotati della «capacità di comprendere e generare testo in linguaggio naturale», di «fattualità e capacità matematiche», di una conoscenza del mondo, di capacità di ragionamento e della caratteristica di fornire, «occasionalmente», risposte non corrette. In realtà, tali sistemi non conoscono né comprendono alcunché, sono architettonicamente incapaci di ragionamento abduttivo e non sono in grado di fornire alcuna informazione. I grandi modelli del linguaggio naturale sono sistemi che predicono stringhe di testo, in modo statisticamente coerente con il modo in cui le sequenze di forme linguistiche si combinano nei testi di partenza: sono programmi informatici che utilizzano le statistiche sulla distribuzione delle parole per produrre altre stringhe di parole. Sono ulteriormente calibrati, attraverso interazioni con esseri umani, per produrre output che somiglino a quelle che tali esseri umani qualificano come risposte plausibili, pertinenti e appropriate. Le versioni attualmente in distribuzione di tali chatbot, quali chatGPT o GPT-4, sono costruite su un’enorme quantità di dati e opere del lavoro umano – estorti o prelevati in blocco, alla stregua di res nullius, anche quando siano protetti dal diritto alla protezione dei dati personali o dal diritto d’autore – e riproducono con effetti normalizzanti, anziché generativi in senso proprio, la prospettiva egemonica e i suoi stereotipi. Simili sistemi sono modelli del linguaggio, non modelli della conoscenza: producono perciò testi plausibili e convincenti e, al tempo stesso, del tutto privi di valore informativo.

Il genuino progresso costituito dalla «macchina letteraria» – in grado, come scriveva Italo Calvino, di «far stare una parola dietro l’altra seguendo certe regole definite, o più spesso regole non definite né definibili ma estrapolabili da una serie di esempi o protocolli»2 – è sfruttato dalle aziende, oltre che attraverso pratiche di espropriazione del lavoro e di esternalizzazione dei costi ambientali, attraverso una presentazione deliberatamente fuorviante e  la generalizzata distribuzione di tali sistemi al pubblico, malgrado la consapevolezza degli inevitabili effetti dannosi. Nella lunga lista dei previsti effetti nefasti di GPT-4, puntualmente elencati da OpenAI nella relativa System card, compaiono l’inquinamento dell’ecosistema dell’informazione («ha il potenziale di mettere in dubbio l’intero ambiente dell’informazione, minacciando la nostra capacità di distinguere i fatti dalla finzione»), la possibilità di truffe e manipolazioni politiche su larghissima scala (con uno strumento che può produrre una miriade di testi, orientati come si desidera e indistinguibili da quelli prodotti da esseri umani) e «la tendenza a inventare i fatti, a fornire informazioni errate e a svolgere compiti in modo scorretto», tanto più pericolosa quanto più sono stati resi plausibili, e dunque ingannevoli by design, i suoi output. A fronte di queste caratteristiche, il CEO di OpenAI twitta giulivo che chi non può permettersi le cure potrà farsi curare da un generatore di linguaggio, e le aziende che commercializzano applicazioni per l’assistenza mentale registrano milioni di abbonati, sfruttando, manipolando e mettendo in pericolo le persone più vulnerabili.

Commercializzare impunemente prodotti pericolosi e non funzionanti non è impresa da poco. Ma l’operazione di propaganda dei giganti della tecnologia ha ottenuto, finora, ben altro: un’impostazione del discorso pubblico che punisce le vittime, come in quel paese di Acchiappacitrulli in cui Collodi aveva fatto finire il suo povero burattino, e l’assimilazione dei colpevoli a lungimiranti paladini dell’umanità.

2. Le vittime colpevoli e altre storie

L’impiego di sistemi di apprendimento automatico per funzioni che essi, in virtù delle loro caratteristiche strutturali, non possono svolgere, genera danni e sofferenze agli esseri umani coinvolti. Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, come i sistemi normativi – fin dal Codice di Hammurabi – usualmente prevedono, la loro commercializzazione non sarebbe vantaggiosa (quand’anche il diritto non la vietasse tout court).

Le grandi aziende tecnologiche che distribuiscono tali sistemi hanno adottato perciò una strategia analoga a quella utilizzata a suo tempo dalle industrie del tabacco: hanno finanziato la ricerca universitaria e la divulgazione scientifica e utilizzato i mezzi di comunicazione pubblica (che esse stesse detengono) per diffondere una famiglia di narrazioni, sulla natura e le prestazioni degli attuali sistemi di intelligenza artificiale, che tutela, legittimandolo, un modello di business fondato sulla sorveglianza e sulla possibilità di esternalizzare impunemente i costi del lavoro, degli effetti ambientali e dei danni sociali.

È ormai largamente condivisa, perciò, l’idea che ai danni prodotti dai sistemi di apprendimento automatico si debba reagire non come dinanzi a qualsiasi prodotto pericoloso e non funzionante, ossia vietandone la vendita e l’utilizzo (oltre che la pubblicità ingannevole), e imponendo ai responsabili il pagamento dei danni, bensì come dinanzi a un problema di allineamento dei valori, di etica dell’intelligenza artificiale o di equità algoritmica, quasi che gli algoritmi potessero essere destinatari di un’opera di moralizzazione, in grado di aggiungere a sistemi statistici automatizzati, quale procedura computazionale tra le altre, la facoltà del giudizio morale.

Su questi temi, propongo alla revisione paritaria aperta due articoli:

2.1 La cattura culturale

Le narrazioni – idee trasmesse nella forma di storie – diffuse dalle grandi compagnie tecnologiche danno forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia.

Definendo gli assiomi del dibattito, le grandi imprese impongono quali priorità politiche le loro priorità aziendali. La tradizionale «cattura del regolatore», realizzata tramite gli opportuni incentivi o tramite il meccanismo delle revolving doors, è così accompagnata dalla cattura culturale: con un’operazione di propaganda, «colonizzando l’intero spazio dell’intermediazione scientifica», si ottiene che il regolatore – al pari dell’opinione pubblica – condivida in partenza l’impostazione desiderata e che chiunque esprima preoccupazioni sia etichettato come retrogrado o luddista.

Sono così entrate a far parte del senso comune una precisa impostazione di fondo e uno specifico set di problemi e soluzioni, brevemente illustrati di seguito.

2.1.a. Il principio di inevitabilità tecnologica

Il progresso tecnologico è considerato inarrestabile e di ogni singola tecnologia si dà per scontato che sia «qui per restare» o che «se non lo facciamo noi, lo farà qualcun altro». Qualsiasi dibattito ha luogo perciò entro la «logica del fatto compiuto», così che la possibilità di non costruire affatto alcuni sistemi o di non utilizzarli per alcune finalità non possa essere neppure contemplata.

2.1.b. Il principio di innovazione

Il principio di innovazione – fondato sul tacito assunto che qualsiasi innovazione tecnologica sia foriera di competitività e occupazione e debba perciò essere assecondata, anche a scapito del principio di precauzione – è in genere la maschera dietro la quale grandi aziende rivendicano la tutela dei loro concreti interessi economici. Gli studi più recenti mostrano, del resto, che i monopoli del capitalismo intellettuale ostacolano qualsiasi innovazione, per quanto dirompente e benefica, che non si adatti al loro modello di business, promuovendo principalmente un’innovazione tossica che estrae o distrugge valore, anziché produrlo.

2.1.c.  La prospettiva soluzionistica

Le questioni di giustizia sono presentate quali questioni di design tecnico e la soluzione dei problemi sociali è assimilata al loro trattamento con sistemi di apprendimento automatico. Agli stessi danni generati dall’uso di dispositivi tecnologici si ritiene di poter rimediare con l’applicazione di ulteriori soluzioni tecnologiche. In questo modo, si oscura la natura politica della decisione di assimilare le questioni sociali a problemi di disciplinamento e controllo, passibili di soluzioni tecniche.

2.1.d. L’antropomorfizzazione delle macchine e la deumanizzazione delle persone

La tendenza spontanea ad antropomorfizzare gli oggetti della tecnologia è sfruttata dalle aziende per indurre la convinzione che i loro prodotti siano in grado di comprendere, conoscere, consigliare o giudicare in senso proprio; correlativamente, il cervello è assimilato a un computer, gli esseri umani a macchine e i volti delle persone a codici a barre, così da giustificare il fatto che le persone siano effettivamente trattate come cose, nei processi in cui si decidono le loro sorti sulla base di statistiche automatizzate, a partire da etichette e collezioni di dati che – a qualsiasi titolo e pur senza alcun riferimento a contesti e significati – li riguardino.

2.1.e. I miti dell’eccezionalismo tecnologico e del vuoto giuridico

La tesi che le leggi vigenti non si applichino ai prodotti basati su sistemi di «intelligenza artificiale», in virtù della loro novità e straordinarietà, e che servano dunque nuove leggi, scritte ad hoc per ciascuna tecnologia, serve a dar luogo a una corsa che vedrà il legislatore perennemente in affanno, nel rincorrere le più recenti novità tecnologiche, le quali saranno dunque commercializzabili eslege. Tale affermazione dell’eccezionalismo tecnologico è in genere assunta tacitamente:

Negli ultimi decenni la Silicon Valley è riuscita a costruire intorno a sé una fortezza antiregolamentare promuovendo il mito – di rado dichiarato apertamente, ma ampiamente condiviso dagli operatori del settore – che il settore “tech” sia in qualche modo fondamentalmente diverso da ogni altra industria che l’ha preceduto. È diverso, secondo questo mito, perché è intrinsecamente animato da buone intenzioni e produrrà prodotti non solo nuovi, ma anche precedentemente impensabili. Qualsiasi danno a livello micro – sia esso a un individuo, a una comunità vulnerabile o a un intero paese – è considerato da questa logica un valido compromesso per un “bene” a livello macro, in grado di cambiare la società.

Il mito del vuoto giuridico ha consentito alle grandi aziende di fondare il loro modello di business su una «bolla giuridica», ossia su una generale violazione di diritti giuridicamente tutelati, impedendo, fin qui, di constatare che esse stanno violando leggi vigenti, applicabili anche ai nuovi prodotti.

In assenza di precedenti, come osserva Erevan Malroux, pur in presenza di una risposta del diritto, è possibile che vi siano dubbi sul significato di quella risposta (ossia una «vaghezza giuridica») o che la risposta non sia ritenuta soddisfacente («ad esempio, quando una pratica è consentita, mentre la società ritiene che dovrebbe essere regolamentata in modo più rigoroso») e che sia opportuno, perciò, adottare regolamenti specifici.

2.1.f. Gli allarmi su rischi e pericoli tratti dal futuro o dalla fantascienza

Con allarmi sul rischio che «menti digitali sempre più potenti» sfuggano al nostro controllo, le grandi aziende tecnologiche convogliano le paure collettive verso oggetti immaginari (distraendo tali fondate paure dai loro veri oggetti: una tecnologia che il capitalismo userà contro noi e la «nostra incapacità di regolare il capitalismo» medesimo). Sono così oscurate le violazioni di diritti, i costi esternalizzati e i danni reali causati dalla concentrazione di potere e dal modello di business dei monopoli del capitalismo intellettuale. Questo elemento della narrazione confluisce talora nel seguente.

2.1.g. I messianesimi eugenetici

Una congerie di utopie per multimiliardari bianchi (nelle quali confluiscono ideologie complessivamente denominate TESCREAL) invitano l’opinione pubblica a occuparsi del futuro dell’umanità (donde il termine longtermism), anziché del presente, e variamente vagheggiano scenari in cui il bene dell’umanità sarà il frutto delle tecnologie su cui questi stessi multimiliardari intendono, di volta in volta, lucrare. Filosoficamente inconsistenti e massicciamente finanziate, hanno in comune deliri eugenetici e un concetto di “umanità” che esclude gran parte degli esseri umani.

Ne è un esempio recente la proposta del Chief Economist di Microsoft al World Economic Forum:

Non dovremmo regolamentare l’IA finché non vediamo un danno significativo che si stia effettivamente verificando […] Deve esserci almeno un minimo di danno, in modo da capire quale sia il vero problema

la natura della cui distrazione somiglia a quella della zia Sally, in Le avventure di Huckleberry Finn:

«Ci è scoppiata una caldaia».
«Dio santo! Ci sono stati dei feriti?»
«No, signora. È morto un negro».
«Che fortuna! Poteva farsi male qualcuno […]»3

2.2 Il paese di Acchiappacitrulli

Le diverse narrazioni concorrono, congiuntamente, al perseguimento di singoli scopi aziendali: al fine di sfuggire alle responsabilità per gli effetti dannosi dei prodotti, ad esempio, sono utili l’eccezionalismo, l’antropomorfizzazione delle macchine e, insieme, il «principio di inevitabilità tecnologica», secondo un meccanismo che Joseph Weizenbaum aveva descritto quasi mezzo secolo fa:

Il mito dell’inevitabilità tecnologica, politica e sociale è un potente tranquillante per la coscienza. Il suo servizio è quello di togliere la responsabilità dalle spalle di tutti coloro che ci credono veramente. Ma, in realtà, ci sono degli attori! […] La reificazione di sistemi complessi che non hanno autori, di cui sappiamo solo che ci sono stati dati in qualche modo dalla scienza e che parlano con la sua autorità, non permette di porsi domande di verità o di giustizia.4

Poiché qualcuno deve pur pagare i danni, gli appelli all’eccezionalità delle nuove tecnologie sono accompagnati dalla proposta di una responsabilità distribuita anche tra gli utenti e le vittime o da quella di attribuire un ruolo decisivo agli esseri umani coinvolti nei processi automatizzati (human on the loop), affidando a una persona il compito di intervenire, con prontezza fulminea, nei casi di emergenza, o di rettificare il responso imperscrutabile di un sistema automatico. L’introduzione di un inverosimile controllo umano svolge la funzione di legittimare l’uso di sistemi pericolosi, attribuendo all’essere umano il ruolo di capro espiatorio. Quanto simili strategie aziendali siano analoghe alle truffe in senso stretto, è manifesto nei casi in cui le vittime siano colpevoli by design, come pare sia stato specificamente previsto nei veicoli Tesla attraverso un meccanismo di disattivazione dellla funzione Autopilot un secondo prima dell’impatto, così da far risultare che il veicolo, al momento dello schianto, fosse affidato al passeggero umano.

Un ulteriore dispositivo per diffondere impunemente prodotti insicuri e incolpare sistematicamente utenti e clienti è l’offuscamento della linea di confine tra la fase di ricerca e sperimentazione e quella della distribuzione e commercializzazione di prodotti: OpenAI, ad esempio, rende pubblicamente disponibili i propri generatori di linguaggio naturale, in fase sperimentale, ne distribuisce al tempo stesso versioni a pagamento e fissa termini d’uso in virtù dei quali ogni utente è responsabile, secondo una logica analoga a quella del paese di Acchiappacitrulli, tanto dei propri input quanto degli output prodotti dal sistema (sui quali, ovviamente, non ha alcuna facoltà di controllo o decisione e i cui fondamenti gli sono del tutto oscuri).

Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili i sistemi normativi normativi vigenti e gli ordinari criteri di attribuzione della responsabilità, si oppone oggi una crescente consapevolezza del fatto che i sistemi informatici sono artefatti, ossia oggetti, e che non c’è alcuna ragione per sottrarne la distribuzione e la commercializzazione alla legislazione ordinaria.

3. Le leggi in vigore valgono anche per l’«intelligenza artificiale»

I sistemi informatici fondati sull’«intelligenza artificiale» devono essere considerati quali meri prodotti. Per chi non li consideri, antropomorficamente, quali agenti, resta infatti valida la tradizionale dicotomia tra soggetti giuridici e oggetti. L’eventuale impossibilità di risalire alla responsabilità dovrebbe perciò essere assimilata giuridicamente, anziché a un rebus filosofico, a una forma di negligenza del produttore. La responsabilità per gli effetti dannosi di tali prodotti, prevedibili o imprevedibili che siano, potrà essere agevolmente oggetto delle soluzioni giuridiche ordinariamente definite, nel rispetto del principio cuius commoda, eius et incommoda e tenendo conto della «radicale asimmetria di potere» e di profitto «tra coloro che sviluppano e distribuiscono i sistemi algoritmici e i singoli utenti che sono soggetti ad essi».

Di recente, la Federal Trade Commission statunitense ha pubblicamente smascherato la natura strumentale delle narrazioni sull’eccezionalismo tecnologico. In netto contrasto con la posizione delle grandi aziende, ha dichiarato che i prodotti della tecnologia sono soggetti alle norme in vigore e che l’impossibilità, per ragioni tecniche, di ottemperare a ciò che le leggi esigono non è una ragione per dichiararsi esentati da quelle stesse leggi e chiederne di nuove, bensì – come in qualsiasi altro settore a fronte di una constatazione di illegalità – una ragione per non commercializzare affatto simili prodotti:

C’è un mito potente in giro secondo il quale «l’IA non è regolamentata». […] Ha un forte fascino intuitivo: suona bene. Come potrebbero queste misteriose nuove tecnologie essere regolamentate dalle nostre vecchie leggi polverose?
Se l’avete sentita o l’avete detta, fate un passo indietro e chiedetevi: a chi giova questa idea? Non aiuta i consumatori, che si sentono sempre più indifesi e smarriti. Non aiuta la maggior parte delle aziende. […]
Credo che l’idea secondo cui «l’IA non è regolamentata» aiuti quel piccolo sottoinsieme di imprese che non sono interessate alla compliance. E abbiamo già sentito frasi simili. «Non siamo una compagnia di taxi, siamo una compagnia tecnologica». «Non siamo un’azienda alberghiera, siamo un’azienda tecnologica». Queste affermazioni erano di solito seguite da affermazioni secondo cui le norme statali o locali non potevano essere applicate a queste aziende.
La realtà è che l’IA è regolamentata. Solo alcuni esempi:
– Le leggi sulle pratiche commerciali sleali e ingannevoli si applicano all’IA. […]
– Le leggi sui diritti civili si applicano all’IA. […]
– Le leggi sulla responsabilità civile e da prodotto si applicano all’IA.

In una Dichiarazione congiunta, la Federal Trade Commission e altre tre agenzie federali hanno reso noto che, negli interventi di applicazione delle leggi vigenti, esse intendono utilizzare «con vigore» le loro prerogative «per proteggere i diritti degli individui, indipendentemente dal fatto che le violazioni del diritto avvengano attraverso mezzi tradizionali o tecnologie avanzate». La pretesa che i nuovi sistemi di intelligenza artificiale siano emersi in un «vuoto giuridico» è respinta come infondata, sulla base della elementare constatazione che i codici non prevedono che l’intelligenza artificiale sia esentata dalle leggi.

Quanto al generale non funzionamento di intere categorie di prodotti che le aziende presentano come fondati su sistemi di «intelligenza artificiale», la Commissione esprime la propria consapevolezza di tali pratiche e la decisione di assimilarle a pubblicità ingannevole o a frode:

il fatto è che alcuni prodotti con pretese di IA potrebbero anzitutto non funzionare come pubblicizzato. In alcuni casi, questa mancanza di efficacia può sussistere indipendentemente dagli altri danni che i prodotti potrebbero causare. Chi li commercia deve sapere che, ai fini dell’applicazione della FTC, le affermazioni false o non comprovate sull’efficacia di un prodotto sono il nostro pane quotidiano.

Nell’esempio di prodotti che, in virtù della natura fantascientifica delle prestazioni vantate, non possono funzionare, è evidente il riferimento della Commissione ai sistemi di ottimizzazione predittiva:

State esagerando quello che il vostro prodotto di IA può fare? O addirittura sostenete che può fare qualcosa che va oltre le attuali capacità di qualsiasi tecnologia di IA o automatizzata? Ad esempio, non viviamo ancora nel regno della fantascienza, dove i computer possano  fare previsioni affidabili del comportamento umano. Le vostre dichiarazioni riguardo alle prestazioni saranno considerate ingannevoli se non avranno un fondamento scientifico o se si applicheranno solo a certi tipi di utenti o in certe condizioni.

Spesso, alla constatazione dei danni e delle violazioni dei diritti che hanno luogo quando si utilizzino sistemi di apprendimento automatico per funzioni che essi non possono svolgere, le aziende oppongono argomenti basati sull’antropomorfizzazione delle macchine e la deumanizzazione delle persone. L’imperscrutabilità delle mente umana, ad esempio, renderebbe lecito il rilascio di prodotti inspiegabili e imprevedibili, ossia costitutivamente non sicuri. Così il CEO di Google, in una recente intervista:

Scott Pelley: Non capite bene come funziona. Eppure, l’avete scaricato sulla società?
Sundar Pichai: Sì, è così. Mettiamola così. Non credo che comprendiamo appieno neppure il funzionamento della mente umana.

A simili artifici retorici, la Federal Trade Commission risponde ricordando che la Commissione medesima «storicamente non ha reagito bene all’idea che un’azienda non sia responsabile del proprio prodotto perché questo è una «scatola nera» incomprensibile o difficile da testare» e che, nei casi in cui la legge esiga spiegazioni, «l’inspiegabilità o l’imprevedibilità di un prodotto è raramente una difesa giuridicamente ammissibile».

La trasparenza è richiesta anzitutto sui dati di partenza, rendendo note le fonti dei dati e l’eventuale consenso degli interessati. Su questo aspetto, i più recenti provvedimenti della Commissione mostrano una radicalità nuova: in alcuni casi di dati ottenuti impropriamente, essa ha ottenuto infatti non la mera cancellazione di tali dati, ma la distruzione di tutti i modelli e gli algoritmi costruiti utilizzando tali dati.

Quanto alla responsabilità per i prevedibili danni derivanti dalla distribuzione di alcuni prodotti, la Presidente della Federal Trade Commission, Lina Khan, avverte, con specifico riferimento alla possibilità di automatizzare le frodi online, tramite i generatori di linguaggio:

Nell’applicare il divieto di pratiche ingannevoli, non ci limiteremo a considerare i truffatori occasionali che impiegano questi strumenti, ma anche le aziende a monte che li mettono a disposizione.

Il ruolo delle «aziende a monte» e gli effetti antidemocratici della concentrazione di potere in tali aziende – le quali hanno ormai dimensioni e prerogative che le rendono assimilabili ai più potenti Stati nazionali – costituiscono in effetti uno dei nodi cruciali: come ricorda l’AI Now Institute nel suo Rapporto del 2023, «la politica della concorrenza dovrebbe diventare una parte fondamentale del pacchetto di strumenti per la responsabilità nel settore tecnologico». Del resto, è alla consapevolezza del nesso strettissimo tra interventi antrust e politiche per la tutela dei diritti che si deve l’impostazione di fondo della Federal Trade Commission in materia di intelligenza artificiale, poiché, come ha scritto Shoshana Zuboff, «è possibile avere il capitalismo della sorveglianza ed è possibile avere la democrazia», ma «non è possibile sostenere entrambi».

A tale impostazione, si oppone la richiesta delle grandi aziende di privilegiare invece un approccio basato sui rischi. La posta in gioco è lucidamente espressa dall’AI Now Institute: «l’esperienza europea ci insegna quanto sia pericoloso il passaggio da un quadro normativo «basato sui diritti», come nel GDPR, a uno «basato sui rischi», come nel prossimo AI Act, e su come l’impostazione fondata sul «rischio» (in contrapposizione ai diritti) possa spostare il terreno di gioco a favore di quadri volontari e standard tecnici guidati dall’industria». L’approccio basato sui rischi si concentra in effetti, come osserva Margot Kaminski, sui soli danni assunti come prevedibili e quantificabili, oscurando le violazioni dei diritti individuali e i danni alle società democratiche; poiché dà per scontato che i sistemi di «intelligenza artificiale» funzionino e  debbano essere adottati, si limita a smussarne gli spigoli, dimenticando completamente – come hanno rilevato il Comitato europeo per la protezione dei dati e il Garante europeo per la protezione dei dati a proposito della proposta di AI Act – gli individui che, a qualsiasi titolo, siano affetti dai sistemi di intelligenza artificiale. Riducendo a questioni tecniche valutazioni e decisioni intrinsecamente politiche, l’approccio basato sui rischi assume tacitamente il principio dell’inevitabilità tecnologica e una prospettiva soluzionista, a tutela del modello di business delle grandi aziende tecnologiche. Queste paiono costituire, al momento, «il fantasma lobbista nella macchina» della regolazione.

  1. ‘Open Secrets’: An Interview with Meredith Whittaker, in Economies of Virtue: The Circulation of ‘Ethics’ in AI, a cura di T. Phan, J. Goldenfein, D. Kuch, M. Mann, Amsterdam, Institute of Network Cultures, 2022, https://networkcultures.org/blog/publication/economies-of-virtue-the-circulation-of-ethics-in-ai/, pp. 140-152: 145.↩︎
  2. I. Calvino, Cibernerica e fantasmi (Appunti sulla narrativa come processo combinatorio), in Idem, Una pietra sopra, Milano, Mondadori 20233, pp. 201-221.↩︎
  3. H.L.A. Hart, The Concept of Law, Oxford 1961, trad. it. Il concetto di diritto, a cura di Mario A. Cattaneo, Torino 2009, p. 233.↩︎
  4. J. Weizenbaum, Computer Power and Human Reason. From Judgement to Calculation, San Francisco, W.H. Freeman & Company, 1976, pp. 241, 252, https://archive.org/details/computerpowerhum0000weiz_v0i3.↩︎

Nota bibliografica

Tags:

Accessi: 778

Brunella Casalini, La cura della vita, dei giovani e delle generazioni

chiocciola

“Non è segno di salute mentale essere ben adattati ad una società profondamente malata”.
Jiddu Krishnamurti

Il discorso dell’intervento della Presidente del Consiglio degli studenti Emma Ruzzon durante la cerimonia di inaugurazione dell’università di Padova sono sicura risuoni oggi nelle aule di tutti gli Atenei italiani. Con intelligenza la studentessa ha saputo raccogliere, e con coraggio pronunciare ad alta voce, di fronte alle autorità, parole che nelle università circolano da tempo, anche se spesso ai  suoi margini. La situazione creata dal COVID-19 negli ultimi tre anni ha fatto esplodere un malessere che era presente ormai da anni. Il malessere di tante/i non solo tra coloro che studiano, non solo tra i precari della ricerca, ma anche tra chi nell’università si trova nella posizione privilegiata di docente strutturata/o e persino tra chi lavora nell’amministrazione. Persino l’amministrazione universitaria, infatti, è stata spinta dal succedersi delle riforme a una costante corsa per il raggiungimento degli obiettivi necessari a raggiungere l’eccellenza entro un sistema competitivo, mentre il blocco del turnover – anche nel loro caso, come nel caso dei docenti e ricercatori – riduceva le risorse umane disponibili.

L’università contemporanea è espressione di una società che ha scelto, e continua a scegliere ogni giorno, una narrazione individualista che — come ha ricordato Ruzzon nel suo discorso — è fortemente incentrata sul merito e sulla responsabilizzazione individuale. Una società in cui persino per avere una vita dignitosa devi dimostrare di meritartelo, dove anche studiare è diventata una gara.

La combinazione del mito dell’individualismo, del mito del merito e di quello della misurazione della performance è stata potente nel rendere invisibili le condizioni strutturali che determinano vantaggi e svantaggi sociali. Ancor più potente è  stata nel mostrare come i vantaggi si cumulino e diventino privilegi e gli svantaggi si cumulino e diventino oppressione, laddove la struttura sociale sia congegnata per favorire la riproduzione di alcune vite, lasciandone prive di cura e attenzione altre. In altri termini, ha saputo non solo distogliere il nostro sguardo dalle disuguaglianze economiche e sociali crescenti che caratterizzano oggi il nostro paese, ma anche offrirne una legittimazione talmente efficace da divenire mentalità diffusa.

L’accesso all’università e ancor di più l’accesso ai dottorati e alla carriera accademica è tornato ad essere una questione di classe – come sottintendono le parole di Ruzzon. La nostra è tornata ad essere una società priva di mobilità sociale e rischia di avere un’università accessibile solo alla gioventù economicamente agiata; un’università, quindi, in cui la società nella sua diversità non sarà rappresentata e in cui il sapere non risponderà ai bisogni della società.

L’università ha sofferto e soffre di questo “incantesimo” dell’individualismo, del merito e della misurazione più di altre istituzioni. Sono molti gli esempi che potrebbero essere proposti per illustrare le distorsioni che il sistema attuale produce nella vita universitaria, distorsioni da molti altre/i da tempo denunciate senza ottenere ascolto. Voglio, però, rimanere qui a quella che dovrebbe essere la funzione prioritaria dell’università accanto a quella della ricerca, ovvero la funzione di una didattica che della ricerca si alimenta, che è volta a trasferirne i risultati e soprattutto dovrebbe trasmettere il valore dell’onestà intellettuale, la passione per lo studio, per l’approfondimento, la riflessione, il pensiero critico, il confronto e lo  scambio.

Questa trasmissione avviene solo nel momento in cui la/il docente riesce a creare in aula un clima accogliente, di ascolto e attenzione reciproca e a gettare le basi di una relazione di mutuo sostegno. Da questo punto di vista, la didattica – come ogni lavoro di cura – è un lavoro che consuma energie mentali non solo per l’impegno necessario a trasmettere contenuti, anche complessi, ma anche, e talvolta soprattutto, nel mantenere, curare e riparare la relazione con chi sta camminando sulla strada dell’apprendimento e della formazione. Un cammino che spesso procede oltre l’aula nel percorso per l’elaborazione della tesi, nel quale la relazione diventa più ricca e appagante, e l’attenzione, come la fiducia reciproca, deve essere ancora più grande. Tutto questo richiede tempo: ogni lavoro di cura richiede un tempo non misurabile e non quantificabile. Ogni lavoro di cura – e soprattutto l’insegnamento in ambito universitario – deve concedersi e deve concedere il tempo necessario ad ottenere l’obiettivo della fioritura di una vita individuale, fioritura che avviene solo nell’ascolto, nel camminare accanto, più che dinnanzi, a chi sta crescendo intellettualmente.

La/il docente oggi, però, oltre alla ricerca che nutre la sua didattica è chiamato a svolgere una molteplicità di altri ruoli: le missioni del docente universitario si moltiplicano entrando tra loro in tensione e creando talvolta conflitti che non possono essere risolti che attraverso decisioni individuali più o meno costose. L’impegno nella docenza entra così, per esempio, in conflitto con quello per la pubblicazione dei c.d. “prodotti della ricerca”, la loro collocazione in riviste o editori prestigiosi, o con il fundraising o ancora con la terza e ora anche la quarta missione. Non tutte queste attività premiano nello stesso modo nella carriera, e così talvolta la scelta viene fatta meramente sulla base dell’opportunità, anche in considerazione di ciò che offre maggiore visibilità.

La dimensione della relazione viene sacrificata, che si tratti del rapporto con chi studia con noi o delle/dei colleghi con cui lavoriamo. Rischia, però, di venir sacrificato anche lo studio. Ogni tanto capita di sentire qualche collega che stanco, a mo’ di battuta —ma di quelle battute che tutti sanno nascondono verità —, si lascia andare a dire che nell’università è ormai sempre più raro che un professore/una professoressa abbia tempo per studiare!

Lo studio richiede di dimenticarsi il tempo e di rallentare. Per tuffarsi nella lettura ci si deve concedere un tempo che si ribella ai ritmi di una vita di corsa, di una vita a ritmi sempre più accelerati. Leggere riflessivamente, con attenzione profonda – come ricorda Bernard Stiegler in Prendre soin: De la jeunesse et des générations (2008) –, è il modo attraverso il quale come esseri umani entriamo in contatto con l’altro oltre il tempo e lo spazio, manteniamo il filo del discorso ininterrotto tra le generazioni, costruiamo cultura. Nella lettura non siamo in gara con l’autore del libro che stiamo leggendo: il lettore collabora alla vita del libro e può, grazie al dono che l’altro gli ha fatto con la sua scrittura, far continuare oltre e altrove il viaggio delle idee. Le idee infatti non vivono nel mercato – come sostengono spesso coloro che vorrebbero trasformare ancora di più l’università in un’azienda. Le idee hanno bisogno di tempo per essere elaborate ed essere trasmesse. Avere tempo, d’altra parte, è possibile soltanto se si ha una stabilità sul piano economico, se non si vive in un precariato che costringe a correre e a sottostare al ricatto. Il precariato universitario è un modo per tentare di uccidere la libertà di ricerca, soprattutto di coloro che esprimono il punto di vista di saperi socialmente soggiogati e costretti ai margini. Le idee mainstream trovano, sì, sempre un mercato che è pronto ad accoglierle, perché più facili da vendere ai più.

La metafora della gara è una vecchia rappresentazione dell’individualismo. Parlando di ciò che distingue l’individualismo moderno dall’egoismo come passione umana universale, Tocqueville, nella De la démocratie en Amerique (1835-1840), utilizzava l’immagine della corsa: ogni individuo corre, voltando con ansia ogni tanto lo sguardo indietro per essere sicuro di non essere raggiunto e superato. Nel tentativo di arrivare primi, si perde di vista la dimensione della relazione, dei legami sociali: l’individuo moderno finisce così per avere relazioni stabili e intime solo con la cerchia sempre più ristretta dei familiari.

Andando oltre Tocqueville, e guardando all’oggi, potremmo dire che il costante sentirsi in gara costringe l’individuo ad un isolamento da cui diventa sempre più difficile uscire, che diventa difficile abbandonare anche quando affiora la consapevolezza che l’isolamento rende deboli, deprime le energie e fiacca la motivazione. (La gara stessa, in fondo, funziona solo finché riconosco gli avversari e il senso condiviso dell’impresa per cui insieme si compete e se ho la consapevolezza che si sta compiendo, anche nella competizione, un’impresa comune.) Come ricorda Arendt in The Origins of Totalitarianism (1951), proprio dell’isolamento tra gli individui si avvalgono i regimi autoritari per governare più facilmente la società civile, per tenerla meglio sotto controllo. Certo, l’isolamento non è ancora l’estraneazione, la perdita di sé e di mondo, su cui fanno leva i regimi totalitari, perché consente la solitudine e quindi il dialogo interiore. Quando, tuttavia, l’individuo isolato diventa dipendente da un mondo digitale che oggi promette attraverso i social un surrogato della vita reale, meno faticosamente raggiungibile e più generoso di like, il rischio dell’implosione del sé aumenta e con esso il rischio dell’implosione di ogni baluardo a difesa della libertà e delle istituzioni democratiche.

Queste considerazioni per dire grazie a Emma Ruzzon per averci restituito con parole lucide la fotografia del nostro paese, attraverso il ritratto delle nostre università. Grazie per averci ricordato che il malessere della gioventù è uno specchio del grado di gravità della malattia da cui è afflitta la nostra società. Non bastano punti di ascolto psicologico destinati a chi studia, né Comitati Unici di Garanzia per il benessere organizzativo, a risolvere il problema dell’università oggi. Dovremmo arrestare la corsa, fermarci a riflettere su cosa si è rotto socialmente e come lo si può riparare. Per l’università questo significa tornare a interrogarsi sul suo mandato, sul senso del suo stesso esistere.

Tags:

Accessi: 170

Politiche della scienza: Francesca Di Donato, Giovanni Molteni Tagliabue

DOI

DOI

scriba Sottoponiamo alla revisione paritaria aperta due articoli dedicati a dei progetti di riforma politica della scienza istituzionale – una esterna e l’altra interna.
“Rationalized and Extended Democracy”: Inserting public scientists into the legislative/executive framework, reinforcing citizens’ participation di Giovanni Molteni Tagliabue suggerisce di inserire degli scienziati nei processi decisionali della democrazia, così da renderli meno esposti al rischio strutturale di produrre classi politiche autoreferenziali e corruttibili. Un simile inserimento, sostiene l’autore, non trasformerebbe la democrazia in tecnocrazia se avesse luogo tramite una seconda camera legislativa composta da scienziati provenienti da enti pubblici o pubblicamente riconosciuti ed eletti per non più di due mandati, e, per quanto concerne il potere esecutivo, tramite l’affiancamento dei ministri politici con esperti nominati dalla camera scientifica. In caso di conflitti fra le due camere un referendum popolare interverrebbe a risolverli.
Questo disegno dipende dalla convinzione che i difetti della democrazia siano intrinseci alla stessa competizione elettorale, la quale restringe e influenza gli orizzonti della classe politica, e che inserirvi degli scienziati – meno esposti ai vizi dei politici di mestiere grazie anche al limite dei mandati – possa renderla più capace di rispondere alle sfide che le si presentano.

1. Integrità e autonomia della ricerca

Uno dei revisori, Antonino Palumbo, ha osservato che la scienza istituzionale non è immune dai difetti della politica, né da essa indipendente. Molteni Tagliabue, da parte sua, individua nelle riviste predatorie (II.18. 6) il problema principale della pubblicazione scientifica contemporanea, lo connette all’uso del publish or perish come motore della carriera accademica, e lo pensa superabile tramite un mutamento del sistema degli “incentivi”.
Che i ricercatori abbiano bisogno di bastoni e carote per evitare di produrre opere senza qualità esclusivamente allo scopo di far numero è però solo una delle conseguenze di una valutazione della ricerca divenuta amministrativa, fondata non più sulla lettura dei testi bensì sul conteggio delle pubblicazioni e delle citazioni. In questo modo un aspetto decisivo, prima che per le carriere, per l’autodeterminazione della discussione scientifica è stato dato in outsourcing ad editori commerciali che continueranno ad accrescere i loro oligopoli e a drenare quantità astronomiche di denaro pubblico, finché ne sarà loro lasciato il controllo. Più che con “mele marce” e “riviste predatorie”, abbiamo a che fare con una generale editoria parassitaria, che vive e prospera soltanto in virtù della valutazione amministrativa.
La valutazione amministrativa della ricerca è a sua volta un esito dell’erosione dell’autonomia della scienza istituzionale che già Max Weber vedeva in atto all’inizio del secolo scorso. I danni che ha inflitto alla qualità della ricerca sono talmente noti che pochi, ormai, li liquidano, impropriamente, come “aneddotica”. La stessa Commissione europea, all’inizio del 2021, ha avviato un processo che si è concluso con un Agreement on Reforming Research Assessment. Di questo si occupa l’articolo di Francesca Di Donato, anch’esso proposto alla revisione paritaria aperta, Una questione di qualità o una formalità? L’Agreement on Reforming Research Assessment e il processo di riforma della valutazione della ricerca in Europa.
L’accordo si propone di concordare forme di valutazione che, facendo tesoro delle pratiche della scienza aperta, riconoscano la qualità e la molteplicità delle attività di ricerca senza esaurirle nelle pubblicazioni e senza pretendere di misurarle con metriche basate sulla sede di pubblicazione, quali il JIF e l’H-index, o con classifiche di università ed enti ricerca stilate da aziende secondo i propri criteri e per il proprio lucro. La riforma europea si è resa necessaria perché la valutazione amministrativa, avendo sottratto alle comunità scientifiche la capacità di valutarsi da sé tramite l’uso pubblico della ragione, deve ora por rimedio a ciò che essa stessa ha determinato. In Italia ne sarà protagonista l’ANVUR, a cui ha fatto capo la valutazione quantitativa che l’accordo prevede di superare. Quale sarà il suo esito? Proprio perché, in particolare in Italia, il rischio di cambiare tutto per non cambiare nulla è elevato, l’articolo di Francesca Di Donato – testimonianza di chi ha partecipato direttamente al processo – merita una lettura attenta.

2. Scienziati applicati

Una scienza istituzionale soggetta a valutazione amministrativa e inserita in un sistema di oligopoli editoriali e mediatici può difficilmente offrire al pubblico un punto di vista indipendente e non autoreferenziale. Una seconda camera scientifica, senza un cambiamento radicale nella valutazione della ricerca, sarebbe probabilmente composta da ricercatori con un accesso privilegiato ai finanziamenti pubblici e ai media, scienziati che hanno ricevuto visibilità grazie agli algoritmi commerciali di Facebook, academic star finanziate dai monopolisti del capitalismo della sorveglianza in conflitto d’interessi, o intellettuali che, invece di confutare un pensatore eterodosso con l’uso pubblico della ragione, firmano lettere contro di lui. Secondo Kant, trasformare il filosofo in funzionario, mettendogli in mano la spada del potere, lo espone alla tentazione di ricorrere a quella stessa spada per troncare le discussioni scientifiche: questo rischio vale a maggior ragione se la spada è già stata usata a monte, nella valutazione amministrativa della ricerca, per attribuire visibilità e promozioni.
Molteni Tagliabue, quando deve indicare quali scienziati prestare alla politica, produce una lista esemplificativa che comprende giuristi, sociologi e politologi e scienziati applicati come gli esperti di pianificazione territoriale e urbana, di organizzazione industriale e infrastrutturale, di agricoltura, istruzione e sanità, ambiente, cultura, università e ricerca, nonché filosofi morali studiosi di bioetica. L’elenco pare escludere chi si occupa ricerca di base: non ci sono storici, linguisti, teologi, matematici, informatici, fisici teorici e scienziati naturali. Fra le discipline filosofiche si salva solo la filosofia morale, che, come mostra il caso della cosiddetta AI ethics, più facilmente si presta al servizio di interessi commerciali, o a “risolvere problemi che non pone, ma che le sono posti”. Questa selezione è casuale, o presuppone una prospettiva da “fine della storia”, per la quale tutti i problemi da affrontare sono ormai soltanto amministrativi?
La costituzione della repubblica islamica d’Iran, approvata nel 1979 con un referendum popolare, riconosce la separazione dei poteri, il carattere elettivo del potere legislativo, le garanzie giudiziarie e i diritti civili. Ma lo stato iraniano non è una semplice democrazia: è una democrazia teocraticamente custodita. Un consiglio dei guardiani di dodici membri, in cui sei giuristi islamici (fuqaha) sono nominati dalla guida suprema e sei giuristi civili di fede islamica sono eletti dal parlamento, esamina la compatibilità delle norme approvate dal potere legislativo con l’Islam e vaglia le candidature alle cariche elettive. La guida suprema, a sua volta, è, finché il dodicesimo Iman non uscirà dall’occultamento, un giurista islamico giusto e virtuoso nominato da un consiglio degli esperti, a sua volta composto da giuristi islamici eletti dal popolo. Abbiamo così un regime a duplice – e precaria – legittimazione, nel quale la custodia della democrazia usa strumenti curiosamente consonanti col progetto di Molteni Tagliabue: il riconoscimento costituzionale di una categoria di esperti che si sono affermati come tali in istituzioni diverse dallo stato democratico e la limitazione dell’elettorato passivo. A differenza di quella islamica, tuttavia, la costituzione della repubblica scientista presuppone una gerarchia esplicita fra la fonte di legittimazione democratica e quella scientifica, prevedendo referendum per risolvere i conflitti fra la camera dei politici e quella degli esperti, ammesso e non concesso che quest’ultima abbia l’integrità e il coraggio di crearli.

3. Crisi nella democrazia o crisi della democrazia?

La corruzione e l’autoreferenzialità della classe politica sono un aspetto strutturale della procedura democratica, o sono l’esito della sua impotenza?
Dopo la crisi del 1929, la democrazia statunitense ebbe l’elasticità di reagire e di intraprendere cambiamenti radicali senza aver bisogno di trasformarsi in una repubblica scientista.

Con la presidenza Roosevelt si abbandona il capitalismo a briglia libera del laissez-faire e laissez-passer, il liberismo delle grandi diseguaglianze e delle grandi ingiustizie, stravolgendone i presupposti e inaugurando il più grande intervento dello Stato nell’economia mai concepito fino ad allora: il New Deal. Si rimette a lavoro una nazione, si costruiscono strutture di sostegno al reddito e di sicurezza sociale, si fa ripartire l’economia con una più equa ripartizione delle risorse, si pone un freno al dominio della speculazione finanziaria separando banche di investimento e di deposito. Si mette così in sicurezza il sistema americano tramite un cambiamento profondo dei suoi presupposti. La democrazia viene in sostegno al capitalismo, garantendo l’elasticità necessaria per uscire da un sistema morente con una nuova visione e una grande trasformazione. Anche a costo di attaccare i privilegi acquisiti della classe dominante.1

Nel 2015, in una situazione paragonabile a quella del 1929, la Grecia, oppressa sia da una sua propria crisi del debito, sia dalle soluzioni imposte dall’esterno per risolverla, tentò di proporre una via d’uscita dallo status quo della politica economica dell’Unione Europea.

La richiesta non è quella di contribuire alla spesa pubblica di un paese in bancarotta. Si tratta di chiedere, più radicalmente, una diversa soluzione alla stagnazione economica, alla disoccupazione e al ricatto del debito per tutti gli europei. Si tratta di trovare soluzioni comuni al debito pubblico crescente (una conferenza sul debito), alla mancanza di investimenti e all’economia stagnante (un New Deal per l’Europa), alle banche zombie (una vera unione bancaria) e alla disoccupazione a due cifre (un piano straordinario di occupazione) come problemi che riguardano tutta l’Unione. È una battaglia, in una parola, condotta per ottenere una diversa politica economica europea.2

Sappiamo com’è andata a finire:

le banche greche vengono strangolate, la popolazione ridotta allo stremo, i ricatti e l’intransigenza delle tecnocrazie europee raggiungono un apice mai visto fino ad allora e senz’altro mai applicato nei riguardi dei nazionalismi autoritari dell’Est Europa. La stessa BCE […] scende in campo con tutte le armi di cui dispone, anche se questo significa violare il proprio mandato e rinunciare a garantire la stabilità del sistema bancario europeo. La guerra viene vinta. Nonostante una schiacciante maggioranza respinga nel referendum del luglio 2015 l’accordo offerto dalla Troika, Syriza finisce per capitolare e accettare le condizioni imposte dall’Eurogruppo: austerità draconiana e la piena garanzia del proseguimento della Grande Depressione a fronte di un rifinanziamento del debito del paese e vaghe promesse di un possibile sconto di pena per buona condotta.3

Se la Grecia fosse stata una repubblica scientista, sarebbe cambiato qualcosa? L’economista Yanis Varoufakis non aveva avuto bisogno di un elettorato passivo privilegiato per proporre un New Deal. Ma i vertici politici e tecnocratici dell’Unione europea, rivelando quale fosse la loro effettiva gerarchia di valori, schiacciarono la democrazia greca con durezza estrema. In un quadro come questo, in cui le decisioni degli stati sono dettate dall’esterno perfino per quanto concerne la pace e la guerra, l’unica classe politica che può sopravvivere è quella che non si propone di cambiare il mondo, ma di perseguire il proprio “particulare”; e l’unico elettore a cui rimangono dei motivi per andare a votare è quello che spera di ottenere un favore o una vendetta per qualche suo piccolo risentimento, in un orizzonte altrettanto ristretto.
Wilhelm von Humboldt, in un momento di gravissima crisi, inventò un sistema che affidava la garanzia dell’autonomia delle istituzioni di ricerca a uno stato problematicamente assunto come capace di autolimitarsi. Era infatti convinto che, in una società aperta, una ricerca libera, sola e cooperativa avrebbe avuto ricadute politiche, sociali e culturali che si sarebbero realizzate come effetti collaterali e non nella forma burocratica di incarichi da assumere e di prodotti da consegnare. Si tratta, ora, di capire se, dalla gabbia d’acciaio che tiene oggi prigioniere sia la scienza sia quel che resta della democrazia, sia possibile immaginare vie d’uscita amministrative che non siano esenti dal rischio di renderne più fitte e complesse le sbarre.

Tags:

Accessi: 157

La prima vittima

DOI

Copertine Maurizi-Piro1. Segreti e bugie

Il potere segreto di Stefania Maurizi ricostruisce sistematicamente “la storia di un giornalista” – Julian Assange – “imprigionato e trattato con insostenibile crudeltà per aver rivelato crimini di guerra; della determinazione dei politici inglesi e americani di distruggerlo; e della quieta connivenza dei media in questa mostruosa ingiustizia.”1

Mentre la polizia britannica lo stava arrestando, Assange teneva in mano un libro di Gore Vidal, History of the National Security State, che racconta come gli Stati Uniti, vinta la II guerra mondiale, abbiano continuato ad accrescere la loro spesa militare fino a creare il cosiddetto complesso militar-industriale. Gli interessi di un gigantesco apparato offensivo statale e dell’industria bellica privata si sono così raggrumati in un nesso che condiziona la politica a guerre preferibilmente interminabili, il cui scopo implicito non è più vincere, bensì risucchiare denaro pubblico. A denunciarne i rischi, nel 1961, fu lo stesso Dwight D. Eisenhower, in un memorabile discorso di commiato, che Gore Vidal commenta così:

The good thing was, upon— he kept back military spending. And then, when he left office, he made this great speech, and he explained why it was necessary to have such a huge military. Might have been better if he’d said we don’t need this much military for our task in the world to preserve freedom for ourselves. But he said no matter how necessary, and we think it is, that we have this great military–industrial complex, it is a dangerous thing because of the vast amounts of federal money that are going to private corporations for our defense — and he was trying have it both ways — which is necessary, which is necessary. And he said this is going to change everything in the way our country’s governed: It’s going to change us politically; it’ll change us spiritually. And then part of the speech which I’ve always loved, nobody ever quotes it. After all, he’d been president of Columbia University. He said the effect of all this money coming to our universities, even though it’s for the physics department, the nuclear departments, is going to affect all education. And if the universities are not the home of free investigation, suddenly our knowledge of the world is curtailed by this huge amount of money, which will control the responses of everybody, including the history department. He didn’t say that, but that was his meaning. 2

Dopo l’11 settembre 2001 il grumo si è espanso fino a diventare “uno Stato nello Stato con i suoi apparati dalla Cia alla Nsa al Pentagono che, di fatto, non rispondono a nessuno, perché blindati dalla segretezza”,3 il quale ambisce a catturare, sorvegliare e schedare la comunicazione del mondo e che si coordina con oligopoli privati4 e sempre più concentrati, a loro volta sottratti al controllo del pubblico.

Il suo potere pervasivo fa sì che l’illibertà di stampa del cosiddetto occidente si manifesti come coercizione solo occasionalmente, e con la parvenza dello stato di diritto. E però, se la libertà degli autori è un diritto a salvaguardia di tutti gli altri diritti, come ultimo rimedio civile contro norme e istituzioni ingiuste, allora la posta in gioco, nel destino giudiziario di Assange, di Edward Snowden o di Chelsea Manning, non è la loro salvezza personale, bensì la facoltà dei cittadini del mondo di conoscere e di decidere sulla pace e sulla guerra e in generale di determinare gli ordinamenti sotto i quali vivono, contro la pretesa di imporre il diritto positivo di un singolo stato come norma globale, o, più propriamente, imperiale.

2. Maledetti pacifisti: il controllo del discorso pubblico

Nel 2010 Umberto Eco affermava che la possibilità di pubblicare senza filtri ex ante avvantaggia i pochi colti e disorienta i molti incolti. Nel mondo della scienza aperta si sostiene invece che, essendo la pubblicazione in rete divenuta facile, il filtro può operare ex post, come selezione attraverso la discussione e l’uso. Anche un filtro di questo tipo, peraltro, può essere arbitrario e omologante quanto quelli applicati ex ante nel chiuso delle redazioni. Con la differenza, però, che il suo operare non è interamente nascosto e può essere oggetto d’indagine induttiva e di pubblica critica.

Il libro di Nico Piro, Maledetti pacifisti, denuncia uno di questi filtri: quello che protegge la guerra infinita, vale a dire il lato visibile del potere segreto,5 e che, implicitamente, pretende di legittimarlo.

L’informazione giornalistica italiana, per lo più in mano a un’editoria incapace di partecipare attivamente alla rivoluzione digitale, si è sempre più assimilata ai media sociali proprietari, enfatizzando opinioni e polarizzazioni così da mungere i dati dei lettori per l’uso della propaganda economica e politica e risparmiarsi il rischio, la fatica e i costi di ricostruire e mettere allo scoperto fatti.6 In queste condizioni, chi concentra nelle sue mani media e denaro non ha difficoltà a smerciare la guerra infinita come uno scontro fra amici e nemici, fra buoni e cattivi, per l’intrattenimento o l’oblio non più di cittadini elettori, ma di consumatori-tifosi.

L’obiettivo è quello di venderci la guerra come una partita di calcio dove se accade un infortunio si tira fuori il cartellino rosso. Insomma, la guerra è presentata come un male necessario, una cosa brutta ma che può diventare bella per l’ardimento di chi vi partecipa. Se poi si scade nell’orrore è colpa di qualche anomalia: un crimine, appunto.

Si mira a nascondere la verità, cioè che la guerra è di per sé un crimine, il peggiore che si possa commettere sulla faccia della Terra.

Quando una madre con i suoi bimbi esce di casa in una città assediata per procurarsi dell’acqua da bere e si ritrova presa nel fuoco incrociato di un’imboscata contro un convoglio nemico; quando dall’ultimo piano di un palazzo un cecchino spara e l’artiglieria nemica demolisce l’edificio al cui interno ci sono ancora famiglie; quando una IED piazzata lungo la strada per colpire truppe in avanzamento esplode sotto l’auto di un padre che porta le figlie a scuola; quando accadono questi fatti – ricorrenti in una guerra – perché non parliamo di crimini? Gli unici crimini sono gli stupri? I saccheggi? Le esecuzioni sommarie svolte da militari inferociti? 7

Nel primo articolo definitivo della Pace perpetua, Kant scriveva che la costituzione di ogni stato deve essere repubblicana perché a deliberare la guerra non fosse il potere esecutivo, bensì, tramite i loro rappresentanti, quanti, militari o civili, ne avrebbero subito i danni.

Il 18 settembre 2001, il congresso americano, sull’onda dell’emozione dell’attentato alle Torri gemelle, ha approvato una Authorization for Use of Military Force che permette al presidente di usare tutta la forza necessaria e appropriata “against those nations, organizations, or persons he determines planned, authorized, committed, or aided the terrorist attacks that occurred on September 11, 2001, or harbored such organizations or persons, in order to prevent any future acts of international terrorism against the United States by such nations, organizations or persons”. Soltanto una rappresentante, Barbara Lee, la riconobbe come una clausola in bianco che avrebbe sottratto al parlamento il potere di decidere della pace e della guerra per consegnarlo all’esecutivo, ed espresse un voto contrario. Come scrive Nico Piro,

quella decisione emotiva, sull’onda della tragedia dell’11 settembre, costerà agli Stati Uniti due decenni di “guerra al terrore” con il macabro bilancio di 929mila morti – di questi, 387mila civili, senza considerare i deceduti per gli effetti collaterali della guerra sulla sanità, l’accesso all’acqua e al cibo, la contaminazione ambientale – e di 38 milioni di persone costrette a lasciare le proprie case in veste di sfollati o rifugiati. I soli Stati Uniti hanno speso 8 trilioni di dollari per operazioni antiterrorismo (meglio chiamarle “attività belliche”) che coprono 85 Paesi stranieri e hanno comportato, anche nel loro stesso territorio nazionale, ai danni di cittadini statunitensi, sistematiche violazioni dei diritti umani e civili.8

Quanto vive, nelle nostre post-democrazie, della repubblica di Kant? Chi decide della pace e della guerra? Che cosa giustifica l’inizio e la prosecuzione di una guerra – umanitaria, esportatrice di democrazia, per la difesa dei “nostri valori” o del nostro potere – quando il rischio della pace perpetua nel suo senso cimiteriale è sempre meno un’eventualità teorica? Anche per la guerra ultima e prossima, quella in Ucraina,

nella conversazione pubblica non c’è traccia di pensiero critico, nessuno prova a ricostruire da dove nasca questa guerra e quei pochissimi che tentano di farlo vengono messi a tacere con l’infamante accusa di essere dalla parte del carnefice. Di nuovo il conflitto passa come unica scelta moralmente accettabile in nome di una implicita superiorità morale dell’Occidente.
Eppure nessuno prova a interrogarsi su cosa significhi “Occidente”, sulla continua autoassoluzione rispetto a scelte come quelle dell’invasione dell’Iraq o dell’Afghanistan, del conflitto in Libia, del caotico intervento in Siria, dell’accordo di Doha. Nessuno che si chieda perché continuiamo a disegnare un mondo dove gli occidentali sono buoni e il resto del mondo è fatto di infidi e pericolosi nemici. Nessuno che si chieda perché l’Occidente non possa liberarsi dell’ipoteca che l’apparato militare rappresenta per la società americana e quindi per tutti gli alleati. Nessuno che provi ad aprire un dibattito su quel concetto variabile di giustizia che porta a giustificare ogni intervento armato piuttosto che pretendere che la sottintesa e perennemente evocata “civiltà superiore” occidentale debba basarsi sulla capacità di mantenere la pace, non sulla presunta forza di avviare guerre.
Nessuno lo fa, e chi ci prova viene messo a tacere con l’accusa di essere antiamericano.9

3. Apparati morali: la normalizzazione della guerra

In un’intervista del 1998, Zbigniew Brzeziński, consigliere per la sicurezza nazionale del presidente Carter, si vantò di aver orchestrato per l’URSS una “trappola afgana” promuovendo e sostenendo il fondamentalismo islamico. Per lui il fine della dissoluzione dell’impero sovietico giustificava un mezzo che, tre anni prima dell’attentato alle Torri gemelle e dell’inizio della guerra in Afghanistan, appariva già una minaccia per tutti. Dovremmo chiederci se gli Stati Uniti e i loro vassalli europei non stiano ora facendo un calcolo analogo, esponendo l’umanità a rischi ancora più gravi.

In un Paese armato fino ai denti come l’Ucraina, dove sulla scena pubblica da anni operano indisturbate formazioni neonaziste e ultranazionaliste, dove sono stati dati fucili d’assalto anche ai detenuti, dopo aver lanciato al mondo ultimatum su base quotidiana (dateci armi, dateci soldi per far funzionare la macchina dello Stato, dateci aerei, dateci la No fly zone) come potrà il Presidente Zelensky caricarsi la responsabilità di un compromesso? Come potrà arretrare dalla posizione di chi guida le truppe a quella di chi firma un accordo sapendo che dietro di lui c’è chi invece non vuole arretrare di un solo passo, perché quelli che l’hanno seguito con più convinzione sono fanatici che vogliono la vittoria a tutti i costi?10

Dovremmo interrogarci sulla prudenza di chi coltiva e arma estremisti e fondamentalisti e fa combattere guerre infinite, per lo scopo nominale di indebolire o distruggere il nemico di turno, almeno con lo stesso zelo con cui ci si sforza di escludere il pacifismo dal novero delle opzioni realistiche in quanto irresponsabile assolutismo morale. Ma perfino un articolo uscito su “Valigia Blu” lo scorso maggio11 ha paragonato i pacifisti a chi, pur potendo indirizzare un vagone fuori controllo, a un bivio, sul binario in cui c’è una sola persona per evitare che travolga le cinque sull’altro, si astiene perché “la vita umana è sacra e non si possono salvare le persone uccidendone altre”.

Per la verità Philippa Foot, quando concepì la prima versione di questo dilemma,12 non si proponeva di contrapporre un’etica della responsabilità a una presunta etica dell’intenzione, da associarsi a interpretazioni di Kant “un po’ letterali e sciocche” e a “molti dei pacifisti più visibili nel dibattito pubblico”: voleva, invece, circoscrivere la legittimità delle azioni compiute in stato di necessità. Se è moralmente accettabile deviare un tram in modo che investa una sola persona anziché cinque, perché allora dovrebbe essere inammissibile uccidere una persona sana per trapiantarne gli organi a cinque pazienti in pericolo di vita?

La dottrina del doppio effetto rispondeva che nel caso del tram la morte di una persona è un mero effetto collaterale, previsto ma non inteso direttamente, mentre in un omicidio a scopo di trapianto la morte dell’involontario donatore è direttamente deliberata come mezzo per conseguire il fine. Philippa Foot trovava però questa distinzione non del tutto convincente, proprio perché basata – a prescindere dai casi in cui l’effetto inteso e quello collaterale sono così contigui da essere indistinguibili – su una dissociazione artificiosa fra intenzione e previsione delle conseguenze di un atto. Se prendessimo sul serio questa dissociazione così da riconoscerci responsabili solo delle nostre intenzioni e non degli effetti prevedibili delle nostre azioni, uno spacciatore di vino addizionato al metanolo potrebbe discolparsi eticamente e giuridicamente coll’argomento che il suo scopo era trar profitto dalla vendita e la morte dei suoi clienti è stata solo un effetto prevedibile ma indesiderato della sua condotta.

La risposta alternativa di Philippa Foot è kantianamente ineccepibile. La differenza moralmente decisiva fra la deviazione del carrello e l’assassinio a scopo di prelievo degli organi non sta nelle intenzioni, bensì nella gerarchia di doveri che ciascuna delle due condotte presuppone: i doveri negativi di astenersi dal ledere i diritti altrui prevalgono o no sui doveri positivi di aiutare gli altri? Nel caso del carrello, il tranviere o l’addetto allo scambio, in un conflitto non evitabile fra doveri negativi verso una o verso cinque vittime potenziali, scelgono la lesione minore; nel caso del trapianto, uccidere il sano per prelevarne gli organi comporta invece una sua esplicita strumentalizzazione per prestare soccorso ad altri. Nel linguaggio di Kant, nella prima situazione abbiamo un caso di necessità con un conflitto fra doveri giuridici (perfetti), nella seconda invece un contrasto fra il dovere giuridico (perfetto) di non ridurre le persone a mezzi al servizio di scopi altrui e il dovere etico (imperfetto) della benevolenza nei confronti del prossimo. Una cosa è intervenire per limitare il danno quando la lesione del diritto altrui è inevitabile, un’altra pianificare omicidi per motivi umanitari.

È stato, d’altra parte, osservato che il dilemma del carrello, applicato alla guerra in Ucraina, può essere usato a favore della causa della pace: se su un binario sta l’appoggio incondizionato a tutte le rivendicazioni dell’Ucraina – o della Russia – fino alla guerra nucleare, e sull’altro un compromesso con qualche sacrificio dell’uno e dell’altro nazionalismo, è abbastanza chiaro che su quest’ultimo sarebbe meglio indirizzare la macchina della guerra. Il saggio sul diritto di mentire per amore degli esseri umani, nel quale Kant sostiene che è immorale dire il falso perfino a un assassino alla porta che ci chiede se un nostro amico si è nascosto da noi, avrebbe permesso di stigmatizzare il presunto assolutismo morale dei pacifisti in modo almeno apparentemente più facile. Perché preferire il dilemma del carrello?

Forse, anche qui, come nella cosiddetta etica dei veicoli a guida autonoma, il tram esercita un fascino mistificatorio. Philippa Foot, col suo esperimento mentale, non voleva avallare la progettazione e la costruzione di tranvie tragicamente insicure, bensì immaginare, come termine di confronto, una situazione artificiale in cui la condizione di partenza e il margine di scelta fossero limitati all’aut aut fra una e cinque vite e i cui esiti fossero interamente prevedibili. Si può applicare il suo dilemma alla guerra effettuale solo se la si rappresenta come uno strumento le cui opzioni e le cui conseguenze sono perfettamente controllabili – a dispetto di Helmuth von Moltke – e riducibili a morale. Lo si può fare, in altre parole, solo se, come scrive Nico Piro, la si normalizza, ossia, in termini tranviari, si fa passare come ordinario e lecito un sistema di trasporto su rotaia progettato così male che i conducenti o i sistemi automatici che li sostituiscono si trovano quotidianamente a determinare quali pedoni maciullare e quali no.

4. La guerra giusta

Nella Metafisica dei costumi Kant scrive che lo ius necessitatis comporta, in condizioni di emergenza, la facoltà di sopprimere, per salvarsi la vita, persone che non ci hanno fatto nulla di male. Per lui però questo presunto diritto è uno ius aequivocum, ambiguo. Uccidere innocenti non diventa giusto perché ci troviamo in una situazione di estremo pericolo: l’estremo pericolo si limita a rendere il diritto inefficace perché privo di sanzioni così spaventose da indurre a superare il terrore dovuto al rischio immediato di morire.

Perché Kant sceglie una via così obliqua per affermare che le azioni compiute in stato di necessità non sono giuridicamente punibili? Perché l’alternativa – trattare come legittima l’uccisione di innocenti in caso di emergenza – normalizzerebbe una condotta che deve rimanere ingiusta. Se lo ius necessitatis fosse diritto in senso stretto, la cura della sicurezza dei trasporti su rotaia – così come il ripudio della guerra come mezzo di soluzione delle controversie internazionali – potrebbe essere trattata come facoltativa.

Coerentemente, Kant criticava il diritto internazionale giusnaturalista perché normalizzava la guerra. Se si riconosce che ciascuno stato è giudice in causa propria e può far legittimamente valere le proprie ragioni con la forza, non si avalla la legge del diritto, bensì, come in un’ordalia, la legge del più forte. Proprio per questo, secondo Kant, per superare la barbarie della guerra è indispensabile ammettere prelimìnarmente che non possono esistere guerre “giuste”13 anche se, in mancanza di un giudice sovranazionale terzo e dotato di potere coercitivo, ci possono essere guerre che sono o sembrano tristemente necessarie.

Chi crede di combattere una guerra giusta si dà ragione da sé, come un giudice in causa propria e in conflitto di interessi, e la fa valere con la forza: sottoscriverà dunque trattati di pace con la riserva di disattenderli appena possibile, perché un nemico ingiusto non merita il rispetto della parola data; tenderà a interferire violentemente nella costituzione e nel governo di altri stati ritenendoli illegittimi ed ergendosene a giudice; e propenderà a combattere con mezzi tali da rendere impossibile ricostruire, fra le parti, la fiducia per trattare una pace futura, perché con un nemico ingiusto non si può scendere a patti.

Come por fine alla guerra infinita senza deporre l’armamentario della guerra giusta? I crimini di guerra statunitensi rivelati da Wikileaks negli Iraq War Logs, la giustificazione dell’aggressione a stati sovrani con la pretesa, fallimentare, di esportare la democrazia e, soprattutto, una pervasiva menzogna propagandistica mostrano che anche il cosiddetto occidente continua a farne un uso sistematico. Come scrive Stefania Maurizi,

la guerra in Iraq è un caso esemplare di manipolazione dell’intelligence al servizio di una causa politica: gli Stati Uniti avevano invaso il paese il 20 marzo 2003 sulla base di informazioni completamente false, secondo cui il regime di Saddam Hussein era in possesso di armi di distruzione di massa e aveva legami con al Qaeda. Si trattava di una totale invenzione dell’amministrazione di George W. Bush, in combutta con il governo inglese di Tony Blair, per giustificare l’invasione. Ma la manipolazione delle informazioni di intelligence avrebbe raggiunto il suo scopo molto più difficilmente se i media americani avessero fatto il loro dovere: trattare con scetticismo i servizi segreti e loro padroni politici.
[…]
La miscela tra la manipolazione dell’intelligence e la propaganda dei media produsse una guerra da cui il Medio Oriente non si è ancora ripreso, perché non solo ha creato milioni di morti e rifugiati, ma ha contribuito a generare la barbarie dell’Isis, emerso proprio nei territori iracheni sprofondati nel caos e nella violenza innescata dall’intervento americano, poi da lì i suoi fanatici sono arrivati a colpire fino in Afghanistan, in un crescendo di teste tagliate, attacchi suicidi, crocifissioni, stupri di massa, perfino più brutali – se possibile – di quelli di al Qaeda.14

Con questi precedenti, come credere, ora, che l’ultimo atto della guerra infinita sia così “giusto” o, almeno, così necessario da non meritare di finire?

5. Una propaganda quasi inevitabile

Il 5 novembre 2022 si è svolta in Italia una manifestazione per la pace, il cui scopo non era invitare l’Ucraina a una resa senza condizioni, bensì pretendere da stati che si dicono democratici l’impegno a lavorare per una soluzione politica, contro una guerra che fa male non solo ai popoli che la subiscono direttamente, ma all’intero pianeta: “tacciano le armi e si cerchino le condizioni per avviare negoziati capaci di condurre a soluzioni non imposte con la forza, ma concordate, giuste e stabili”. E anche secondo il realista Henry Kissinger solo la via, difficile, della diplomazia e dell’autodeterminazione dei popoli tramite referendum sotto supervisione internazionale può evitarci di ripetere l’errore che nel 1914 condusse l’Europa al suicidio culturale: sprofondare, come in trance, in una guerra che si pensava normale senza conoscere – e tanto meno riuscire a governare – la distruttività del potenziale tecnico che avrebbe scatenato.

Nel 1955 Raymond Aron illustrò così le radici di questo difetto di conoscenza sociale:

Trent’anni fa Julien Benda inventò la fortunata espressione trahison des clercs. L’opinione pubblica non aveva ancora dimenticato le mozioni firmate di qua e di là dal Reno dai più grandi nomi della letteratura e della filosofia. Gli intellettuali avevano ripetuto ai soldati che essi si battevano “gli uni per la cultura, gli altri per la civiltà; avevano denunziato la barbarie del nemico, senza sottoporre a critica le testimonianze addotte; avevano trasfigurato una contesa di forza, simile a tante altre che L’Europa aveva vissuto durante i secoli passati sotto forma di guerra santa. Avevano conferito agli interessi degli Stati e agli odi dei popoli una forma articolata e sedicente razionale. Avevano rinnegato la loro missione, che consiste nel servire i valori non temporali: la verità, la giustizia.15

Aron era consapevole che la defezione degli intellettuali è organizzata amministrativamente tramite la loro crescente dipendenza: “l’intellettuale al servizio d’uno Stato, d’un partito o d’un sindacato, dirigente delle ricerche per conto dell’aviazione americana o dell’agenzia per l’energia atomica, come può sottrarsi alle regole del suo ufficio?”16 Anche oggi, secondo Kissinger, conviviamo – e forse anche coltiviamo – con un difetto collettivo di conoscenza altrettanto pericoloso: “overcoming the disjunction between advanced technology and the concept of strategies for controlling it, or even understanding its full implications, is as important an issue today as climate change, and it requires leaders with a command of both technology and history.”

E però, poco dopo la manifestazione del 5 novembre, un altro articolo di Federico Zuolo su “Valigia Blu” rappresenta ancora il pacifismo come privo di senso della realtà e della responsabilità: “attualmente, nei posizionamenti pubblici la questione del pacifismo si esprime nell’urgenza di richiedere la fine delle ostilità qui e ora. È la natura incondizionata della richiesta che sembra demarcare i pacifisti da altre posizioni che, a loro volta, genuinamente vogliono la pace. Quindi la disputa è tra chi vuole la fine del conflitto (quasi) a qualsiasi condizione e chi dà valore alle condizioni. Infatti, anche se abbiamo sempre un dovere di limitare morte e sofferenza, le condizioni contano poiché determinano il modo in cui si continuerà a vivere dopo la fine delle ostilità.”

Questa interpretazione è semplicemente un espediente retorico per attribuire l’esclusiva dell’irresponsabilità a chi preferisce una guerra finita invece che infinita? Forse no, ma soltanto se si riesce a ricondurre il conflitto armato fra stati sotto controllo morale. Zuolo tenta di farlo con tre argomenti:

  1. Uno stato aggredito ha il diritto di difendersi.
  2. Una guerra deliberata da un governo legittimo è più giustificabile di una imposta da uno illegittimo: “da un lato abbiamo una popolazione che quasi unanimemente sostiene lo sforzo di autodifesa, dall’altro una popolazione che in piccola parte dissente, in larga parte teme la repressione e se ne ha i mezzi cerca di sfuggire alla chiamata alle armi. Contrapporre a quest’ultimi fenomeni la (quasi inevitabile) propaganda di Zelensky sembra veramente un sofisma in cattiva fede. Quindi, le recenti illazioni sullo scarso pedigree democratico dell’Ucraina e sulle presunte volontà di alcuni territori russofoni di adesione alla Russia, anche quando fossero vere, non giustificherebbero l’equiparazione dell’Ucraina alla Russia quanto a legittimità istituzionale.”
  3. Le ostilità di un aggredito che rispetta generalmente lo ius in bello sono più giustificabili di quelle del suo aggressore che sistematicamente si macchia di crimini di guerra: “da un lato abbiamo il ricorso abbondante a bombardamenti a danno dei civili, lo stupro di donne e l’uccisione indiscriminata di civili gettati in fosse comuni; dall’altra parte, oltre alle ‘ordinarie’ operazioni dell’esercito, al massimo si possono menzionare azioni di sabotaggio e guerriglia dei civili che si difendono dall’invasore. Laddove ci sono state azioni contrarie a convenzioni o al diritto internazionale da parte dell’aggredito, esse non hanno avuto carattere sistematico o programmatico, né per modalità né per frequenza né per intensità.”

Queste tesi bastano a moralizzare la guerra, così da renderne il superamento soltanto opzionale?

I. Anche se si volesse attribuire all’aggressore esclusivamente la colpa di aver ampliato un conflitto già in corso, attenuato solo provvisoriamente da trattati sottoscritti con riserve mentali fin dall’inizio evidenti, non si può negare all’aggredito la facoltà di difendersi. Ma una cosa è fondare questa facoltà sullo ius aequivocum dello stato di necessità, un’altra trattarla come un diritto in senso stretto. Una cosa è riconoscere che una guerra può essere tristemente necessaria, un’altra rappresentarla anche come giusta. Non è solo una sottigliezza da kantisti: chi crede di combattere una guerra giusta può sentirsi autorizzato a prolungare il massacro oltre l’indispensabile, eventualmente fino a una pace accettabile anche dal generale descritto icasticamente da Emilio Lussu, e a esonerarsi dalla responsabilità per le conseguenze della sua scelta.

II-III. È possibile che l’Ucraina stia combattendo una guerra, se non giusta, inevitabile a causa del carattere incomparabilmente dispotico e criminale del suo nemico. Ma abbiamo gli strumenti per misurarlo? Per rappresentare l’opinione popolare di una parte, che obbliga anch’essa obiettori e renitenti alla leva, come generalmente favorevole alla continuazione della guerra e trattarne i crimini come trascurabili, dovremmo poter disporre di un’informazione libera e accurata e non di una “(quasi inevitabile) propaganda”.

6. La prima vittima

Nel saggio Su un presunto diritto di mentire per amore degli esseri umani, frainteso anche dai non pochi specialisti che ne ignorano il senso politico,17 Kant sostiene che un patto costituzionale che comprendesse il diritto di mentire non potrebbe sussistere, perché includerebbe la facoltà di trasgredire per convenienza tutti gli impegni pubblici su cui la costituzione stessa si fonda e di governare invece con la forza e con l’inganno. E ciò non si applica solo all’interno dei singoli ordinamenti: lo stato di diritto di cui anche la democrazia liberale ha bisogno si realizza solo se la sua garanzia pubblica non vale soltanto occasionalmente e per alcuni, ma per sempre e per tutti – cosa, questa, irrealizzabile in un sistema di relazioni che, normalizzando la guerra, si regge sulla legge della forza e non su quella del diritto.

Una democrazia dovrebbe non solo consentire, ma anche garantire la pubblicità di tutte le informazioni necessarie ai cittadini per deliberare consapevolmente sulla pace e sulla guerra. Una costituzione materiale – orientale o occidentale che sia – sotto la quale i coraggiosi che rivelano violazioni e crimini sono perseguitati, incarcerati o costretti all’esilio e la propaganda bellica e il potere segreto sono dati per scontati si espone al sospetto che le guerre che fa combattere non siano affatto inevitabili. Nel detto secondo il quale la verità è la prima vittima della guerra si cela un luogo che sta diventando difficile rendere comune: la prima vittima della guerra è la democrazia, che avrebbe potuto essere la sua prima nemica.

Tags:

Accessi: 1120

“Automaticamente illegali”. Una proposta per i sistemi di intelligenza artificiale

DOI

Foto di Gerd Altmann I sistemi di intelligenza artificiale basati sull’apprendimento automatico (machine learning) sono utilizzati per ottenere classificazioni o produrre decisioni che hanno effetti rilevanti sulle vite delle persone, a una velocità e su una scala che non consentono un controllo umano significativo. Nei sistemi utilizzati per il riconoscimento facciale, ad esempio, o lo screening medico di immagini di tessuti umani o le decisioni di concedere o rifiutare un prestito, la quantità dei dati di partenza e la potenza di calcolo richiesta per la loro elaborazione fanno sì che la presenza di un essere umano nel processo (human in the loop) non sia in grado di fornire alcun controllo rilevante. Qualora un’attività sia automatizzata e si deleghi tuttavia a una persona il compito di intervenire, con prontezza fulminea, nei casi di emergenza, il ruolo dell’essere umano non può essere che quello di capro espiatorio, come pare sia stato previsto nei sistemi Tesla.

Data l’impossibilità di un controllo umano in itinere, garanzie alternative potrebbero essere fornite dalla trasparenza o dall’assoluta affidabilità. Intrinseche ai sistemi di apprendimento automatico sono tuttavia le caratteristiche contrarie: questi sistemi sono infatti sono costitutivamente opachi (black box), soggetti a errori madornali – in quanto fondati su correlazioni statistiche di ogni genere, senza accesso al significato o al contesto – e ad attacchi avversari non rilevabili.

Nei primi anni del loro impiego, l’evidenza dei danni prodotti da simili sistemi è stata affrontata dalle Big Tech come un problema di discriminazioni, da eliminare con interventi di design tecnico. Le narrazioni sull’”etica dell’IA” e il “seducente diversivo del ‘risolvere’ i bias” hanno costituito un’operazione di cattura culturale, ossia di costruzione di una narrazione pubblicamente condivisa, attraverso il finanziamento e la direzione della ricerca  e dei mezzi di intermediazione scientifica, fino a dettarne anche i toni. I giganti della tecnologia mirano a sottrarre i sistemi di IA alla regolazione giuridica, attraverso dichiarazioni di principi, linee guida, esperti, comitati e gruppi di lavoro sull’etica; a tale strategia di ethics washing si oppongono oggi la richiesta che le ricerche in questo ambito siano finanziate senza conflitti di interesse e la proposta di concettualizzare la questione nei termini della tutela dei diritti umani.

Paiono ormai superati, in virtù dello loro assurdità o malafede, anche i tentativi delle grandi aziende di sfuggire alle loro responsabilità appellandosi all’eccezionalità delle nuove tecnologie e proponendo, per gli effetti dannosi dei sistemi di apprendimento automatico, il riconoscimento di un vuoto di responsabilità, o una responsabilità distribuita anche tra gli utenti e le vittime (a differenza di quanto previsto per i profitti, secondo una consuetudine non eccezionale). Come osserva Andrea Bertolini, la dicotomia tra soggetti giuridici e oggetti non è superabile, tertium non datur, e

l’unica classificazione ammissibile di tutte le tecnologie avanzate esistenti e ragionevolmente prevedibili – senza indulgere in tentazioni fantascientifiche – è quella di cose, oggetti e artefatti, prodotti dell’intelletto umano. Così concepite, esse rientrano chiaramente nella nozione di prodotto

La fragilità della situazione è quella di una bolla giuridica, per usare un’espressione di Marco Giraudo: le grandi compagnie tecnologiche hanno fondato infatti il loro modello di business sull’appropriazione e la commercializzazione dei dati personali, in violazione di diritti giuridicamente tutelati, scommettendo su un successivo “salvataggio giuridico”, in nome dell’inarrestabilità dell’innovazione tecnologica.

L’evidenza delle violazioni dei diritti individuali che hanno luogo quando si utilizzino sistemi di apprendimento automatico per attività che hanno effetti rilevanti sulle vite delle persone sta a fondamento della posizione di Frank Pasquale e Gianclaudio Malgieri. La loro proposta è di disciplinare i modelli di IA ad alto rischio incorporati oggi in prodotti e servizi attraverso una presunzione di illegalità, ossia entro un sistema di “illegalità di default”: fino a prova contraria, tali sistemi dovrebbero essere considerati illegali, e l’onere della prova contraria dovrebbe incombere alle aziende.

Prima di immettere sul mercato un prodotto o un servizio che incorpori sistemi di IA ad alto rischio, le aziende – a partire da quelle che esercitano ormai, per dimensioni e prerogative, una sovranità funzionale – avrebbero l’obbligo di dimostrare che la loro tecnologia non è discriminatoria, non è manipolatoria, non è iniqua, non è inaccurata e non è illegittima nelle sue basi giuridiche e nei suoi scopi. Potrebbero così trovare applicazione anche nei sistemi di IA i principi fondamentali del trattamento di dati personali fissati all’articolo 5 del Regolamento generale sulla protezione dei dati.

La proposta di Pasquale e Malgieri di inquadrare i sistemi di IA entro un regime di “illegalità di default” si fonda sulla priorità dei diritti individuali specificamente protetti dalla legge su un generico principio di innovazione, che è spesso la maschera dietro la quale i grandi soggetti economici rivendicano la tutela dei loro concreti interessi. Non è detto che i diritti individuali avranno la meglio, ma la proposta ha il pregio di chiamare le cose col loro nome.

Tags:

Accessi: 779

A volte ritornano: la bibliometria nel bando PRIN PNRR 2022

DOI

Poster of the movie Sometimes They Come Back All’inizio di ottobre si è diffusa la notizia che l’ANVUR, l’agenzia governativa nella quale si accentra la valutazione amministrativa della ricerca italiana, aveva formalmente sottoscritto l’Agreement on Reforming Research Assessment. Come la dichiarazione DORA e il Leiden Manifesto for Research Metrics, questo accordo include fra i suoi punti principali l’emancipazione della valutazione da analitiche commerciali quantitative quali il fattore d’impatto, l’indice H e le classifiche di università ed enti di ricerca, così da concentrare l’attenzione sulla qualità e sulla diversità della ricerca. L’Annex 1 del suo testo, ricapitolando convinzioni ormai diffuse,1 spiega perché:

I processi di valutazione che si affidano prevalentemente a sistemi di misurazione basati su riviste e pubblicazioni producono notoriamente, a danno della qualità, una cultura del ‘publish or perish’ incapace di riconoscere impostazioni differenti. Il predominio di sistemi di misura angusti fondati su riviste e pubblicazioni, spesso usati impropriamente nella valutazione della ricerca, può disconoscere contributi diversi e può influenzare negativamente la qualità e l’impatto della ricerca stessa. Può, per esempio, esaltare quantità e velocità a scapito di qualità e rigore, far emergere riviste e conferenze predatorie, incoraggiare a pubblicare in riviste ad accesso chiuso e a pagamento per il loro fattore d’impatto elevato anche se sono disponibili alternative ad accesso aperto, indurre a evitare il rischio per non ridurre la possibilità di venir pubblicati, produrre un’eccessiva attenzione alle classifiche a detrimento della collaborazione e far sprecare energie, tempo e denaro a ripetere il già fatto perché gli articoli sui risultati “negativi” rimangono largamente inediti. La valutazione della ricerca dovrebbe promuovere una cultura che riconosca la collaborazione, l’apertura e l’impegno sociale e offra opportunità a una pluralità di talenti.

L’ANVUR ha finora imposto la bibliometria in tutta la sua valutazione: anche per i settori detti “non bibliometrici” chi desidera diventare professore o commissario di concorso deve adeguarsi a valori-soglia quantitativi, basati sul numero di libri, nonché di articoli in riviste genericamente scientifiche e in “di classe A”, determinate tramite liste stilate dall’ANVUR medesima. La sua adesione formale all’accordo sarebbe dunque una notizia non irrilevante, sebbene non comporti la deposizione della spada, per così dire, ma solo l’annuncio della sostituzione della bilancia. Fuor di metafora, la firma promette di cambiare come si valuta ma non chi valuta: l’Anvur, da parte sua, rimane un’agenzia nominata dal governo che sottomette la ricerca italiana a una valutazione amministrativa e centralizzata anziché scientifica e distribuita.

Dovrebbe tuttavia destare stupore che il bando PRIN PNRR 2022 del 14 settembre 2022 richieda dati bibliometrici – obbligatori per fisica, ingegneria e scienze biologiche, e solo se disponibili per scienze umane e sociali – a chi presenta un progetto di ricerca candidandosi come principal investigator.

Si dirà: l’accordo europeo (p. 5) non mette interamente al bando la bibliometria, ma chiede solo di “fondare la valutazione della ricerca principalmente su una valutazione qualitativa in cui è centrale la revisione paritaria, sostenuta da un uso responsabile di indicatori quantitativi”. Però, come si evince dal fac-simile della domanda, aggiornato al 17 ottobre 2022, che gli aspiranti devono compilare, gli indicatori quantitativi richiesti sono tali che difficilmente se ne può immaginare un uso responsabile. Bando e modulistica sono disponibili qui; https://prin.mur.gov.it/Attachments/getAttachment?key=HopXv8NjF1Vb4NvuuAMfmQ== l’illustrazione a fianco riproduce quanto si trova alla pagina 5 del fac-simile, nel punto B2.

Salta subito agli occhi che al candidato viene richiesto l’Impact Factor dei suoi articoli, presumibilmente perché si ritiene che questo dato sia utile per valutarlo. Lo stesso inventore dell’IF, Eugene Garfield, raccomandava di non impiegarlo per valutare i ricercatori: com’è ampiamente noto, facilmente intuibile, e riconosciuto perfino da una sentenza del TAR del Lazio, un rapporto che pesa le citazioni complessive annuali degli articoli usciti su una rivista il biennio precedente è una misura che riguarda la rivista stessa e non i suoi singoli testi, alcuni dei quali possono essere citati poco o per nulla.

https://prin.mur.gov.it/Attachments/getAttachment?key=9L3fqE6vl9+EucB3/ELXtg==Il ministero ha pubblicato anche delle FAQ. L’illustrazione qui a fianco ne riproduce la parte sulla bibliometria.
A chiarimento di quanto implicito nel fac-simile, il MUR spiega che i fattori d’impatto delle riviste su cui sono usciti gli articoli dei candidati vanno sommati, senza compiere la normalizzazione raccomandata dal sesto punto del Leiden Manifesto for Research Metrics. Il numero di citazioni, tuttavia, varia fra disciplina e disciplina, e con esso il fattore d’impatto delle riviste: se gli IF delle riviste che hanno pubblicato gli articoli vengono semplicemente addizionati, i ricercatori che operano in campi a bassa intensità di citazioni verranno penalizzati a vantaggio di quanti lavorano in ambiti di intensità maggiore. E per mantenere quel pizzico di accidentalità tipico della carriera accademica, il MUR non prescrive di indicare l’IF che la rivista aveva quando l’articolo è stato pubblicato, ma quello attuale o l’ultimo disponibile: così – a proposito di scale oggettive – il valore di un articolo, oltre a dipendere dal suo contenitore e non dal suo contenuto, crescerà e decrescerà nel tempo avvenire con le fluttuazioni del fattore d’impatto della rivista che lo ha pubblicato. Si sta come d’autunno sugli alberi le foglie.

Anche i limiti dell’indice H, qui calcolato sul database proprietario Scopus, che è, in conflitto di interessi, sotto il controllo del più grande oligopolista dell’editoria scientifica commerciale, Elsevier, sono ben noti, tanto che è stato ripudiato dal suo stesso inventore in quanto generatore di conformismo.

La responsabilità del bando, che è uscito prima del suo insediamento, non ricade sul governo attualmente in carica, bensì su quello precedente, detto “dei migliori“. C’è anche una responsabilità dell’ANVUR? La risposta, questa volta, è no.

Sebbene tempestivamente denunciato da “Roars”, pochi si sono accorti che l’articolo 64 comma 3 del decreto-legge 31 maggio 2021 n. 77 ha cambiato, per il periodo della prima applicazione coincidente con la distribuzione dei fondi del PNRR, il nome e le modalità di composizione del Comitato Nazionale dei Garanti della Ricerca (CNGR), ora ribattezzato Comitato Nazionale per la Valutazione della Ricerca (CNVR). Il CNVR ha, fra l’altro, il compito di “indicare i criteri generali per le attività di selezione e valutazione dei progetti di ricerca” finanziati dal MUR. Nella prima applicazione del decreto, dunque, i sette membri del vecchio Comitato Nazionale dei Garanti della Ricerca rimangono in carica, ma vengono affiancati da otto membri nominati direttamente dal ministro dell’università e della ricerca, senza nessun vincolo oltre il rispetto della parità di genere.2 In altre parole, per decidere come e con quali criteri distribuire i fondi PRIN PNRR non solo il ministro può nominare chi vuole, ma i nominati, essendo otto, sono sufficienti per ottenere la maggioranza nelle deliberazioni del comitato – le quali dunque possono venir decise da valutatori di designazione interamente politica.

Con il Decreto 30 luglio 2021, n. 1004 del Ministro dell’Università e Ricerca, la ministra Messa ha provveduto a scegliere gli 8 nuovi componenti del CNVR: si possono leggere in questo articolo di “Roars”. È dunque un comitato con una maggioranza di diretta ed esclusiva emanazione politica che ha consentito questo uso della bibliometria inappropriato, irresponsabile, e perfino impugnabile davanti alla giustizia amministrativa. Per il TAR del Lazio era infatti chiaro già nel 2015 che, perfino se lo trattiamo impropriamente come indicatore di qualità e non di popolarità, il fattore d’impatto riguarda “la qualità complessiva delle singole riviste più che la qualità dei singoli articoli in esse contenuti e redatti dall’interessato”.

A un osservatore esterno i decreti e gli acronimi possono apparire vacui e tediosi esoterismi burocratici: ma in questa vacuità si cela una valutazione di stato ancor meno scientifica e ancora più sottomessa alla politica, specialmente entro un’università impoverita di denaro e di spirito che tende ad attribuire potere e prestigio a chi, ad arbitrio del principe, ottiene fondi per i propri progetti di ricerca. Il “governo dei migliori” si è baloccato irresponsabilmente con la bibliometria. Governi peggiori potranno seguire la via regolamentare che ha predisposto e fare di peggio.

Tags:

Accessi: 171

image_print