Pinocchio, alla presenza del giudice, raccontò per filo e per segno l’iniqua frode, di cui era stato vittima […]. Allora il giudice, accennando Pinocchio ai giandarmi, disse loro: — Quel povero diavolo è stato derubato di quattro monete d’oro: pigliatelo dunque e mettetelo subito in prigione. ―
Carlo Collodi
1. Prodotti pericolosi e non funzionanti
I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani: funzioni quali la traduzione di testi, il riconoscimento facciale, la ricerca per immagini o l’identificazione di contenuti musicali, non trattabili con l’intelligenza artificiale simbolica, sono affrontate con crescente successo dai sistemi di apprendimento automatico (machine learning).
Questi sistemi, di natura sostanzialmente statistica, consentono infatti di costruire modelli a partire da esempi, purché si abbiano a disposizione potenti infrastrutture di calcolo e enormi quantità di dati. Le grandi aziende tecnologiche che, intorno al 2010, in virtù di un modello di business fondato sulla sorveglianza, detenevano già l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le infrastrutture di calcolo per la raccolta e l’elaborazione di tali dati, hanno potuto perciò raggiungere, con l’applicazione di algoritmi in gran parte noti da decenni, traguardi sorprendenti1.
Nella generale euforia per i genuini progressi, le imprese del settore hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti», ben oltre l’effettivo stadio di sviluppo della tecnologia. Con la formula di marketing «intelligenza artificiale», hanno diffuso e messo in commercio sistemi di apprendimento automatico per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono
- le auto a guida autonoma,
- i sistemi di ottimizzazione predittiva,
- i generatori di linguaggio naturale.
1.1 Le auto a guida autonoma
Allo stato attuale della tecnologia, le auto «a guida autonoma» non sono a guida autonoma: non è oggi disponibile alcun veicolo in grado di circolare nelle medesime strade in cui circolano i veicoli tradizionali e nel quale l’occupante umano della vettura sia un mero passeggero. Malgrado i reiterati annunci, nell’ultimo decennio, di una loro imminente commercializzazione, tali veicoli non riescono oggi ad evitare di collidere contro un terzo dei ciclisti e contro tutte le altre auto che siano, pur lentamente, in arrivo. Quanto ai veicoli Tesla già in circolazione, di cui è stata millantata l’autonomia completa (con video rivelatisi poi mere costruzioni cinematografiche), gli sforzi dell’azienda si concentrano oggi nel sostenere, nelle sedi giudiziarie, che «il fallimento nella realizzazione di un ideale obiettivo a lungo termine» non equivalga a una frode, quasi che la vendita, a migliaia di dollari, di un optional denominato «Full self driving capability» potesse essere interpretata dai clienti quale espressione di un mero obiettivo a lungo termine.
1.2. I sistemi di ottimizzazione predittiva
I sistemi di «ottimizzazione predittiva» – ossia gli algoritmi di decisione fondati su previsioni circa il futuro di singoli individui – non sono affatto in grado di prevedere il futuro di singole persone, per la semplice ragione che ciò non è possibile (salvo per chi nutra la convinzione, caratteristica delle antiche attività divinatorie e, oggi, dell’astrologia, che il futuro sia già scritto e leggibile). Eppure, sono in commercio e in uso, ormai da anni, sistemi che consentono di assumere decisioni in modo automatico, grazie alla possibilità di prevedere – si dice – se un cittadino commetterà un crimine, se un candidato per un impiego sarà efficiente e collaborativo, se uno studente abbandonerà gli studi o se un minore sarà maltrattato dai suoi familiari. A una verifica puntuale, tali sistemi risultano così poco affidabili, per la previsione di eventi e azioni individuali, che alcuni ricercatori suggeriscono piuttosto il ricorso a una lotteria tra le persone ammissibili, quando si debbano allocare risorse scarse e non sia possibile utilizzare – anziché sistemi di apprendimento automatico – semplici procedimenti di calcolo con variabili pertinenti ed esplicite. Quando il responso dei sistemi di apprendimento automatico sia utilizzato a fini decisionali, la decisione produce ciò che pretende di prevedere: se il genere predice una paga più bassa e il colore della pelle predice la probabilità di essere fermati dalla polizia, con il passaggio dalla previsione alla decisione tale profilazione sociale si autoavvera, legittimando così, in virtù della presunta oggettività algoritmica, i pregiudizi incorporati nella descrizione statistica iniziale. Simili sistemi producono perciò, infallibilmente, ingiustizia e sofferenze, danneggiando le persone che si trovino – ancorché per ragioni del tutto irrilevanti, rispetto al trattamento inflitto – ai margini dei modelli algoritmici di normalità e dunque violandone infallibilmente i diritti.
1.3. I generatori di linguaggio naturale
I generatori di linguaggio, quali chatGPT e GPT-4, fondati su grandi modelli del linguaggio naturale, sono descritti da OpenAI come dotati della «capacità di comprendere e generare testo in linguaggio naturale», di «fattualità e capacità matematiche», di una conoscenza del mondo, di capacità di ragionamento e della caratteristica di fornire, «occasionalmente», risposte non corrette. In realtà, tali sistemi non conoscono né comprendono alcunché, sono architettonicamente incapaci di ragionamento abduttivo e non sono in grado di fornire alcuna informazione. I grandi modelli del linguaggio naturale sono sistemi che predicono stringhe di testo, in modo statisticamente coerente con il modo in cui le sequenze di forme linguistiche si combinano nei testi di partenza: sono programmi informatici che utilizzano le statistiche sulla distribuzione delle parole per produrre altre stringhe di parole. Sono ulteriormente calibrati, attraverso interazioni con esseri umani, per produrre output che somiglino a quelle che tali esseri umani qualificano come risposte plausibili, pertinenti e appropriate. Le versioni attualmente in distribuzione di tali chatbot, quali chatGPT o GPT-4, sono costruite su un’enorme quantità di dati e opere del lavoro umano – estorti o prelevati in blocco, alla stregua di res nullius, anche quando siano protetti dal diritto alla protezione dei dati personali o dal diritto d’autore – e riproducono con effetti normalizzanti, anziché generativi in senso proprio, la prospettiva egemonica e i suoi stereotipi. Simili sistemi sono modelli del linguaggio, non modelli della conoscenza: producono perciò testi plausibili e convincenti e, al tempo stesso, del tutto privi di valore informativo.
Il genuino progresso costituito dalla «macchina letteraria» – in grado, come scriveva Italo Calvino, di «far stare una parola dietro l’altra seguendo certe regole definite, o più spesso regole non definite né definibili ma estrapolabili da una serie di esempi o protocolli»2 – è sfruttato dalle aziende, oltre che attraverso pratiche di espropriazione del lavoro e di esternalizzazione dei costi ambientali, attraverso una presentazione deliberatamente fuorviante e la generalizzata distribuzione di tali sistemi al pubblico, malgrado la consapevolezza degli inevitabili effetti dannosi. Nella lunga lista dei previsti effetti nefasti di GPT-4, puntualmente elencati da OpenAI nella relativa System card, compaiono l’inquinamento dell’ecosistema dell’informazione («ha il potenziale di mettere in dubbio l’intero ambiente dell’informazione, minacciando la nostra capacità di distinguere i fatti dalla finzione»), la possibilità di truffe e manipolazioni politiche su larghissima scala (con uno strumento che può produrre una miriade di testi, orientati come si desidera e indistinguibili da quelli prodotti da esseri umani) e «la tendenza a inventare i fatti, a fornire informazioni errate e a svolgere compiti in modo scorretto», tanto più pericolosa quanto più sono stati resi plausibili, e dunque ingannevoli by design, i suoi output. A fronte di queste caratteristiche, il CEO di OpenAI twitta giulivo che chi non può permettersi le cure potrà farsi curare da un generatore di linguaggio, e le aziende che commercializzano applicazioni per l’assistenza mentale registrano milioni di abbonati, sfruttando, manipolando e mettendo in pericolo le persone più vulnerabili.
Commercializzare impunemente prodotti pericolosi e non funzionanti non è impresa da poco. Ma l’operazione di propaganda dei giganti della tecnologia ha ottenuto, finora, ben altro: un’impostazione del discorso pubblico che punisce le vittime, come in quel paese di Acchiappacitrulli in cui Collodi aveva fatto finire il suo povero burattino, e l’assimilazione dei colpevoli a lungimiranti paladini dell’umanità.
2. Le vittime colpevoli e altre storie
L’impiego di sistemi di apprendimento automatico per funzioni che essi, in virtù delle loro caratteristiche strutturali, non possono svolgere, genera danni e sofferenze agli esseri umani coinvolti. Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, come i sistemi normativi – fin dal Codice di Hammurabi – usualmente prevedono, la loro commercializzazione non sarebbe vantaggiosa (quand’anche il diritto non la vietasse tout court).
Le grandi aziende tecnologiche che distribuiscono tali sistemi hanno adottato perciò una strategia analoga a quella utilizzata a suo tempo dalle industrie del tabacco: hanno finanziato la ricerca universitaria e la divulgazione scientifica e utilizzato i mezzi di comunicazione pubblica (che esse stesse detengono) per diffondere una famiglia di narrazioni, sulla natura e le prestazioni degli attuali sistemi di intelligenza artificiale, che tutela, legittimandolo, un modello di business fondato sulla sorveglianza e sulla possibilità di esternalizzare impunemente i costi del lavoro, degli effetti ambientali e dei danni sociali.
È ormai largamente condivisa, perciò, l’idea che ai danni prodotti dai sistemi di apprendimento automatico si debba reagire non come dinanzi a qualsiasi prodotto pericoloso e non funzionante, ossia vietandone la vendita e l’utilizzo (oltre che la pubblicità ingannevole), e imponendo ai responsabili il pagamento dei danni, bensì come dinanzi a un problema di allineamento dei valori, di etica dell’intelligenza artificiale o di equità algoritmica, quasi che gli algoritmi potessero essere destinatari di un’opera di moralizzazione, in grado di aggiungere a sistemi statistici automatizzati, quale procedura computazionale tra le altre, la facoltà del giudizio morale.
Su questi temi, propongo alla revisione paritaria aperta due articoli:
- What’s wrong with «AI ethics narratives» (DOI: 10.5281/zenodo.7156364)
- L’«etica» come specchietto per le allodole. Sistemi di intelligenza artificiale e violazioni dei diritti (DOI: 10.5281/zenodo.7799775).
2.1 La cattura culturale
Le narrazioni – idee trasmesse nella forma di storie – diffuse dalle grandi compagnie tecnologiche danno forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia.
Definendo gli assiomi del dibattito, le grandi imprese impongono quali priorità politiche le loro priorità aziendali. La tradizionale «cattura del regolatore», realizzata tramite gli opportuni incentivi o tramite il meccanismo delle revolving doors, è così accompagnata dalla cattura culturale: con un’operazione di propaganda, «colonizzando l’intero spazio dell’intermediazione scientifica», si ottiene che il regolatore – al pari dell’opinione pubblica – condivida in partenza l’impostazione desiderata e che chiunque esprima preoccupazioni sia etichettato come retrogrado o luddista.
Sono così entrate a far parte del senso comune una precisa impostazione di fondo e uno specifico set di problemi e soluzioni, brevemente illustrati di seguito.
2.1.a. Il principio di inevitabilità tecnologica
Il progresso tecnologico è considerato inarrestabile e di ogni singola tecnologia si dà per scontato che sia «qui per restare» o che «se non lo facciamo noi, lo farà qualcun altro». Qualsiasi dibattito ha luogo perciò entro la «logica del fatto compiuto», così che la possibilità di non costruire affatto alcuni sistemi o di non utilizzarli per alcune finalità non possa essere neppure contemplata.
2.1.b. Il principio di innovazione
Il principio di innovazione – fondato sul tacito assunto che qualsiasi innovazione tecnologica sia foriera di competitività e occupazione e debba perciò essere assecondata, anche a scapito del principio di precauzione – è in genere la maschera dietro la quale grandi aziende rivendicano la tutela dei loro concreti interessi economici. Gli studi più recenti mostrano, del resto, che i monopoli del capitalismo intellettuale ostacolano qualsiasi innovazione, per quanto dirompente e benefica, che non si adatti al loro modello di business, promuovendo principalmente un’innovazione tossica che estrae o distrugge valore, anziché produrlo.
2.1.c. La prospettiva soluzionistica
Le questioni di giustizia sono presentate quali questioni di design tecnico e la soluzione dei problemi sociali è assimilata al loro trattamento con sistemi di apprendimento automatico. Agli stessi danni generati dall’uso di dispositivi tecnologici si ritiene di poter rimediare con l’applicazione di ulteriori soluzioni tecnologiche. In questo modo, si oscura la natura politica della decisione di assimilare le questioni sociali a problemi di disciplinamento e controllo, passibili di soluzioni tecniche.
2.1.d. L’antropomorfizzazione delle macchine e la deumanizzazione delle persone
La tendenza spontanea ad antropomorfizzare gli oggetti della tecnologia è sfruttata dalle aziende per indurre la convinzione che i loro prodotti siano in grado di comprendere, conoscere, consigliare o giudicare in senso proprio; correlativamente, il cervello è assimilato a un computer, gli esseri umani a macchine e i volti delle persone a codici a barre, così da giustificare il fatto che le persone siano effettivamente trattate come cose, nei processi in cui si decidono le loro sorti sulla base di statistiche automatizzate, a partire da etichette e collezioni di dati che – a qualsiasi titolo e pur senza alcun riferimento a contesti e significati – li riguardino.
2.1.e. I miti dell’eccezionalismo tecnologico e del vuoto giuridico
La tesi che le leggi vigenti non si applichino ai prodotti basati su sistemi di «intelligenza artificiale», in virtù della loro novità e straordinarietà, e che servano dunque nuove leggi, scritte ad hoc per ciascuna tecnologia, serve a dar luogo a una corsa che vedrà il legislatore perennemente in affanno, nel rincorrere le più recenti novità tecnologiche, le quali saranno dunque commercializzabili eslege. Tale affermazione dell’eccezionalismo tecnologico è in genere assunta tacitamente:
Negli ultimi decenni la Silicon Valley è riuscita a costruire intorno a sé una fortezza antiregolamentare promuovendo il mito – di rado dichiarato apertamente, ma ampiamente condiviso dagli operatori del settore – che il settore “tech” sia in qualche modo fondamentalmente diverso da ogni altra industria che l’ha preceduto. È diverso, secondo questo mito, perché è intrinsecamente animato da buone intenzioni e produrrà prodotti non solo nuovi, ma anche precedentemente impensabili. Qualsiasi danno a livello micro – sia esso a un individuo, a una comunità vulnerabile o a un intero paese – è considerato da questa logica un valido compromesso per un “bene” a livello macro, in grado di cambiare la società.
Il mito del vuoto giuridico ha consentito alle grandi aziende di fondare il loro modello di business su una «bolla giuridica», ossia su una generale violazione di diritti giuridicamente tutelati, impedendo, fin qui, di constatare che esse stanno violando leggi vigenti, applicabili anche ai nuovi prodotti.
In assenza di precedenti, come osserva Erevan Malroux, pur in presenza di una risposta del diritto, è possibile che vi siano dubbi sul significato di quella risposta (ossia una «vaghezza giuridica») o che la risposta non sia ritenuta soddisfacente («ad esempio, quando una pratica è consentita, mentre la società ritiene che dovrebbe essere regolamentata in modo più rigoroso») e che sia opportuno, perciò, adottare regolamenti specifici.
2.1.f. Gli allarmi su rischi e pericoli tratti dal futuro o dalla fantascienza
Con allarmi sul rischio che «menti digitali sempre più potenti» sfuggano al nostro controllo, le grandi aziende tecnologiche convogliano le paure collettive verso oggetti immaginari (distraendo tali fondate paure dai loro veri oggetti: una tecnologia che il capitalismo userà contro noi e la «nostra incapacità di regolare il capitalismo» medesimo). Sono così oscurate le violazioni di diritti, i costi esternalizzati e i danni reali causati dalla concentrazione di potere e dal modello di business dei monopoli del capitalismo intellettuale. Questo elemento della narrazione confluisce talora nel seguente.
2.1.g. I messianesimi eugenetici
Una congerie di utopie per multimiliardari bianchi (nelle quali confluiscono ideologie complessivamente denominate TESCREAL) invitano l’opinione pubblica a occuparsi del futuro dell’umanità (donde il termine longtermism), anziché del presente, e variamente vagheggiano scenari in cui il bene dell’umanità sarà il frutto delle tecnologie su cui questi stessi multimiliardari intendono, di volta in volta, lucrare. Filosoficamente inconsistenti e massicciamente finanziate, hanno in comune deliri eugenetici e un concetto di “umanità” che esclude gran parte degli esseri umani.
Ne è un esempio recente la proposta del Chief Economist di Microsoft al World Economic Forum:
Non dovremmo regolamentare l’IA finché non vediamo un danno significativo che si stia effettivamente verificando […] Deve esserci almeno un minimo di danno, in modo da capire quale sia il vero problema
la natura della cui distrazione somiglia a quella della zia Sally, in Le avventure di Huckleberry Finn:
«Ci è scoppiata una caldaia».
«Dio santo! Ci sono stati dei feriti?»
«No, signora. È morto un negro».
«Che fortuna! Poteva farsi male qualcuno […]»3
2.2 Il paese di Acchiappacitrulli
Le diverse narrazioni concorrono, congiuntamente, al perseguimento di singoli scopi aziendali: al fine di sfuggire alle responsabilità per gli effetti dannosi dei prodotti, ad esempio, sono utili l’eccezionalismo, l’antropomorfizzazione delle macchine e, insieme, il «principio di inevitabilità tecnologica», secondo un meccanismo che Joseph Weizenbaum aveva descritto quasi mezzo secolo fa:
Il mito dell’inevitabilità tecnologica, politica e sociale è un potente tranquillante per la coscienza. Il suo servizio è quello di togliere la responsabilità dalle spalle di tutti coloro che ci credono veramente. Ma, in realtà, ci sono degli attori! […] La reificazione di sistemi complessi che non hanno autori, di cui sappiamo solo che ci sono stati dati in qualche modo dalla scienza e che parlano con la sua autorità, non permette di porsi domande di verità o di giustizia.4
Poiché qualcuno deve pur pagare i danni, gli appelli all’eccezionalità delle nuove tecnologie sono accompagnati dalla proposta di una responsabilità distribuita anche tra gli utenti e le vittime o da quella di attribuire un ruolo decisivo agli esseri umani coinvolti nei processi automatizzati (human on the loop), affidando a una persona il compito di intervenire, con prontezza fulminea, nei casi di emergenza, o di rettificare il responso imperscrutabile di un sistema automatico. L’introduzione di un inverosimile controllo umano svolge la funzione di legittimare l’uso di sistemi pericolosi, attribuendo all’essere umano il ruolo di capro espiatorio. Quanto simili strategie aziendali siano analoghe alle truffe in senso stretto, è manifesto nei casi in cui le vittime siano colpevoli by design, come pare sia stato specificamente previsto nei veicoli Tesla attraverso un meccanismo di disattivazione dellla funzione Autopilot un secondo prima dell’impatto, così da far risultare che il veicolo, al momento dello schianto, fosse affidato al passeggero umano.
Un ulteriore dispositivo per diffondere impunemente prodotti insicuri e incolpare sistematicamente utenti e clienti è l’offuscamento della linea di confine tra la fase di ricerca e sperimentazione e quella della distribuzione e commercializzazione di prodotti: OpenAI, ad esempio, rende pubblicamente disponibili i propri generatori di linguaggio naturale, in fase sperimentale, ne distribuisce al tempo stesso versioni a pagamento e fissa termini d’uso in virtù dei quali ogni utente è responsabile, secondo una logica analoga a quella del paese di Acchiappacitrulli, tanto dei propri input quanto degli output prodotti dal sistema (sui quali, ovviamente, non ha alcuna facoltà di controllo o decisione e i cui fondamenti gli sono del tutto oscuri).
Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili i sistemi normativi normativi vigenti e gli ordinari criteri di attribuzione della responsabilità, si oppone oggi una crescente consapevolezza del fatto che i sistemi informatici sono artefatti, ossia oggetti, e che non c’è alcuna ragione per sottrarne la distribuzione e la commercializzazione alla legislazione ordinaria.
3. Le leggi in vigore valgono anche per l’«intelligenza artificiale»
I sistemi informatici fondati sull’«intelligenza artificiale» devono essere considerati quali meri prodotti. Per chi non li consideri, antropomorficamente, quali agenti, resta infatti valida la tradizionale dicotomia tra soggetti giuridici e oggetti. L’eventuale impossibilità di risalire alla responsabilità dovrebbe perciò essere assimilata giuridicamente, anziché a un rebus filosofico, a una forma di negligenza del produttore. La responsabilità per gli effetti dannosi di tali prodotti, prevedibili o imprevedibili che siano, potrà essere agevolmente oggetto delle soluzioni giuridiche ordinariamente definite, nel rispetto del principio cuius commoda, eius et incommoda e tenendo conto della «radicale asimmetria di potere» e di profitto «tra coloro che sviluppano e distribuiscono i sistemi algoritmici e i singoli utenti che sono soggetti ad essi».
Di recente, la Federal Trade Commission statunitense ha pubblicamente smascherato la natura strumentale delle narrazioni sull’eccezionalismo tecnologico. In netto contrasto con la posizione delle grandi aziende, ha dichiarato che i prodotti della tecnologia sono soggetti alle norme in vigore e che l’impossibilità, per ragioni tecniche, di ottemperare a ciò che le leggi esigono non è una ragione per dichiararsi esentati da quelle stesse leggi e chiederne di nuove, bensì – come in qualsiasi altro settore a fronte di una constatazione di illegalità – una ragione per non commercializzare affatto simili prodotti:
C’è un mito potente in giro secondo il quale «l’IA non è regolamentata». […] Ha un forte fascino intuitivo: suona bene. Come potrebbero queste misteriose nuove tecnologie essere regolamentate dalle nostre vecchie leggi polverose?
Se l’avete sentita o l’avete detta, fate un passo indietro e chiedetevi: a chi giova questa idea? Non aiuta i consumatori, che si sentono sempre più indifesi e smarriti. Non aiuta la maggior parte delle aziende. […]
Credo che l’idea secondo cui «l’IA non è regolamentata» aiuti quel piccolo sottoinsieme di imprese che non sono interessate alla compliance. E abbiamo già sentito frasi simili. «Non siamo una compagnia di taxi, siamo una compagnia tecnologica». «Non siamo un’azienda alberghiera, siamo un’azienda tecnologica». Queste affermazioni erano di solito seguite da affermazioni secondo cui le norme statali o locali non potevano essere applicate a queste aziende.
La realtà è che l’IA è regolamentata. Solo alcuni esempi:
– Le leggi sulle pratiche commerciali sleali e ingannevoli si applicano all’IA. […]
– Le leggi sui diritti civili si applicano all’IA. […]
– Le leggi sulla responsabilità civile e da prodotto si applicano all’IA.
In una Dichiarazione congiunta, la Federal Trade Commission e altre tre agenzie federali hanno reso noto che, negli interventi di applicazione delle leggi vigenti, esse intendono utilizzare «con vigore» le loro prerogative «per proteggere i diritti degli individui, indipendentemente dal fatto che le violazioni del diritto avvengano attraverso mezzi tradizionali o tecnologie avanzate». La pretesa che i nuovi sistemi di intelligenza artificiale siano emersi in un «vuoto giuridico» è respinta come infondata, sulla base della elementare constatazione che i codici non prevedono che l’intelligenza artificiale sia esentata dalle leggi.
Quanto al generale non funzionamento di intere categorie di prodotti che le aziende presentano come fondati su sistemi di «intelligenza artificiale», la Commissione esprime la propria consapevolezza di tali pratiche e la decisione di assimilarle a pubblicità ingannevole o a frode:
il fatto è che alcuni prodotti con pretese di IA potrebbero anzitutto non funzionare come pubblicizzato. In alcuni casi, questa mancanza di efficacia può sussistere indipendentemente dagli altri danni che i prodotti potrebbero causare. Chi li commercia deve sapere che, ai fini dell’applicazione della FTC, le affermazioni false o non comprovate sull’efficacia di un prodotto sono il nostro pane quotidiano.
Nell’esempio di prodotti che, in virtù della natura fantascientifica delle prestazioni vantate, non possono funzionare, è evidente il riferimento della Commissione ai sistemi di ottimizzazione predittiva:
State esagerando quello che il vostro prodotto di IA può fare? O addirittura sostenete che può fare qualcosa che va oltre le attuali capacità di qualsiasi tecnologia di IA o automatizzata? Ad esempio, non viviamo ancora nel regno della fantascienza, dove i computer possano fare previsioni affidabili del comportamento umano. Le vostre dichiarazioni riguardo alle prestazioni saranno considerate ingannevoli se non avranno un fondamento scientifico o se si applicheranno solo a certi tipi di utenti o in certe condizioni.
Spesso, alla constatazione dei danni e delle violazioni dei diritti che hanno luogo quando si utilizzino sistemi di apprendimento automatico per funzioni che essi non possono svolgere, le aziende oppongono argomenti basati sull’antropomorfizzazione delle macchine e la deumanizzazione delle persone. L’imperscrutabilità delle mente umana, ad esempio, renderebbe lecito il rilascio di prodotti inspiegabili e imprevedibili, ossia costitutivamente non sicuri. Così il CEO di Google, in una recente intervista:
Scott Pelley: Non capite bene come funziona. Eppure, l’avete scaricato sulla società?
Sundar Pichai: Sì, è così. Mettiamola così. Non credo che comprendiamo appieno neppure il funzionamento della mente umana.
A simili artifici retorici, la Federal Trade Commission risponde ricordando che la Commissione medesima «storicamente non ha reagito bene all’idea che un’azienda non sia responsabile del proprio prodotto perché questo è una «scatola nera» incomprensibile o difficile da testare» e che, nei casi in cui la legge esiga spiegazioni, «l’inspiegabilità o l’imprevedibilità di un prodotto è raramente una difesa giuridicamente ammissibile».
La trasparenza è richiesta anzitutto sui dati di partenza, rendendo note le fonti dei dati e l’eventuale consenso degli interessati. Su questo aspetto, i più recenti provvedimenti della Commissione mostrano una radicalità nuova: in alcuni casi di dati ottenuti impropriamente, essa ha ottenuto infatti non la mera cancellazione di tali dati, ma la distruzione di tutti i modelli e gli algoritmi costruiti utilizzando tali dati.
Quanto alla responsabilità per i prevedibili danni derivanti dalla distribuzione di alcuni prodotti, la Presidente della Federal Trade Commission, Lina Khan, avverte, con specifico riferimento alla possibilità di automatizzare le frodi online, tramite i generatori di linguaggio:
Nell’applicare il divieto di pratiche ingannevoli, non ci limiteremo a considerare i truffatori occasionali che impiegano questi strumenti, ma anche le aziende a monte che li mettono a disposizione.
Il ruolo delle «aziende a monte» e gli effetti antidemocratici della concentrazione di potere in tali aziende – le quali hanno ormai dimensioni e prerogative che le rendono assimilabili ai più potenti Stati nazionali – costituiscono in effetti uno dei nodi cruciali: come ricorda l’AI Now Institute nel suo Rapporto del 2023, «la politica della concorrenza dovrebbe diventare una parte fondamentale del pacchetto di strumenti per la responsabilità nel settore tecnologico». Del resto, è alla consapevolezza del nesso strettissimo tra interventi antrust e politiche per la tutela dei diritti che si deve l’impostazione di fondo della Federal Trade Commission in materia di intelligenza artificiale, poiché, come ha scritto Shoshana Zuboff, «è possibile avere il capitalismo della sorveglianza ed è possibile avere la democrazia», ma «non è possibile sostenere entrambi».
A tale impostazione, si oppone la richiesta delle grandi aziende di privilegiare invece un approccio basato sui rischi. La posta in gioco è lucidamente espressa dall’AI Now Institute: «l’esperienza europea ci insegna quanto sia pericoloso il passaggio da un quadro normativo «basato sui diritti», come nel GDPR, a uno «basato sui rischi», come nel prossimo AI Act, e su come l’impostazione fondata sul «rischio» (in contrapposizione ai diritti) possa spostare il terreno di gioco a favore di quadri volontari e standard tecnici guidati dall’industria». L’approccio basato sui rischi si concentra in effetti, come osserva Margot Kaminski, sui soli danni assunti come prevedibili e quantificabili, oscurando le violazioni dei diritti individuali e i danni alle società democratiche; poiché dà per scontato che i sistemi di «intelligenza artificiale» funzionino e debbano essere adottati, si limita a smussarne gli spigoli, dimenticando completamente – come hanno rilevato il Comitato europeo per la protezione dei dati e il Garante europeo per la protezione dei dati a proposito della proposta di AI Act – gli individui che, a qualsiasi titolo, siano affetti dai sistemi di intelligenza artificiale. Riducendo a questioni tecniche valutazioni e decisioni intrinsecamente politiche, l’approccio basato sui rischi assume tacitamente il principio dell’inevitabilità tecnologica e una prospettiva soluzionista, a tutela del modello di business delle grandi aziende tecnologiche. Queste paiono costituire, al momento, «il fantasma lobbista nella macchina» della regolazione.
- ‘Open Secrets’: An Interview with Meredith Whittaker, in Economies of Virtue: The Circulation of ‘Ethics’ in AI, a cura di T. Phan, J. Goldenfein, D. Kuch, M. Mann, Amsterdam, Institute of Network Cultures, 2022, https://networkcultures.org/blog/publication/economies-of-virtue-the-circulation-of-ethics-in-ai/, pp. 140-152: 145.↩︎
- I. Calvino, Cibernerica e fantasmi (Appunti sulla narrativa come processo combinatorio), in Idem, Una pietra sopra, Milano, Mondadori 20233, pp. 201-221.↩︎
- H.L.A. Hart, The Concept of Law, Oxford 1961, trad. it. Il concetto di diritto, a cura di Mario A. Cattaneo, Torino 2009, p. 233.↩︎
- J. Weizenbaum, Computer Power and Human Reason. From Judgement to Calculation, San Francisco, W.H. Freeman & Company, 1976, pp. 241, 252, https://archive.org/details/computerpowerhum0000weiz_v0i3.↩︎
Nota bibliografica
- M. Abdalla, M. Abdalla, The Grey Hoodie Project: Big Tobacco, Big Tech, and the threat on academic integrity, in Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society (AIES ’21), May 19–21, 2021, Virtual Event, New York, ACM, 2021, pp. 287-297, https://arxiv.org/abs/2009.13676v4.
- A. Alkhatib, To Live in Their Utopia: Why Algorithmic Systems Create Absurd Outcomes, in Conference on Human Factors in Computing Systems (CHI ’21), May 8–13, 2021, Yokohama, Japan, New York, ACM, 2021, https://ali-alkhatib.com/papers/chi/utopia/utopia.pdf.
- M. Atleson, Keep your AI claims in check, Febraury 27, 2023, https://www.ftc.gov/business-guidance/blog/2023/02/keep-your-ai-claims-check.
- S. Barocas, M. Hardt, A. Narayanan, Fairness and Machine Learning: Limitations and Opportunities, 2019, http://www.fairmlbook.org.
- E.M. Bender, T. Gebru, A. Mc Millan-Major, S. Shmitchell, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, in Conference on Fairness, Accountability, and Transparency (FAccT ’21), March 3–10, 2021, Virtual Event, Canada, New York, ACM, 2021, https://dl.acm.org/doi/10.1145/3442188.3445922.
- A. Birhane, E. Ruane, T. Laurent, M.S. Brown, J. Flowers, A. Ventresque, C.L., Dancy, The Forgotten Margins of AI Ethics, in Conference on Fairness, Accountability, and Transparency (FAccT ’22), cit., https://doi.org/10.1145/3531146.3533157.
- M. Broussard, More than a Glitch. Confronting Race, Gender, and Ability Bias in Tech, Cambridge, Massachusetts, MIT Press, 2023.
- A. Casilli, Schiavi del clic. Perché lavoriamo tutti per il nuovo capitalismo?, Milano, Feltrinelli, 2020.
- R. Caso, Open Data, ricerca scientifica e privatizzazione della conoscenza, 2022, https://www.robertocaso.it/2022/01/22/dati-aperti-della-ricerca-o-proprieta-intellettuale/.
- R. Claypool and C. Hunt, “Sorry in Advance!” Rapid Rush to Deploy Generative A.I. Risks a Wide Array of Automated Harms, April 18, 2023, https://www.citizen.org/article/sorry-in-advance-generative-ai-artificial-intellligence-chatgpt-report/.
- N. Couldry, U.A. Mejias, Data Colonialism: Rethinking Big Data’s Relation to the Contemporary Subject, «Television & New Media», XX, 4, 2018, pp. 336–49.
- A. Crary, The toxic ideology of longtermism, «Radical Philosophy», 214, 2023, pp. 49–57, https://www.radicalphilosophy.com/commentary/the-toxic-ideology-of-longtermism.
- K. Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA, Bologna, Il Mulino, 2021.
- N. Cristianini, Shortcuts to Artificial Intelligence, in Machines We Trust. Perspectives on Dependable AI, ed. by M. Pelillo, T. Scantamburlo, Cambridge, Massachusetts, The MIT Press, 2021, pp. 11-25, https://philpapers.org/archive/CRISTA-3.pdf.
- N. Cristianini, La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano, Bologna, Il Mulino, 2023.
- C. Doctorow, How to Destroy Surveillance Capitalism, «OneZero», August 26, 2020, https://onezero.medium.com/how-to-destroy-surveillance-capitalism-8135e6744d59.
- Early Thoughts on Generative AI. Prepared Remarks of Commissioner Alvaro M. Bedoya, Federal Trade Commission Before the International Association of Privacy Professionals, April 5, 2023, https://www.ftc.gov/news-events/news/speeches/prepared-remarks-commissioner-alvaro-m-bedoya-international-association-privacy-professionals
- Economies of Virtue: The Circulation of ‘Ethics’ in AI, a cura di T. Phan, J. Goldenfein, D. Kuch, M. Mann, Amsterdam, Institute of Network Cultures, 2022, https://networkcultures.org/blog/publication/economies-of-virtue-the-circulation-of-ethics-in-ai/.
- Y. Eisenstat, N. Gilman, The Myth of Tech Exceptionalism, «Noēma», February 10, 2022 https://www.noemamag.com/the-myth-of-tech-exceptionalism/
- E. Esposito, Comunicazione artificiale. Come gli algoritmi producono intelligenza sociale, Bocconi University Press, 2022.
- A. Ezrachi, M. E. Stucke, How Big-Tech Barons Smash Innovation – And How To Strike Back, HarperCollins, 2022.
- T. Gebru, E.M. Bender, A. McMillan-Major, M. Mitchell, Statement from the listed authors of Stochastic Parrots on the “AI pause” letter, March 31, 2023, https://www.dair-institute.org/blog/letter-statement-March2023.
- M. Giraudo, Legal Bubbles, in Encyclopedia of Law and Economics, a cura di A. Marciano, G.B. Ramello, New York, Springer, 2022, https://www.researchgate.net/publication/357702553.
- J.A. Goland, Algorithmic Disgorgement: Destruction of Artificial Intelligence Models as The FTC’s Newest Enforcement Tool for Bad Data, «Richmond Journal of Law & Technology» 29, 2, 2023, https://jolt.richmond.edu/files/2023/03/Goland-Final.pdf.
- B. Green, The flaws of policies requiring human oversight of government algorithms, «Computer Law & Security Review», XLV, 2022, https://www.sciencedirect.com/science/article/pii/S0267364922000292.
- S.-A. Hong, Predictions without futures, «History and Theory», 61, 3, 2022, pp. 371-390, https://onlinelibrary.wiley.com/doi/10.1111/hith.12269.
- A. Kak, S. Myers West, AI Now 2023 Landscape: Confronting Tech Power, AI Now Institute, April 11, 2023, https://ainowinstitute.org/2023-landscape.
- M.E. Kaminski, The Developing Law of AI: a Turn to Risk Regulation, April 2023, https://www.lawfareblog.com/developing-law-ai-regulation-turn-risk-regulation.
- E. Klein, The Imminent Danger of A.I. Is One We’re Not Talking About, «New York Times», February 26, 2023, https://www.nytimes.com/2023/02/26/opinion/microsoft-bing-sydney-artificial-intelligence.html.
- E. Malroux, Quelles régulations pour la conception des IA génératives?, 26 avril 2023, https://linc.cnil.fr/fr/dossier-ia-generative-quelles-regulations-pour-la-conception-des-ia-generatives
- D. McQuillan, Resisting AI. An Anti-fascist Approach to Artificial Intelligence, Bristol, Bristol University Press, 2022.
- E. Morozov, To Save Everything, Click Here: The Folly of Technological Solutionism, New York, Public Affairs, 2013, https://archive.org/details/tosaveeverything0000moro.
- R. Ochigame, The Invention of “Ethical AI”. How Big Tech Manipulates Academia to Avoid Regulation, «The Intercept», December 20, 2019, https://theintercept.com/2019/12/20/mit-ethical-ai-artificial-intelligence/.
- OpenAI, GPT-4 Technical Report, 2023, https://arxiv.org/abs/2303.08774.
- U. Pagano, The Crisis of Intellectual Monopoly Capitalism, «Cambridge Journal of Economics», XXXVIII, 2014, pp. 1409-1429, https://ssrn.com/abstract=2537972.
- F. Pasquale e G. Malgieri, From Transparency to Justification: Toward Ex Ante Accountability for AI, «Brussels Privacy Hub Working Papers», VIII, 33, 2022, pp. 1-27, https://brusselsprivacyhub.com/wp-content/uploads/2022/05/BPH-Working-Paper-vol8-N33.pdf.
- V. Prabhakaran, M. Mitchell, T. Gebru, I. Gabriel, A Human Rights-Based Approach to Responsible AI, 2022, https://arxiv.org/abs/2210.02667.
- I.D. Raji, I.E. Kumar, A. Horowitz, A.D. Selbst, The Fallacy of AI Functionality, in Conference on Fairness, Accountability, and Transparency (FAccT ’22), June 21–24, 2022, Seoul, Republic of Korea, New York, ACM, 2022, https://doi.org/10.1145/3531146.3533158.
- E.M. Renieris, Beyond data: reclaiming human rights at the dawn of the metaverse, Cambridge, Massachusetts, The MIT Press, 2023.
- A. Saltelli, D.J. Dankel, M. Di Fiore, N. Holland, M. Pigeon, Science, the endless frontier of regulatory capture, «Futures», CXXXV, 2022, pp. 1-14, https://doi.org/10.1016/j.futures.2021.102860.
- L. Stark, J. Hutson, Physiognomic Artificial Intelligence, «Fordham Intellectual Property, Media and Entertainment Law Journal», XXXII, 4, 2022, pp. 922-978, https://ir.lawnet.fordham.edu/iplj/vol32/iss4/2.
- J. Stilgoe, Who’s Driving Innovation? New Technologies and the Collaborative State, Cham, Palgrave Macmillan, 2020, pp. 40-41.
- The lobbying ghost in the machine. Big Tech’s covert defanging of Europe’s AI Act, February 23, 2023, https://corporateeurope.org/en/2023/02/lobbying-ghost-machine.
- K. Yeung, A Study of the Implications of Advanced Digital Technologies (Including AI Systems) for the Concept of Responsibility Within a Human Rights Framework, Council of Europe, 2019, pp. 39-40, 64-65, https://rm.coe.int/a-study-of-the-implications-of-advanced-digital-technologies-including/168094ad40.
- I. Van Rooij, Stop feeding the hype and start resisting, 2022, https://irisvanrooijcogsci.com/2023/01/14/stop-feeding-the-hype-and-start-resisting/.
- B. Wagner, Ethics As An Escape From Regulation. From “Ethics-Washing” To Ethics-Shopping?, in Being Profiled: Cogitas Ergo Sum, ed. by E. Bayamlioglu, I. Baraliuc, L.A.W. Janssens, M. Hildebrandt, Amsterdam, Amsterdam University Press, 2018, pp. 84-89, https://www.degruyter.com/document/doi/10.1515/9789048550180-016/html.
- A. Wang, S. Kapoor, S. Barocas, A. Narayanan, Against Predictive Optimization: On the Legitimacy of Decision-Making Algorithms that Optimize Predictive Accuracy, October 4, 2022, pp. 1-29, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4238015.
- K. Werbach, D. Zaring Systemically Important Technology, «Texas Law Review», 101, 4, pp. 811-875, https://texaslawreview.org/systemically-important-technology/.
- M. Whittaker, The steep cost of capture, «Interactions», 28, 6, 2021, pp. 51-55, https://interactions.acm.org/archive/view/november-december-2021/the-steep-cost-of-capture.
- O. Williams, How Big Tech funds the debate on AI ethics, «The New Statesman», June 6, 2019 (updated June 7, 2021), https://www.newstatesman.com/science-tech/2019/06/how-big-tech-funds-debate-ai-ethics.
- T. Wu, The Curse of Bigness. Antitrust in the New Gilded Age, New York, Columbia Global Reports, 2018.
- S. Zuboff, Surveillance Capitalism or Democracy? The Death Match of Institutional Orders and the Politics of Knowledge in Our Information Civilization, «Organization Theory», III, 3, 2022, https://doi.org/10.1177/26317877221129290.
Sull’influenza degli interessi del finanziatore privato su una ricerca pubblica via via più proletarizzata ed eteronoma, vale la pena di richiamare, oltre all’industria del tabacco, un altro precedente e termine di paragone interessante, quello dell’oppioide Oxycontin, che a suo tempo fu presentato filantropicamente come un farmaco in grado di liberare dal dolore. Qui si racconta della cattura della ricerca scientifica, e del regolatore stesso, compiuta allo scopo di indurre i medici di famiglia statunitensi a superare la loro fondata riluttanza a prescrivere un derivato dall’oppio come antidolorifico. E ora se ne fanno perfino serie TV.