Prima pagina

Affiche - L'Alcool est un Poison

L’Unione Europea ha patrocinato la formazione di COARA, una coalizione composta promiscuamente da università, enti di ricerca, associazioni scientifiche e agenzie di valutazione, con lo scopo di limitare la bibliometria a un uso responsabile. Ha avuto cura di escludere dalla coalizione, perché in conflitto di interessi, gli editori commerciali, che in una lega per la temperanza farebbero la parte dei produttori di alcolici, ma non le agenzie della valutazione di stato o comunque amministrativa, che farebbero la parte delle osterie. Ma mentre nelle osterie che spacciano spirito si va liberamente, quelle che impongono bibliometria di stato come arma di valutazione di massa sono a frequentazione coatta e, in una lega per la sobrietà bibliometrica, in radicale conflitto di interessi.

Per quanto, come spiega l’articolo di Francesca Di Donato di cui questo intervento è una revisione paritaria aperta, sarebbe stato possibile sviluppare creativamente i principi di COARA in senso kantiano, la riforma, in Italia, sta risultando poco incisiva. La responsabilità è anche dell’UE, la quale, in veste di Unione Elusiva, ha dato antikantianamente indicazioni su come si valuta senza chiedersi chi valuta, e dunque senza toccare la valutazione amministrativa – il che è come promuovere una campagna per la sobrietà fra i bevitori lasciando aperte le osterie di stato a frequentazione coatta e addirittura permettendone la collaborazione.

Leggi l’articolo

Pinocchio in partenza per il Paese dei balocchi

Come l’omino di burro del romanzo di Collodi, chi introduca nelle scuole e nelle università strumenti di “intelligenza artificiale generativa”, promette agli studenti un Paese dei Balocchi in cui potranno scrivere senza aver pensato.

I sistemi neoliberali – nei quali si ritiene che la didattica sia un addestramento ai test e che la valutazione delle opere dei ricercatori non ne richieda la lettura – sono già pronti a un simile annientamento dell’istruzione pubblica e alla sua sostituzione con qualche software proprietario.

Leggi l’articolo

L'Occasione

L’articolo che Paola Galimberti offre alla revisione paritaria aperta enumera le occasioni perdute della scienza aperta italiana: come mai a tante dichiarazioni e pianificazioni hanno fatto seguito azioni così rare, scoordinate e sottofinanziate?

Dopo vent’anni dalla dichiarazione di Messina, dovremmo in effetti chiederci se la questione della scienza aperta italiana sia solo un problema amministrativo che istituzioni e funzionari più consapevoli e illuminati sarebbero in grado di affrontare, e considerare l’ipotesi che il suo seme non abbia attecchito semplicemente perché fin dall’inizio è stato piantato solo un simulacro di pietra da esibire in eventi cerimoniali e declaratori, mentre il sistema della ricerca veniva indirizzato altrove, con l’acquiescenza dei più.

Leggi la presentazione

Foto di Gerd Altmann

Illegalità dei sistemi di intelligenza artificiale, fino a prova contraria: è la proposta di Frank Pasquale e Gianclaudio Malgieri, fondata sull’evidenza delle violazioni dei diritti individuali che hanno luogo quando i sistemi di intelligenza artificiale sono utilizzati per ottenere classificazioni o produrre decisioni che hanno effetti rilevanti sulle vite delle persone. I modelli di IA ad alto rischio incorporati oggi in prodotti e servizi dovrebbero essere disciplinati entro un sistema di “illegalità di default”: fino a prova contraria, tali sistemi dovrebbero essere considerati illegali. Prima di immettere sul mercato un prodotto o un servizio che incorpori sistemi di IA ad alto rischio, le aziende avrebbero l’obbligo di dimostrare che la loro tecnologia non è discriminatoria, non è manipolatoria, non è iniqua, non è inaccurata e non è illegittima nelle sue basi giuridiche e nei suoi scopi.
La proposta di Pasquale e Malgieri di inquadrare i sistemi di IA entro un regime di “illegalità di default” si fonda sulla priorità dei diritti individuali specificamente protetti dalla legge su un generico principio di innovazione, che è spesso la maschera dietro la quale i grandi soggetti economici rivendicano la tutela dei loro concreti interessi.

Leggi l’articolo

Draghi a guardia di tesori

So-called ‘AI’ is a derivative of a surveillance business model that allows Big Tech to provide extrajudicial surveillance services for both civil and military purposes. As such mass surveillance is banned, Big Tech, through regulatory capture, has produced the AI Act, under which fundamental rights can be violated with impunity as long as there is no foreseeable harm. So Big Tech’s next target is any norm that still protects fundamental rights.

The attacks on the GDPR are sneaky attacks on the fundamental rights that the GDPR protects, not attacks on the alleged obstacles that stifle innovation.

On this neoliberal attack on fundamental rights, Daniela Tafani submits to open peer review her article, GDPR could protect us from the AI Act. That’s why it’s under attack.

Read the article

Accessi: 21360