Il Foglio
Nature ha raccontato una storia che, dietro il dettaglio quasi grottesco, illumina un guasto molto serio del nostro presente scientifico. Una ricercatrice dell’Università di Göteborg, Almira Osmanovic Thunström, ha inventato una malattia degli occhi inesistente e l’ha chiamata bixonimania. Ha poi scritto due falsi preprint su questa presunta condizione, li ha messi in circolazione nel 2024 e ha aspettato di vedere che cosa sarebbe successo una volta entrati nel circuito informativo da cui si alimentano i grandi modelli linguistici. I testi portavano la firma di un autore immaginario, Lazljiv Izgubljenovic, accompagnato da una fotografia generata con l’intelligenza artificiale. Dentro quei manoscritti comparivano segnali talmente vistosi da trasformare l’esperimento in una sorta di prova a cielo aperto: un’università inesistente, una città inesistente, ringraziamenti alla Starfleet Academy a bordo della USS Enterprise, finanziamenti attribuiti a Sideshow Bob e alla Fellowship of the Ring. In uno dei passaggi si dichiarava apertamente che il paper era inventato e che i soggetti arruolati erano “fifty made-up individuals”. Il falso, tuttavia, ha cominciato a vivere di vita propria. Vari chatbot hanno trattato la bixonimania come una condizione reale o almeno plausibile, associandola alla luce blu degli schermi, a sintomi oculari comuni, a disturbi delle palpebre che milioni di persone potrebbero facilmente ricondurre alla propria esperienza quotidiana. La traiettoria si è fatta ancora più istruttiva quando uno di quei falsi preprint è comparso nella bibliografia di un articolo pubblicato sulla rivista scientifica Cureus, che ha citato la bixonimania come forma emergente di melanosi legata all’esposizione alla luce blu. Dopo le verifiche avviate in seguito al lavoro giornalistico di Nature, quell’articolo è stato ritirato. La nota di ritrattazione ha spiegato che la presenza di riferimenti irrilevanti, compreso quello a una malattia fittizia, aveva compromesso la fiducia nell’accuratezza e nella provenienza del lavoro. La vicenda, raccontata così, sembra parlare soprattutto della vulnerabilità dei chatbot. In realtà porta alla luce qualcosa di più importante circa la pratica quotidiana di chi legge manoscritti, revisioni e articoli scientifici. Porta alla luce il modo in cui oggi viene trattata la bibliografia. Quel falso è arrivato fino a una pubblicazione medica perché qualcuno ha preso una citazione e l’ha fatta entrare nel testo senza aprire la fonte, leggerla, controllarne il contenuto, verificare che l’autore esista, che l’affiliazione abbia senso, che il lavoro sostenga davvero l’affermazione per cui viene richiamato. Bastava scorrere poche righe per accorgersi di trovarsi davanti a un esperimento costruito apposta per essere smascherato. Bastava leggere i ringraziamenti. Bastava guardare il finanziatore. Bastava, in sostanza, esercitare il minimo controllo intellettuale richiesto da una citazione. Ed è proprio qui che il caso della bixonimania acquista un significato molto più ampio. Una citazione bibliografica serve a documentare la provenienza di un’affermazione. Dice da quale lavoro arriva un dato, quale autore ha proposto una certa ipotesi, quale precedente merita di essere riconosciuto, quale pezzo della letteratura è pertinente in quel punto del ragionamento. Una bibliografia ben costruita è una mappa critica della conoscenza disponibile. Quando invece la lista finale dei riferimenti viene riempita con materiali suggeriti automaticamente e accolti senza controllo, la citazione perde questa funzione e si trasforma in un elemento decorativo della prosa scientifica. L’intelligenza artificiale generativa sta accelerando questa deriva con una forza straordinaria. Sempre più spesso viene usata per cercare letteratura, riassumere articoli, suggerire riferimenti, completare bibliografie. In questo passaggio le si affida una parte del lavoro che apparteneva all’autore: decidere quali fonti siano importanti da citare. Un modello linguistico, però, non pesa la rilevanza come la pesa uno studioso che conosce la storia del problema, la qualità delle prove, il rilievo metodologico di un articolo, il posto occupato da un autore nel dibattito reale. Il modello aggrega prossimità testuali, ricorrenze, forme espressive, presenza nei corpora, facilità di recupero, somiglianze statistiche con ciò che il prompt sembra richiedere. Da questa elaborazione emergono nomi, titoli e riferimenti che possono apparire plausibili, opportuni, perfino centrali. Se l’autore li accoglie senza verifica, quel giudizio opaco e automatico entra direttamente nella bibliografia. Il caso raccontato da Nature mostra questo meccanismo nella sua forma più nuda, con la citazione di un contenuto inventato per simulare un preprint medico. I sistemi automatici lo assorbono e lo restituiscono come elemento informativo disponibile. Un autore che probabilmente usa AI generativa per scrivere il suo testo lo trasferisce in bibliografia di un nuovo articolo. A quel punto il falso riceve il trattamento riservato a un frammento della letteratura: viene citato, indicizzato, contato, rilanciato. Ma il punto non è che quel contenuto sia falso: il punto è che la macchina sta contribuendo a decidere quali fonti meritino di comparire nella lista finale dei riferimenti, e con ciò sta contribuendo a distribuire attenzione, visibilità e riconoscimento citazionale. Tutto questo può accadere in assenza di qualsiasi intento fraudolento. Sono sufficienti fretta, pigrizia, fiducia meccanica nello strumento, abitudine al copia-incolla bibliografico. La conseguenza tocca immediatamente la bibliometria . Le metriche citazionali trattano ogni citazione come un’unità dotata di significato: un richiamo che segnala lettura, influenza, riconoscimento, centralità. Da queste unità derivano conteggi, h-index, ranking, indicatori compositi, profili di carriera, percezioni di autorevolezza. Se però una quota crescente delle citazioni viene prodotta o ampliata da sistemi generativi secondo criteri interni al loro funzionamento, quei numeri cominciano a misurare anche qualcos’altro: la capacità di certi lavori di essere recuperati, favoriti e riproposti dai modelli; la facilità con cui certi autori vengono intercettati dal linguaggio statistico della macchina; la compatibilità di un testo con i meccanismi automatici che suggeriscono la citazione successiva. Si tratta di una distorsione citazionale priva di senso scientifico, perché nasce da una delega incontrollata del giudizio sulle fonti. Proprio per questo la bixonimania ha un valore esemplare. Nessuno aveva bisogno di una frode sofisticata, di una paper mill ben organizzata o di una manovra studiata per manipolare i database. Bastava mettere in circolazione un falso dall’aspetto abbastanza accademico (per una macchina, non per un revisore umano) da essere inghiottito dai sistemi automatici e poi lasciato passare dagli esseri umani. La questione, dunque, riguarda il significato stesso della citazione nella scienza contemporanea. Se gli autori delegano alla AI la selezione delle fonti e poi rinunciano al controllo, la bibliografia cessa di essere un luogo di responsabilità personale e diventa una zona automatizzata del testo. In quel momento deleghiamo alla macchina una parte del giudizio su chi debba essere richiamato, su quali lavori appaiano centrali, su quali autori ricevano il premio implicito contenuto in ogni citazione. La bibliometria continua poi a registrare il risultato come se si trattasse di una scelta umana pienamente motivata. Il sistema conta citazioni, distribuisce punteggi, alimenta reputazioni. Nel frattempo, si è insinuata una componente nuova, opaca e statisticamente orientata, che lavora sotto traccia nella costruzione della letteratura. La storia della bixonimania merita attenzione proprio per questo. Sotto il nome ridicolo di una malattia inventata si intravede un problema molto concreto: la bibliografia è diventata uno dei punti più fragili della scrittura scientifica. Attraverso quel varco passano riferimenti accolti senza lettura, fonti trattate come oggetti ornamentali, suggerimenti automatici trasformati in riconoscimento citazionale. Io stesso, come revisore, ho ormai intercettato diversi casi di fonti chiaramente generate da una AI, perché completamente inesistenti. Vogliamo davvero che le carriere dei ricercatori siano affidati a criteri valutativi che dipendono dalla visibilità delle fonti per le macchine e la AI generativa? E comunque, a che serve questo uso della bibliografia negli articoli scientifici?
Go to News Site