La piattaforma di messaggistica Telegram è diventata una delle principali vetrine per la condivisione di articoli, libri e notizie scientifiche, ma anche uno spazio in cui proliferano [temi non specificati]. imitazioni di editori accademici di alto livelloUno studio sviluppato in Spagna ha fornito cifre molto concrete a un problema che molti sospettavano, ma che era stato appena misurato rigorosamente, come si evince dal Nuova ondata di frodi commerciali tramite Telegram.
Secondo questa ricerca, guidata dall' Università di Granada (UGR)Quasi otto canali Telegram su dieci che operano sotto il nome di importanti editori scientifici internazionali non sono ufficiali. Nello specifico, è stato rilevato che circa Il 78% dei canali attribuiti a questi editori sono falsi, una percentuale particolarmente preoccupante in un contesto europeo segnato dalla lotta alla disinformazione scientifica.
La proliferazione di bufale e contenuti dubbi camuffati da contenuti accademici continua a crescere e questo lavoro fornisce una spiegazione convincente: Telegram ospita un Una rete ampia e organizzata di canali che si spacciano per editori scientifici per distribuire materiale non autorizzato, offrire presunti servizi editoriali e sfruttare la reputazione di istituzioni prestigiose. La Spagna, in quanto parte dell'ecosistema scientifico europeo, non è immune agli effetti di questo fenomeno.
Gli autori dello studio sottolineano che questo ambiente su Telegram non è un caso isolato, ma un sintomo di una mancanza di presenza ufficiale e verificata da parte degli editori stessiQuesta lacuna consente agli autori di attacchi informatici di posizionarsi in prima linea nella comunicazione scientifica sulla piattaforma, influenzando il numero di utenti che accedono a libri e articoli.
Una mappa delle frodi nei canali degli editori scientifici
Il lavoro è stato eseguito da Unità di Scienze Umanistiche e Sociali Computazionali (U-CHASS) dell'Università di Granada. I ricercatori Victor Herrero Solana e Carlos Castro Castro Si sono prefissati di analizzare l'ecosistema dei canali Telegram che si presentano come collegati a grandi editori accademici e di misurare in che misura tale collegamento sia reale.
Per fare questo, hanno selezionato 13 principali editori scientifici internazionaliTra questi ci sono editori noti come Elsevier, Springer, Wiley-Blackwell, Nature e Cambridge University Press. La selezione è stata fatta tenendo conto della loro peso sul portale SCImago, uno degli indici più utilizzati per valutare la produzione scientifica globale.
Una volta stilato l'elenco degli editori, i ricercatori li hanno individuati su Telegram. 37 canali che potrebbero essere associati a questi marchisia attraverso l'uso del nome, del logo o di riferimenti diretti alle loro collezioni e pubblicazioni. L'obiettivo era duplice: da un lato, verificare se questi canali avessero un rapporto ufficiale con gli editori; dall'altro, identificare modelli di comportamento tra coloro che si rivelavano fraudolenti.
I risultati sono stati chiari e, per certi versi, inquietanti per la comunità accademica europea: dei 37 canali analizzati, solo Otto sono stati confermati come autentici e direttamente collegati alle case editriciCioè, solo il 21,62% dei canali si è rivelato legittimo, rispetto a un Il 78,38% dei canali falsi ha utilizzato l'identità di queste istituzioni senza autorizzazionePer l'utente medio, le probabilità di finire su un canale falso sono, al giorno d'oggi, molto più alte rispetto alle probabilità di trovare il canale ufficiale.
Lo studio è stato pubblicato sulla rivista accademica "IDB: Testi universitari di biblioteconomia e scienza dell'informazione", nel numero di dicembre 2025, dal titolo "Principali redattori scientifici nei canali Telegram: un approccio per rilevare canali falsi con ChatGPT e DeepSeek". Oltre ai dati quantitativi, la ricerca descrive un ecosistema profondamente distorto che crea rischi per la comunità scientifica, gli editori e il pubblico in generale.
Uno studio pionieristico che utilizza ChatGPT e DeepSeek
Uno degli elementi più innovativi di questo lavoro è l' metodologia basata sull'intelligenza artificialeIl team UGR è stato pioniere nell'uso di Modelli linguistici (LLM) come ChatGPT e DeepSeek per aiutare a determinare se i canali analizzati fossero ufficiali o meno, combinando la capacità di tracciamento automatico di questi sistemi con una successiva revisione umana.
La ricerca è stata progettata come un studio di casi multipliPer ciascuno dei 37 canali identificati su Telegram, un prompt standardizzato che è stato inviato sia a ChatGPT che a DeepSeek, attivando in entrambi i casi il funzione di ricerca webLo scopo era quello di consentire ai modelli di verificare in tempo reale l'esistenza di link a pagine aziendali, account verificati e altri segni di autenticità.
Il compito dei modelli era quello di valutare la probabilità che ogni canale fosse veramente ufficialeTenendo conto di indicatori quali la coerenza tra i contenuti e la linea editoriale del brand, la presenza di link affidabili ai siti istituzionali, l'uso corretto di loghi e nomi o i riferimenti a politiche editoriali riconoscibili.
Una volta ottenute le classifiche ChatGPT e DeepSeek, il team UGR ha effettuato un verifica manuale indipendenteche è stato utilizzato come base di partenza. In altre parole, la decisione finale non spettava all'IA: i ricercatori hanno confrontato le proprie ricerche e verifiche con le risposte generate dai modelli prima di decidere se un canale fosse autentico o falso.
Questo approccio ha permesso di confermare che gli LLM possono essere strumenti utili per lo screening iniziale su larga scala su piattaforme con migliaia di canali, dove un'analisi puramente manuale sarebbe irrealistica in termini di tempo e risorse. Allo stesso tempo, lo studio chiarisce che, ad oggi, Non è prudente delegare completamente la convalida degli account sensibili a questi sistemi., come quelli associati agli editori scientifici internazionali.
Come funzionano i canali falsi su Telegram
L'esame dettagliato dei 37 canali ha permesso di ricostruire un modello abbastanza uniforme su Come agiscono su Telegram coloro che si spacciano per editori scientifici?La pratica più diffusa è la distribuzione di massa di libri, manuali e articoli in formato digitale senza autorizzazione, compresi titoli di grande impatto accademico che sono effettivamente protetti da copyright.
Insieme a questa distribuzione non autorizzata di contenuti, numerosi canali fraudolenti offrono servizi editoriali poco credibili: promesse di pubblicazione su riviste prestigiose in tempi molto brevi, garanzie di accettazione degli articoli senza un rigoroso processo di revisione paritaria o pacchetti di "gestione completa" che presumibilmente si occupano di tutto in cambio di un compenso.
Questo tipo di offerta è particolarmente pericoloso per ricercatori alle prime armi, dottorandi e professionisti con poca esperienza nel circuito dell'editoria accademica, sia in Spagna che in altri paesi europei. In molti casi, la promessa di accelerare una carriera scientifica o di migliorare il proprio CV porta ad accettare proposte che, a lungo termine, possono trasformarsi in un serio problema di reputazione.
I ricercatori hanno inoltre rilevato un uso molto frequente di linguaggio aggressivamente promozionaleI messaggi ricordano più le campagne di marketing che la comunicazione sobria che caratterizza il settore dell'editoria scientifica. Frequenti riferimenti a "offerte limitate", "sconti esclusivi" o "pubblicazioni garantite" sono all'ordine del giorno nei canali ufficiali.
In molti di questi canali, gli imitatori ricorrono a loghi degli editori, nomi delle raccolte e link abbreviati che conferiscono un'apparenza di legittimità. A prima vista, per un utente che non ha familiarità con il funzionamento interno di queste istituzioni, il canale può sembrare perfettamente ufficiale, soprattutto se alterna notizie vere a contenuti di dubbia provenienza.
Tutto questo quadro contribuisce a ciò che lo studio definisce come un ecosistema distorto all'interno di Telegramdove la presenza di canali non ufficiali supera di gran lunga quella di account autentici. In pratica, questo si traduce in chiare minacce all'integrità accademica e alla proprietà intellettuale nello spazio europeo, facilitando sia la circolazione di opere piratate sia l'ascesa di proposte editoriali ingannevoli.
Cosa fa bene l'intelligenza artificiale e cosa sbaglia?
Per quanto riguarda le prestazioni dei modelli linguistici, la ricerca conclude che entrambi ChatGPT e DeepSeek sono piuttosto efficaci nel rilevare canali palesemente falsi.Quando l'impersonificazione è evidente, ad esempio a causa della totale assenza di link ufficiali, della presenza di contenuti apertamente piratati o di promesse improbabili, entrambi i sistemi tendono a concordare e classificare il canale come illegittimo.
Il punto debole principale si trova all'estremità opposta: il difficoltà nel confermare l'autenticità dei pochi canali realiI casi più problematici sono stati quelli in cui il canale sembrava essere collegato a un editore, ma mancava segnali di verifica forti, come il noto segno di spunta blu su Telegram o chiari riferimenti sui siti web istituzionali.
Lo studio rileva differenze di approccio tra i due modelli. DeepSeek tendeva a porre maggiore enfasi sulla coerenza contestuale del contenutoVale a dire, se il tipo di messaggi, il tono e la struttura del canale fossero coerenti con quanto ci si aspetterebbe da un editore scientifico affermato. Questo approccio si è concentrato sul modo in cui il canale comunicava quotidianamente.
D'altro canto, ChatGPT ha scelto di dare priorità alla verifica formale delle affiliazioni istituzionaliIn pratica, ciò significava porre maggiore enfasi sulla presenza del canale sui siti web aziendali, sulle menzioni verificate su altre piattaforme e sui collegamenti chiari con account noti. Quando questa rete di referral non era ben documentata, il modello adottava un approccio più cauto.
Per gli autori, questi approcci complementari sono preziosi per Applicare il filtraggio iniziale in ambienti saturi di informazionima sottolineano che il L'affidabilità dell'IA come rilevatore autonomo per gli utenti senza una formazione specifica rimane limitata.Per questo motivo, raccomandano di utilizzare questi modelli come parte di sistemi ibridi, in cui la decisione finale sull'autenticità di un canale spetta a professionisti esperti in documentazione scientifica e editing.
Distorsioni nelle fonti ed egemonia dei contenuti in inglese
Oltre all'individuazione delle frodi, l'indagine si è concentrata anche sull'analisi Quali fonti consultano ChatGPT e DeepSeek quando preparano le loro risposte?Una delle scoperte più sorprendenti è stata la presenza dominante di Riferimenti occidentali rispetto ad altre aree geograficheanche in DeepSeek, nonostante si presuma una maggiore vicinanza alle fonti asiatiche.
Questo squilibrio riflette la egemonia dei contenuti in inglese sul websoprattutto quando si tratta di informazioni scientifiche e accademiche. Poiché sono per lo più formati su dati in cui l'inglese è chiaramente predominante, i modelli tendono a riprodurre quella distribuzione, che genera un pregiudizio strutturale quando devono valutare fonti provenienti da altri contesti linguistici.
In pratica, questa distorsione può rendere difficile valutazione dei canali collegati agli editori non occidentalii cui siti web, sistemi di verifica o stili di comunicazione potrebbero non essere conformi ai modelli anglosassoni prevalenti. Di conseguenza, alcuni canali legittimi potrebbero essere avvolti da maggiore incertezza o sospetto rispetto alle loro controparti nei paesi occidentali.
Gli autori sostengono che questo aspetto dovrebbe essere preso in considerazione quando progettare strumenti di monitoraggio globale basati sull'intelligenza artificialeCiò è particolarmente vero in una regione come l'Europa, dove convivono istituzioni scientifiche ed editori con background molto diversi. Se questi pregiudizi non vengono corretti, si rischia di rafforzare le disuguaglianze di visibilità e riconoscimento tra gli editori in base alla loro lingua o al loro paese di origine.
Come futura linea di lavoro, lo studio propone modelli di treni con corpora più bilanciati e diversificatinonché adeguare i criteri di valutazione per riflettere meglio la diversità del sistema accademico internazionale. Altrimenti, la stessa tecnologia progettata per combattere la disinformazione potrebbe inavvertitamente finire per riprodurre modelli di esclusione.
Un ambiente ad alto rischio per l’integrità accademica
Con tutti questi elementi sul tavolo, i ricercatori descrivono l'universo dei canali Telegram legati agli editori scientifici come un ambiente ad alto rischio per l'integrità accademica e la proprietà intellettualeLa stragrande maggioranza dei canali non ufficiali rende estremamente difficile per l'utente medio distinguere a colpo d'occhio quali fonti siano affidabili.
Tra i rischi individuati, spiccano i seguenti: diffusione di materiale scientifico senza controllo o garanzieCiò non solo viola il copyright, ma può anche facilitare la circolazione di versioni più vecchie, incomplete o modificate di articoli e libri. Questo tipo di circolazione disordinata influenza il modo in cui studenti, insegnanti e ricercatori europei consultano e citano la letteratura scientifica.
Un altro pericolo rilevante è quello di servizi di pubblicazione fraudolentiQueste pratiche erodono la fiducia nel sistema editoriale accademico. Chi cade nella trappola rischia di pagare per processi inesistenti, di vedere il proprio lavoro associato a pratiche non etiche o di compromettere la propria reputazione professionale, un aspetto particolarmente delicato nelle fasi iniziali di una carriera di ricercatore.
Lo studio si concentra anche su un genuino paradosso istituzionaleMentre Telegram offre un enorme potenziale per la rigorosa diffusione della conoscenza, coinvolgimento diretto limitato di molti editori nella piattaforma Questo apre la porta ad altri che potrebbero prendere il loro posto. In assenza di canali ufficiali chiaramente identificabili, molti utenti finiscono per ricorrere ad alternative che, in pratica, non rappresentano gli editori a cui affermano di appartenere, mentre piattaforme come YouTube è arrivata addirittura a chiudere i canali generati dall'intelligenza artificiale..
Nel contesto dell'Unione Europea, dove la lotta contro disinformazione e bufale scientifiche Sebbene questa sia diventata una priorità, la situazione descritta su Telegram presenta un'ulteriore sfida. La facilità con cui i canali possono essere creati e moltiplicati fa sì che il problema possa aggravarsi rapidamente, costringendo istituzioni, biblioteche e organismi di regolamentazione a sviluppare nuove strategie di monitoraggio e risposta coordinata.
Verso sistemi di sorveglianza ibridi e nuove linee di ricerca
Dato questo scenario, i ricercatori dell'Università di Granada sostengono lo sviluppo di sistemi ibridi di rilevamento e monitoraggio che combinano le capacità dell'intelligenza artificiale con la revisione umana esperta. L'idea prevede di sfruttare l' scala di analisi dei modelli linguistici per esplorare grandi volumi di canali e messaggi, senza rinunciare al giudizio degli esperti nel processo decisionale finale.
In questo schema, l'IA funzionerebbe come strumento di mappatura inizialeQuesto organismo è responsabile dell'identificazione di nuovi canali sospetti, modelli ricorrenti su diverse piattaforme e reti di account che riutilizzano nomi e loghi di editori prestigiosi. Sulla base di questa selezione preliminare, documentalisti, bibliotecari e personale degli editori stessi possono esaminare i casi identificati e decidere se segnalarli alla piattaforma, emettere avvisi pubblici o rafforzare la propria presenza ufficiale.
Lo studio evidenzia anche la possibilità di estendere questa metodologia ad altri tipi di disinformazione Si tratta di aree di particolare preoccupazione in Europa, dove diverse iniziative pubbliche stanno cercando strumenti proattivi per individuare e bloccare le campagne di disinformazione prima che acquisiscano ampia diffusione. Tra queste, le fake news su argomenti scientifici, le teorie del complotto relative alla salute e i contenuti politici manipolati che circolano su Telegram.
L'incorporazione progressiva di funzioni avanzate di analisi testuale e contestuale nei modelli linguistici apre le porte a sistemi di monitoraggio proattivo in grado di emettere segnali di allerta tempestivi sull'emergere di nuove reti di canali falsi. Questi segnali di allarme potrebbero essere particolarmente utili per editori, università ed enti pubblici interessati a tutelare la comunicazione scientifica e a mantenere standard di qualità nelle informazioni disponibili al pubblico.
Allo stesso tempo, gli autori insistono sulla necessità di Gli editori scientifici stessi dovrebbero rafforzare la loro presenza verificata su Telegram e su altre piattaforme di messaggistica o social network. Avere canali ufficiali ben identificati, politiche di comunicazione trasparenti e messaggi coerenti renderebbe più facile per gli utenti distinguere le fonti legittime e ridurrebbe il margine di manovra per i sosia.
Il lavoro svolto presso l'Università di Granada dimostra che il fatto che Oltre il 78% dei canali degli editori scientifici su Telegram sono falsi. Non si tratta di un dettaglio aneddotico, ma di un fenomeno strutturale che plasma il modo in cui le informazioni accademiche circolano online. Per affrontare questa situazione è necessario combinare tecnologia, giudizio degli esperti e un maggiore coinvolgimento istituzionale per recuperare terreno in un canale di comunicazione in cui, per ora, gli attori fraudolenti operano con troppa facilità.
