Wikipedia fonte non affidabile? In futuro potrebbe non essere più così, grazie all’IA

Un sistema di intelligenza artificiale distingue le fonti meno affidabili. Cosa sta succedendo a Wikipedia o cosa accadrà in futuro?

Un articolo pubblicato su Natural Machine Intelligence parla del funzionamento di un’intelligenza artificiale in grado di distinguere fonti affidabili da quelle poco coerenti. Wikipedia è uno dei portali enciclopedici più ingegnosi al mondo, frutto di una continua revisione da parte dei suoi utenti. Ci siamo chiesti dunque cosa accadrebbe se questo minuzioso lavoro venisse svolto dall’AI invece che dagli utenti.

wikipedia intelligenza artificiale articoli
Wikipedia e l’intelligenza artificiale: cosa succede? -Roma-news.it

Scopriamo quindi in questo articolo cosa succederebbe se l’intelligenza artificiale si sostituisse all’uomo nella selezione di fonti affidabili per l’elaborazione di articoli d’informazione.

Wikipedia e l’intelligenza artificiale

La compagnia londinese Samaya ha sviluppato un progetto di intelligenza artificiale, denominato SIDE, che consiste in un sistema di reti neurali. Le reti neurali sono sostanzialmente dei modelli statistici che si occupano di elaborare dati in maniera automatica ed il loro funzionamento è ispirato al sistema nervoso degli esseri umani.

SIDE riesce a distinguere l’affidabilità delle fonti citate in fondo agli articoli di Wikipedia. Il funzionamento di tale algoritmo permette infatti di selezionare istantaneamente le frasi riportate nell’articolo e di considerare solo quelle realmente appartenenti alle fonti citate, quindi se queste sono accurate o invece dubbie e di conseguenza, se le citazioni contenute nell’articolo sono valide.

articoli wikipedia fonti affidabili
L’affidabilità delle fonti di Wikipedia: ecco cosa trova AI -Roma-news.it

Il sistema sviluppato dalla compagnia inglese è stato organizzato attraverso un allineamento dei dati basato su standard decisionali altissimi. L’algoritmo, infatti, permette di analizzare e classificare le voci più accurate di Wikipedia, che vengono quindi contrassegnate con una stelletta di bronzo in alto a destra, nel caso in cui siano compilati con maggiore accuratezza, neutralità e completezza.

Dopo la fase di training, gli scienziati hanno chiesto a SIDE di verificare articoli mai analizzati sino a quel momento. Il sistema di IA ha quindi analizzato le fonti originali, riproponendo, secondo i criteri pre-impostati, quelle più veritiere. Infine il risultato è stato poi sottoposto al giudizio insindacabile degli esseri umani.

Secondo quanto espresso dal giudizio umano, in più della metà dei casi, il risultato selezionato è stato coerente con la fonte in oggetto, mentre per il primo 10% di citazioni evidenziate come non verificabili da SIDE, il sistema ha poi riproposto delle alternative considerate raccomandabili nel 70% dei casi dai soggetti intervistati.

Gli utenti hanno mostrato di preferire la prima opzione fornita da SIDE il doppio delle volte rispetto all’esistente citazione di Wikipedia. Secondo i ricercatori i risultati sono da ritenere più che positivi in quanto danno la possibilità a sistemi di questo di lavorare a braccetto con l’uomo per rendere risorse come Wikipedia ancora più affidabili.

Gestione cookie