Wikipedia, migliorerà i contenuti grazia all’intelligenza artificiale: ecco il sistema Ores

0

Attraverso il proprio Blog, infatti, la Wikimedia Foundation, che è la fondazione che gestisce Wikipedia, ha annunciato l’adozione di ORES. Su Wikipedia ogni giorno, al fine di mantenere l’enciclopedia online sempre aggiornata, vengono effettuate solo per la versione italiana oltre 500 mila operazioni di editing da parte volontari wikipediani. E per facilitare ogni operazione di revisione, correzione ed aggiornamento delle pagine su Wikipedia si farà leva sull’intelligenza artificiale.

Attraverso il proprio Blog, infatti, la Wikimedia Foundation, che è la fondazione che gestisce Wikipedia, ha annunciato l’adozione di ORES, un sistema di intelligenza artificiale che è finalizzato proprio a individuare false informazioni ed errori all’interno dell’enciclopedia online. Lo sviluppatore di ORES è stato Aaron Halfaker che è ricercatore proprio presso la Wikimedia Foundation.

Come sopra accennato, solo per Wikipedia in italiano nello scorso mese di ottobre del 2015 sono state effettuate ben 515 mila operazioni di editing da parte di 2238 utenti per 1.238.648 voci enciclopediche ed una crescita media mensile che è pari a 10 mila articoli. Il sistema di intelligenza artificiale Ores interviene proprio per evitare che certi errori passino inosservati o nei casi più gravi quando vengono pianificati ai danni dell’enciplopedia online dei veri e propri atti di vandalismo.

Non a caso Wikipedia fa presente che, ‘benché la comunità cerchi di essere nel complesso vigile e accurata, in ogni istante è sempre possibile che una pagina possa essere vandalizzata o modificata in modo improprio, anche se in buona fede, con informazioni errate, illegali o non conformi alle consuetudini della comunità o dell’area in cui vivi‘.

Ores, nel complesso, va a preservare quella che è la qualità e la credibilità dell’enciclopedia, ma il tutto fermo restando che spetterà in ogni caso alla mano umana cogliere gli input forniti dall’intelligenza artificiale al fine di valutare con quale probabilità certe modifiche vanno fatte, ed anche invece quando queste non vanno fatte in quanto risultano essere peggiorative e/o inaffidabili.

L’atteggiamento aggressivo che hanno gli utenti diWikipedia nel controllare i contenuti modificati proviene dal fatto che non sono incoraggiati ad avere un’interazione umana con le persone” ha detto Halaker alla Mit Technology Review.

Rispondi o Commenta