Al momento siamo ancora lontani dall'aver trovato una soluzione, ma il problema esiste, ed è sotto gli occhi di tutti.
I Social Media (e non solo quelli, ma è un'altra storia) sono pieni di informazioni errate, di disinformazione, di news che non sono tali ma sono manipolazioni, di pseudoverità scientifiche appoggiate sul nulla o su grossolane falsificazioni.
Detto molto brutalmente, sono convinto che per chi mi legge in questo momento non ci sia un grossissimo problema: se si legge un blog di comunicazione e strategia digitale, si appartiene in qualche modo ad un elite socioculturale - e si hanno gli strumenti culturali per riconoscere le bufale.
L'Italiano medio, invece, purtroppo tende ad essere molto meno attrezzato (per leggere un po' di dati inquietanti, leggete la mia presentazione alla Social Media Week, qui). E non solo l'italiano: il problema della cattiva informazione esiste in tutto il mondo.
Per questo è nato un progetto chiamato Pheme (http://www.pheme.eu/) - finanziato anche dall'Unione Europea. I cui ricercatori hanno il sogno di sviluppare una "macchina della verità", un sistema che possa individuare su Twitter le cose sospette e le bufale palesi.
We are concentrating on identifying four types of phemes and modelling their spread across social networks and online media: speculation, controversy, misinformation, and disinformation.
PHEME has partners from the fields of natural language processing and text mining, web science, social network analysis, and information visualization. Together, we will use three factors to analyse veracity: first, the information inherent in a document itself – that is lexical, semantic and syntactic information.
This is then cross-referenced with data sources that are assessed as particularly trustworthy, for example in the case of medical information, PubMed, the biggest online database in the world for original medical publications.
We will also harness knowledge from Linked Open Data, through the expertise of Ontotext and their highly scalable OWLIM platform. Finally, the diffusion of a piece of information is analysed – who receives what information and how, and when is it transmitted to whom?
Ora, lo scenario a tendere è quello di un sistema che avvisi i lettori? un po' come fa Google Mail quando becca nella nostra inbox una mail che puzza di phishing (scusate la battutaccia).
Un contributo ad arrestare sul nascere o quasi la diffusione di bufale (ma ci sarà sempre chi crederà di più alle notizie farlocche che a quelle vere - come quelli che sostengono che l'energia nucleare e le bombe atomiche non esistano).
Importante, perchè se alcune notizie possono farci sorridere, altri fanno dei morti, letteralmente. Come nel caso delle mancate vaccinazioni e della recrudescenza di alcune malattie che erano quasi scomparse. O di notizie false in aree di tensione, come le numerose primavere arabe od ucraine... (I ricercatori citano specificamente il caso dei "London Riots" del 2011 dove la falsificazione delle notizie ha giocato un ruolo non secondario).
"After sorting through sources the Pheme platform will then evaluate sources for authority ranking. For example, a New York Times post would hold more authority and trust than a source from an unknown person or business.
As Pheme continues to follow certain conversations it will determine the accuracy of the information.
Could online news soon be quickly verified on an International level? It looks like this Twitter lie detector test could be a big win for social validation.
By examining a tweets sentiment and then determining its validity, brands and consumers can more readily determine the truthfulness of social signals."
Vedi anche: http://www.engadget.com/2014/02/19/twitter-lie-detector/
Nessun commento:
Posta un commento