L’individuazione dei commenti falsificati

Negli ultimi tempi è sempre più diffuso sul web il problema dei commenti falsi riguardanti i prodotti e i servizi offerti dalle aziende. Qualche commento falso non è in grado di danneggiare (o promuove ingiustamente) un prodotto, ma un continuo postare di false opinioni da parte di grandi gruppi di utenti potrebbe arrivare ad avere un impatto elevato sulle vendite e sull’immagine di un’azienda. Per aiutare a scovare e controllare questo tipo di attività sono intervenuti gli ingegneri della University of Illinois di Chicago con la partecipazione di Google, che hanno presentato un algoritmo software in grado di rilevare le opinioni e le discussioni in cui gruppi di falsi utenti stanno cercando di forzare e controllare il sentiment online attorno ad un prodotto.

Nel documento distribuito alla World Wide Web 2012 conference di Lione (Francia), i ricercatori della Illinois Arjun Mukherjee e Bing Liu, assieme a Natalie Glance di Google, spiegano di aver trovato il compito più semplice del previsto, grazie al’ individuazione delle tipologie di comportamento tipiche degli spammer online. Per la loro ricerca hanno assunto otto esperti di recensioni online da siti di e-commerce come eBay e Rediff e li hanno incaricati di valutare il grado di “spammosità” di 2400 recensioni, catalogandole come “spam“, “borderline spam” o “non spam“.

A differenza di altri team, che non sono riusciti a risolvere il problema, non hanno utilizzato la macchina di crowdsourcing di Amazon, (la Mechanical Turk) per la valutazione delle opinioni da parte del pubblico generico, ma hanno preferito a questo approccio l’impiego di soli esperti in grado di individuare i falsi commenti con maggiore accuratezza.

In base ai risultati ottenuti hanno formato il software in modo che fosse in grado di individuare le differenze di scrittura tra i commenti degli spammer e dei veri utenti: gli spammer infatti inviano molte recensioni negative o condividono false esperienze positive con determinati prodotti, ma generalmente commettono un errore: utilizzano sempre un linguaggio molto simile.

Tale comportamento significa che i gruppi di persone che cercano di modificare la percezione dei prodotti e del brand possono essere riconosciuti: “anche se l’individuazione dei singoli commenti finti è molto difficile, con nostra sorpresa l’individuazione dei gruppi di falsi autori è molto più semplice” riporta la ricerca.

Il lavoro suggerisce che questi falsi commenti potranno un giorno essere eliminati molto più facilmente dai moderatori, o persino automaticamente. Ma oggi come si può affrontare questo problema? Una prima risposta arriva dagli informatici Myle Ott, Claire Cardie e Jeff Hancock della Cornell University di Ithaca (New York) e dai risultati della loro ricerca sulle recensioni ingannevoli (anch’essi presenti al WWW2012) effettuata sui siti di Expedia, Hotels.com, Orbitz, Priceline, TripAdvisor e Yelp. Dal loro studio si evince che la pratica delle opinioni finte è un problema crescente e sempre più diffuso, ma tuttavia hanno notato che la loro cerscita è decisamente inferiore nei siti dove vengono monitorate e moderate le recensioni condivise dai nuovi utenti che scrivono per la prima volta; questa tecnica può quindi essere considerata un’arma efficace che i siti possono utilizzare contro la diffusione dei commenti falsificati.

fonte: newscientist.com

Recommended Posts

Leave a Comment