|

Social analytics : pépite ou mirage ? par Guillaume Weill, Directeur Général de MetrixLab

Social analytics : pépite ou mirage ? par Guillaume Weill, Directeur Général de MetrixLab

En moins de dix ans, l’environnement autour de la donnée a été révolutionné. Le nombre de données produites connaît une croissance exponentielle : 90% des données dans le monde ont été créées au cours des deux dernières années ! Cette croissance va encore s’accélérer dans les 5 années à venir avec le développement des objets connectés, et la croissance de la production de données dans les pays émergents. 

Ainsi, chaque individu devient un producteur de plus en plus important de données. Ces données sont très souvent quantitatives, mais aussi qualitatives avec les contributions, les commentaires, que nous produisons dans les réseaux sociaux, sur des blogs, dans des commentaires d’articles, dans des forums. Ainsi que les contributions visuelles, photos ou vidéos, que nous laissons dans les réseaux sociaux spécialisés. 

Pour l’industrie des études de marché, il s’agit d’un changement de paradigme fondamental, une révolution certainement plus importante que celle des «tuyaux» apparue dans la seconde partie des années 90 avec le développement d’internet comme source de collecte des données. 

Les réseaux sociaux ont très rapidement attiré l’attention des marketeurs et des directions consumer insight. Quel rêve de pouvoir accéder en permanence à une source d’information inépuisable, non «filtrée» par des processus études, renouvelée en permanence ! Dès la première moitié des années 2000, de nombreuses sociétés se sont lancées sur le marché de la collecte et de l’analyse de l’information à partir des réseaux sociaux. Cela permet, plus de 10 ans après la création des premières sociétés spécialisées, d’avoir un recul suffisant sur les promesses de cette source de données. 
 
Les limites de l’automatisation du traitement des données

Dans la première partie des années 2000, les efforts ont surtout porté sur l’automatisation de la collecte et de l’analyse du corpus des réseaux sociaux. Si l’automatisation de la collecte a donné des résultats très satisfaisants, en permettant de collecter de gros volumes de données, de cartographier les réseaux d’influence de manière efficace et précise, l’automatisation de l’analyse textuelle a rapidement montré ses limites. Malgré les centaines de millions de dollars investis par de très nombreuses start-ups en Europe, aux Etats-Unis, en Israël, les systèmes automatisés butent sur la difficulté d’analyse des corpus. Ainsi, l’expression «bravo Danone !» peut selon les cas revêtir un caractère positif, ou dans d’autres, négatif. 
Dès la seconde partie des années 2000, on s’est ainsi rapidement aperçu des limites de l’automatisation et de l’importance de l’humain dans l’analyse des corpus issus des réseaux sociaux. Et aujourd’hui, beaucoup de clients avec qui nous travaillons dans ce domaine utilisent des softwares spécialisés pour collecter de la donnée, mais font appel à l’humain quand ils veulent analyser plus précisément les contenus et en tirer des insights intéressants. 
Penser qu’il suffit de se pencher sur les réseaux sociaux pour «ramasser» des insights, c’est la déception quasiment assurée : l’or de l’insight consommateur est rarement à portée de main, et il faut du temps et de l’énergie pour le trouver. 
 
Une richesse offerte à qui sait la découvrir 

Pour autant, les réseaux sociaux, quelle qu’en soit la nature, recèlent une matière riche à condition de savoir la découvrir. Nous utilisons ces données tous les jours pour identifier de nouvelles opportunités de marché, comprendre l’efficacité d’un nouveau produit, analyser l’impact d’une campagne de communication, suivre la performance d’une marque et de ses concurrents. 
Pour découvrir le «bon filon», il est nécessaire de suivre quelques règles de bases :
– Savoir creuser au bon endroit
Comme pour un questionnaire où savoir poser la bonne question permet de trouver la bonne réponse, savoir creuser au bon endroit permet de maximiser les chances de trouver des pépites. Il est nécessaire d’investir du temps pour bien poser le problème pour identifier les requêtes clés qui permettront d’aller chercher une information de valeur. 
– Passer au tamis les résultats de recherche
Une fois les résultats de recherche collectés, il est indispensable de les filtrer pour séparer l’information intéressante, reliée au sujet, des éléments «hors sujet» : 80% des résultats de recherche ne concernent pas directement l’objet de l’étude, quand bien même les requêtes ont été travaillées en amont. Ce niveau de «déchet» démontre l’importance de l’intervention humaine lors de la phase d’analyse. 
– Retirer toutes les dimensions liées à un contenu
La codification des contenus est différente de celle d’une question ouverte. Chaque contenu doit être analysé en détail, en étant capable d’identifier toutes les dimensions mentionnées dans un contenu, directement ou indirectement, en reliant celui-ci à un profil lorsque cela est possible. 
– Savoir analyser «en creux»
Dans bien des cas, il est au moins aussi intéressant de s’intéresser à ce dont les individus ne parlent pas, qu’à ce qu’ils disent. Par exemple, lors d’un lancement de produit, si toutes les mentions concernent la nouveauté du produit, ou sa communication, et qu’aucun bénéfice produit n’est communiqué, on peut raisonnablement se demander si le nouveau produit a réellement «accroché» le consommateur avec des avantages concurrentiels spécifiques ou s’il ne risque pas de disparaître dès l’effet nouveauté passé. 
Lorsque ces règles sont respectées, l’analyse des réseaux sociaux peut révéler des insights spécifiques, ou venir enrichir une étude menée de façon classique. Ainsi, nous utilisons régulièrement les remontées de réseaux sociaux en parallèle d’analyses tracking, ou de post-tests de campagnes publicitaires, en suivi de lancement. Les résultats ne sont pas systématiquement différents de ceux que l’on trouve dans les études traditionnelles menées en parallèle, mais permettent de confirmer une analyse, quand ils ne mettent pas à jour de vrais insights spécifiques. 
 
Guillaume Weill, DG MetrixLab

Pour aller plus loin : Rendez-vous le 17 avril 2015 de 17h00 à 17h45 «Social Media : pépite ou mirage ? Le social media représente une source de données intéressante pour les responsables études et marketing. Mais comment l’utiliser ? Et pour quoi faire?» sur le Printemps des études. Pour s’inscrire : www.printemps-etudes.com

La newsletter

Toute l'actualité des médias et de la publicité chaque jour

S'inscrire gratuitement
Newsletter
Adwanted Inscription