X

Carnet de recherche

Le projet de recherche 'Mixology' s’inscrit dans la perspective de l’open research. Son objectif est de sonder les opinions en période de crise, à partir d’un corpus collecté via l’API de Twitter. Il vise également à développer un outil de recherche d’analyse de contenus orginal, en vue de pouvoir être réutilisé dans l’analyse de titres de presse et de contenus médiatiques en période de crise (méthodes de linguistique computationnelle et de machine learning), et il s’inscrit dans le champ des études des médias et des études du journalisme.

Blog 2 : collecte du corpus

11 décembre 2021

English

La collecte des données du réseau social Twitter est réalisée via le package rtweet, disponible via RStudio. Cela suppose de disposer d’un compte « développeur » Twitter. Les premiers tests de récupération montrent une API un peu paresseuse, où il semblait difficile de récupérer beaucoup de contenus. Les premmières requêtes suivaient la nomenclature suivante :

Les trois requêtes réalisées étaient : vaccination OR vaccine / covid AND pass OR sanitary AND pass OR safe AND ticket / covid AND protest OR manifestation. Le pérmiètre géographique a été obtenu en traçant un cercle sur la carte de l’Europe.

La distance d’un rayon est de 1.367 kilomètres, celui ayant été calculé entre deux points : de Juliandorp aux Pays-Bas (au centre) vers Rozan en Pologne. Malgré les premiers obstacles liés à la difficulté de faire aboutir les trois requêtes (blocage à 10%, 1% et 5% de récupération du contenu), cela a permis d’identifier les possibilités offertes en matière de récupération des variables (90 au total).

Toutes ces variables ne seront pas utilisées, et ceci également pour des raisons éthiques : 1) les utilisateurs ne sont pas informés de cette recherche ; 2) les utilisateurs ne peuvent faire valoir leur droit de retrait ; 3) le respect de la vie privée des utilisateurs est fondamental ; 4) cette recherche s’intéresse moins à qui le dit (même si cela est aussi intéressant sur le plan scientifique) qu’à ce qui est dit. Aussi, les variables retenues sont : text (contenu du tweet), lang (langue), location et country (localisation de l’utilisateur, pas forcément toujours renseignée).

Après avoir augmenté la mémoire de R et supprimé l’option de geocodage, la récupération des données s’est déroulée sans problème pour la première requête. Les requêtes trop complexes ont été simplifiées (voir ici les opérateurs booléens). Toutefois, big data ne veut pas dire bonne data. Retour à la case départ, en réfléchissant à la meilleure stratégie.

# # #

Lire aussi

Blog 13 : construire une liste de stop words

Blog 12 : principaux dictionnaires pour l’analyse de sentiment

Blog 11 : description statistique du corpus avec #RStats

Blog 10 : l’analyse de sentiment ou l’évaluation de la subjectivité

Blog 9 : modélisation thématique du corpus ‘vaccination’ (en)

Blog 8 : traitement linguistique et quantitatif du corpus ‘vaccination’ (anglais, part.2)

Blog 7 : traitement linguistique et quantitatif du corpus ‘vaccination’ (anglais, part.1)

Blog 6 : collecte du corpus et préparation de l’analyse lexicale

Blog 5: le package R « textclean »

Blog 4 : cibler la bonne requête et nettoyer des messy data

Blog 3 : Twitter API et rtweet

Blog 2 : collecte du corpus

Blog 1: le projet

Les enjeux de la recherche sur les usages médiatiques en temps de crise