` `
Sélectionner une page

Nos formations data et fact-checking

Lutte contre les fake news et fact-checking avec les outils OSINT

Cyberharcèlement : se protéger face aux attaques en ligne

Datajournalisme et datavisualisation : travailler à partir de données

Hygiène numérique : protéger ses données et ses communications

Journalisme d’investigation dans les médias locaux : outils et méthodes

Collecter des données à grande échelle avec le data scraping

Nos différentes formations data et fact-checking

Produire des contenus numériques et conduire une stratégie de communication digitale suppose de connaître et de maîtriser les outils destinés à trouver, collecter, rassembler, organiser, traiter et vérifier l’énorme masse de données qui circulent sur le web.

Qu’est ce que le fact-checking ?

A l’heure des fake news, voire des deepfakes, et de la méfiance accrue à l’égard des médias et de la communication institutionnelle en général, les techniques d’enquête et de vérification des informations issues du web (textes, documents audio et vidéo, publications sur les réseaux sociaux) sont primordiales. 

Les erreurs, mais aussi la malveillance ou les tentatives de manipulation sont courantes sur le web et les réseaux sociaux, et cette prise de conscience a conduit au développement des techniques de fact-checking. Les techniques malveillantes mises en oeuvre sont de plus en plus poussées, dopées par les progrès du deep learning et de l’Intelligence artificielle (AI en français ou IA en anglais). 

Lors des périodes électorales, à l’occasion d’événements de toute nature (manifestations, attentats, accidents) et même en dehors de tout contexte spécifique, les faiseurs de fake news ou d’infox sont continuellement en action, avec des techniques élaborées et évolutives. Les compétences nécessaires pour y faire face demandent des formations pointues et régulières, animées par des expertes et des experts habitués au terrain numérique et à ses usages en perpétuelle évolution.

Vérification des sources

Qu’est-ce qu’une information ? Qu’est-ce qu’une source ? Pour lutter contre la perte de confiance de leurs audiences, les médias et, au sens large, tous les producteurs de contenus numériques, sont dans l’obligation de revenir aux fondamentaux et de se poser à nouveau ces questions essentielles de vérification des sources, de recoupement des données et de validation avant la mise en ligne.

 La maîtrise des techniques d’enquête et de vérification (fact-checking) sur le web permet d’obtenir les éléments pour vérifier, recouper et authentifier une information. Il est possible, par exemple, de trouver l’auteur d’un message, d’une photo ou d’une vidéo, d’utiliser des outils permettant d’analyser les prises de position diffusées et relayées sur un site ou de fouiller dans les gigantesques archives des pages internet… La géolocalisation des informations, l’accès aux bases de données, aux documents PDF, la prise de contact directe avec les témoins d’un événement sur les réseaux sociaux : autant de techniques qui évoluent avec le temps et les contextes, et qui permettent de vérifier l’information délivrée aux lecteurs.

Deepweb et Darkweb

Il est important d’acquérir une vision professionnelle et concrète des contenus du deepweb, des possibilités offertes par le darknet et le darkweb pour y trouver des contenus, des contacts, des informations vérifiables. Au delà des techniques de vérification, c’est aussi l’acquisition d’une culture et de pratiques numériques qui est en jeu. Savoir comment les internautes se comportent habituellement sur Instagram ou dans le forum “18-25” de jeuxvideo.com permet d’augmenter la vigilance face à certains contenus suspects.
La recherche avancée sur Google, la mise en place d’un dispositif de veille efficace, l’analyse des métadonnées d’un document ou l’identification d’une adresse IP sont autant d’outils permettant de lutter contre la diffusion de fausses informations, qu’elles viennent du l’autre bout du monde ou… du coin de la rue. 

Vérification et collection de données

Vérifier des données est essentiel. Il est parfois utile aussi d’en collecter. Le web est une formidable base de données pour qui sait en tirer parti. Le data scraping permet, grâce à des outils adaptés, voire à quelques notions de programmation, de récupérer et structurer des informations en ligne pour constituer et structurer des bases de données qu’il sera ensuite possible d’analyser et d’exploiter pour élaborer des datavisualisations. En absorbant des datas à grande échelle de façon automatisée, le journaliste, le responsable d’ONG, le communicant collectent des volumes de données importants qui leur permettront de construire une enquête ou de déjouer des tentatives de désinformation.

Les outils de datavisualisation offrent des possibilités de traitement et de mise en forme adaptées et intelligibles de ces données collectées et traitées. La “dataviz” permet de mettre en avant les informations pertinentes et de les partager avec les internautes et les utilisateurs de smartphone pour une meilleure compréhension des données traitées. Le domaine du journalisme ou de la production de contenus à partir de données exige de concilier rigueur intellectuelle, efficacité technique et esthétique du résultat. Jusqu’à produire des infographies fixes ou animées, voire des modules interactifs, qui mettent en scène l’information et font ressortir les informations capitales.

`
`