` `
Sélectionner une page
Le radar de Samsa
  • 👉  IA (intelligence artificielle) : 

    • L’Équipe teste un résumé des commentaires avec une IA 

    Pour le média historique de l’actualité sportive, il s’agit surtout d’apprendre à se “familiariser avec ces technologies”, comme l’explique ici son responsable technique. Quant au lecteur, il est informé que ce résumé est généré par une IA.

    Cette initiative, évidemment, interroge :

    • Les IA sont-elles les mieux placées pour “valoriser” les contributions des lecteurs ? 
    • Sauront-elles lutter contre des tentatives de manipulation des commentaires par des groupes coordonnés? 


    Une initiative à suivre. En savoir plus ici

    • Les IA génératives sont pleines de biais

    La presse spécialisée aux Etats-Unis multiplie ces dernières semaines les articles nous rappelant que les intelligences artificielles génératives sont entraînées à partir de bases de données… qui induisent nécessairement des biais.

    Deux exemples récents : 

    • Impossible, par exemple, de générer une image où coexistent des visages asiatique et caucasien avec l’IA de Meta, comme le montre The Verge
    • Quant à la représentation des minorités LGBTQIA+ par Sora, un logiciel de Text-to-Video d’OpenAI, ce n’est pas beaucoup mieux, selon Wired 

    • Et si l’IA, ça ne marchait pas ?

    Dans le Financial Times, un article s’interroge sur l’optimisme qui irrigue toute la couverture médiatique du potentiel des IA. Après tout, on passe un peu vite à côté des coûts (techniques) encore élevés, des enjeux autour du droit d’auteur, des problèmes liés à l’entraînement des algorithmes, sans parler de la consommation énergétique.

    Evidemment, les intelligences artificielles vont progressivement s’installer dans notre quotidien. Mais peut-être pas systématiquement au premier plan. A lire ici. 

    On peut ajouter à ce tableau cette révélation du Wall Street Journal : l’Internet est presque “trop” étroit pour continuer d’entraîner les IA des géants comme OpenAI ou Anthropic. Et ces derniers sont tentés de fabriquer des bases de données “synthétiques”… et donc de faible qualité. Une tentation insensée ? A lire ici

    • Des IA pour lutter contre le conspirationnisme ? 

    Le chercheur David Colon a partagé cette semaine une étude menée par trois chercheurs : ces derniers recourent à des dialogues avec GPT4-Turbo pour tenter de réduire durablement les croyances conspirationnistes de plus de 2000 cobayes. 

    Apparemment, les résultats sont concluants pour une partie des conspirationnistes (20% environ). Lire le thread du chercheur ici, et l’étude est à consulter ici.

    • Sinon, DALL-E se “photoshopise”

    Normalement, quand on génère une image avec un logiciel comme DALL-E, on ne peut pas la modifier. C’est à prendre ou à laisser. Ce n’est plus tout à fait vrai : le générateur d’images d’OpenAI permet désormais de modifier partiellement une image. En savoir plus ici

    📌 Découvrez notre formation “intelligence artificielle”

     

    👉  Climat 

    • Une rédaction collaborative contre les PFAS, mode d’emploi

    A lire dans la Revue des médias, le dessous des révélations sur l’ampleur des pollutions liées aux “polluants éternels” dans une petite commune des Cévennes où le géant belge de la chimie Solvay est implanté. Derrière cette enquête, deux journalistes françaises travaillant l’une pour Le Monde (Stéphane Horel), et l’autre pour France 3 (Émilie Rosso), aidées par des confrères de la RTBF, avec l’appui de l’ONG Générations futures pour mener des tests sur la qualité de l’eau

    • Du nouveau sur les antennes de RFI

    Tous les mercredis, Le Club de l’émission “C’est pas du vent”, dirigée par Anne-Cécile Bras, va réunir les journalistes du tout nouveau service environnement de RFI en français, mais aussi les référents environnement (que nous avons eu le plaisir de former) travaillant dans les 15 langues étrangères de RFI pour échanger sur les sujets environnementaux qui les ont marqués.
    Au programme : ils partageront les coulisses de leur travail et commenteront les films produits par les vidéastes du réseau ePOP (qui rassemble de jeunes réalisateurs évoquant les questions écologiques chez eux, partout dans le monde). En savoir plus ici

    • Faut-il revoir nos vocabulaires ? 


    Officiellement, la Terre n’est pas entrée dans l’anthropocène, l’ère géologique marquée par les effets de l’activité humaine. Au terme d’un travail de quinze ans, l’Union internationale des sciences géologiques a voté contre l’inscription de l’anthropocène en tant que période géologique. Mais la décision est loin de faire consensus, selon le journaliste du Monde Stéphane Foucart.

    Faut-il renommer le vivant ? Là, c’est The Conversation qui revient sur les controverses qui animent le monde scientifique au sujet de la nomenclature taxonomique des espèces. Passionnante histoire. A lire ici.

    • Faut-il revoir nos imaginaires ? 

    Sans doute ! D’ailleurs, même à Disney, on commence à le penser puisque les petites voitures thermiques du parc d’attraction Tomorrowland seront remplacées… par de petites voitures électriques, comme le raconte ce chroniqueur du Los Angeles Times.

    📌 Découvrez notre formation “climat”

     

    👉  OSINT & Fact-checking  

    • Un état des lieux des destructions à Gaza 

    La cellule enquête vidéo du Monde a publié cette semaine un long format particulièrement réussi pour donner à voir l’ampleur des destructions dans la bande de Gaza. 

    En scrollant, le lecteur découvre des bâtiments emblématiques littéralement rasés par les opérations israéliennes : la comparaison entre les photos satellites et les images glanées sur internet, avant l’assaut, sont glaçantes. A voir ici.  

    • Une enquête sur l’utilisation des IA à Gaza 

    Le site d’information israélien +972 (qui tire son nom du code téléphonique d’Israël) a publié une enquête sur : « Lavander, la machine IA qui dirige le déluge de bombes d’Israël sur Gaza ». Selon ce média indépendant, “l’armée israélienne a désigné des dizaines de milliers de Gazaouis comme suspects pour être assassinés en utilisant un système de ciblage IA avec peu de supervision humaine, et une politique de pertes laxiste”.

    L’enquête est à lire ici, et le chroniqueur Pierre Haski en parle là

    • Meta-Media revient sur les “ingénieurs du chaos” 

    C’est un très bon compte rendu de l’étude de Cambridge University intitulée « Le besoin de chaos et les motivations derrière le partage de rumeurs politiques hostiles » (The « Need for Chaos » and Motivations to Share Hostile Political Rumors, en anglais dans le texte). 

    Où l’on apprend que certains individus, volontiers diffuseurs de fake news, n’agissent pas dans le seul but de promouvoir une idéologie spécifique ou de discréditer un adversaire politique. Ils sont parfois “motivés par un désir pur et simple de chaos” en guise de revanche sociale et sont “intéressés par des histoires qui sapent la confiance dans tous les systèmes de pouvoir.” En savoir plus ici. 

     

    • Une cartographie de la vague de désinformation en Afrique

    Les campagnes de désinformation visant à manipuler les systèmes d’information africains ont presque quadruplé depuis 2022, entraînant des conséquences déstabilisantes et antidémocratiques.
    En voici la cartographie par le Centre d’études stratégiques de l’Afrique.

     

    📌 Découvrez notre formation “Lutte contre les fake news et fact-checking avec les outils OSINT”

`
`