` `
Sélectionner une page
L'édito de Philippe Couve

Bonjour, c’est Philippe,

Aujourd’hui, j’ai envie de vous parler de ChatGPT et des risques qu’il fait peser sur l’information. L’outil est puissant. Très. Mais il est porteur de menaces. Nombreuses. Et nous allons vous demander votre avis sur le sujet à la fin de cet édito.

Chez Samsa, vous le savez, nous sommes très enclins à embrasser toutes les nouveautés. C’est dans notre ADN. Mais cette fois, je suis convaincu que nous devons tenir compte de l’histoire récente, celle des réseaux sociaux. La promesse de donner la parole à tous a été en partie dévoyée par un déferlement de fausses nouvelles qui mettent en cause le vivre ensemble et l’existence d’un récit commun crucial en démocratie.

Avec les intelligences artificielles génératives comme ChatGPT, nous devons sans doute encadrer les pratiques dans le domaine du journalisme. La Britannique, Emily Bell, ancienne boss du Guardian et actuelle directrice du Tow Center for Digital Journalism de l’Université de Columbia, en appelle à ne pas reproduire les mêmes erreurs.

Dans une tribune, elle met en garde contre la tentation de prendre les IA pour de véritables personnages avec lesquels on discute et qui peuvent éprouver des émotions ou nous en faire ressentir. Elle insiste sur la dimension technique: les IA sont des programmes probabilistes qui alignent les mots sans prendre en compte ni le sens, ni la vérité. Et avec de nombreux biais. “Le problème est qu’ils n’ont absolument aucun engagement envers la vérité. Pensez à la rapidité avec laquelle un utilisateur de ChatGPT pourrait inonder Internet de fausses histoires qui semblent avoir été écrites par des humains.”, insiste Emily Bell.

Face à l’engouement actuel, Emily Bell s’étonne: “Il semble incroyable […] que nous n’ayons rien appris des 20 dernières années au cours desquelles des médias sociaux déployés rapidement et mal gérés ont exacerbé les problèmes sociaux et démocratiques plutôt que de les améliorer.”

Chez Samsa, nous voulons croire qu’il existe des solutions. Le magazine Wired vient par exemple de publier sa charte d’utilisation des IA.

Wired a décidé de 

  • ne pas publier “de textes générés par l’IA, sauf si le fait que cela soit généré par l’IA est le point principal de l’article”, 
  • ne pas publier de textes édités par l’IA. Les outils d’IA actuels sont sujets à des erreurs et à des biais, et produisent souvent des textes ternes et sans originalité.
  • ne pas publier d’images ou de vidéos générées par l’IA.

Wired s’autorise à utiliser des outils d’IA

  • pour suggérer des titres ou des textes pour des publications sur les réseaux sociaux;
  • pour suggérer des idées d’articles; 
  • pour expérimenter leur utilisation comme outil de recherche ou d’analyse. 

Et vous, qu’en pensez-vous ? Doit-on encadrer le déploiement de l’intelligence artificielle dans les médias ? Je vous propose de répondre à ce petit questionnaire dont nous vous donnerons les résultats la semaine prochaine.

Questionnaire: votre avis sur le déploiement de l’intelligence artificielle dans les rédactions

Bonne semaine, à très bientôt, 

Philippe Couve

Directeur de Samsa.fr et Samsa Africa

`
`