Contexte: L’utilisation de l’intelligence artificielle (IA) est en plein essor, et l’arrivée en novembre 2022 de ChatGPT accéléré cette tendance. Ce robot conversationnel permet de produire des articles scientifiques dans leur intégralité, pouvant donner lieu à du plagiat du fait de l’utilisation de données préalables, et potentiellement à des articles frauduleux car créés sans données scientifiques réelles. Des outils permettent de détecter l’IA dans les publications, mais à notre connaissance n’ont pas été évalués sur les publications d’une revue scientifique de manière systématique. Aussi une étude rétrospective a été menée sur des articles publiés dansOrthopaedics & Traumatology: Surgery & Research (OTSR) afin de : 1) rechercher la présence de texte généré par de l’IA avant et après la médiatisation à grande échelle de chatGPT au sein d’articles publiés dans OTSR, 2) déterminer si l’IA était plus fréquemment utilisée dans certains pays pour générer des textes dans OTSR, 3) déterminer s’il existait une corrélation entre le taux de plagiat et la genèse d’un article par de l’IA, 4) préciser si des facteurs autres que les générateurs de textes pouvaient rendre un article suspect d’utilisation d’IA, notamment le procédé de traduction.Hypothèse: Le taux d’IA augmentait avec l’issue publique de la version 3.5 de ChatGPT en novembre 2022.Matériel et Méthodes: Au total 425 publications (février 2022 à septembre 2023 : 221 articles avant et 204 articles après 1/11/2022) ont vu leur taux d’IA mesuré par ZeroGPT sur la version finale de l’article en version anglaise (résumé et texte). Pour chaque article deux scores était obtenus : i) un intitulé de probabilité (en 6 classes de Humain à IA généré), ii) un pourcentage de texte généré par de l’IA. Le taux de plagiat mesuré au moyen d’IthenticateTM(Turnitin, Oakland, CA, USA) lors de la soumission initi...