Recommandations de bonnes pratiques suite à l'analyse des questions éthiques soulevées
par l'utilisation de l'Intelligence Artificielle dans la recherche à l'Inserm - CISMeF
Recommandations de bonnes pratiques suite à l'analyse des questions éthiques soulevées
par l'utilisation de l'Intelligence Artificielle dans la recherche à l'InsermDocument
Titre : Recommandations de bonnes pratiques suite à l'analyse des questions éthiques soulevées
par l'utilisation de l'Intelligence Artificielle dans la recherche à l'Inserm;
Description : L'utilisation croissante de SIA dans la recherche médicale et en santé, notamment
au sein d'institutions telles que l'Inserm, soulève des enjeux majeurs à la fois prometteurs
et posant questions. Les SIA servent à l’Inserm évidemment à soutenir la démarche
scientifique mais leur usage se développe également au sein de l’administration pouvant
à terme impliquer l’aide à la décision en matière de projets, de gestion ou de ressources
humaines. Les SIA offrent des avantages indéniables : ils permettent de traiter des
quantités massives de données, d'accélérer la découverte de nouveaux mécanismes à
l’origine de pathologies, ils peuvent aider à révéler de nouveaux biomarqueurs, aider
à prédire la survenue de pathologies et permettre d’envisager une médecine de plus
en plus personnalisable. Au quotidien, les SIA deviennent de remarquables outils d’aide
à la rédaction de texte en produisant des résumés, le plan d’un document, en proposant
des améliorations de style, corrigeant l’orthographe, la grammaire, aidant à la génération
de codes informatiques et à leur vérification ou encore comme outil de traduction,
tous usages qui permettent de gagner du temps sur des tâches à faible valeur ajoutée.
Cependant, cette révolution technologique s’accompagne également d’impacts délétères,
par exemple leur coût énergétique et son retentissement écologique, et de nombreuses
questions sur les effets de plus ou moins long terme de ces technologies, les incertitudes
et risques associés qui concernent notamment la qualité et la confidentialité des
données, les biais algorithmiques, l’interprétabilité des résultats, la dépendance
aux technologies propriétaires, la fragilisation de pratiques et des infrastructures
en cas d’attaques malveillantes, ou encore la perte de souveraineté.;