Une sélection de ressources (articles scientifiques, billets et autres liens) en lien avec les thématiques du DéSaN : entrepôts de données de santé, modèles de langage et, plus généralement, sciences de l’information dans le domaine de la santé. Ces ressources ont été repérées durant le mois de décembre 2025 et début 2026.
Cette veille existe également sous la forme de pages Wakelet
et Zotero.
Thèmes Principaux et Idées Clés (réalisé avec Google NotebookLM)
1. Entrepôts de données et gestion des dossiers cliniques
- Lyu et al., « The development and use of data warehousing in clinical settings: a scoping review » : Une revue de l’utilisation des entrepôts de données pour optimiser les analyses de soins en milieu clinique. https://doi.org/10.3389/fdgth.2025.1599514
- Knezevic Ivanovski et al., « Building a healthcare data warehouse: considerations, opportunities, and challenges » : Analyse des défis architecturaux et des opportunités liés à la mise en place d’infrastructures de données de santé. https://doi.org/10.3389/fdgth.2025.1691142
- Soumma et al., « Design and Implementation of a Scalable Clinical Data Warehouse for Resource-Constrained Healthcare Systems » : Proposition d’un cadre d’entrepôt de données national évolutif adapté aux environnements à ressources limitées. https://doi.org/10.1109/EMBC58623.2025.11254202
- « OpenAI lance ChatGPT Santé, un dossier médical boosté à l’IA » : Présentation d’un nouvel espace sécurisé permettant aux patients de centraliser leurs données médicales pour obtenir des analyses personnalisées. https://www.apmnews.com/story.php?objet=431962
- Fa et al., « Prediction of prolonged length of stay from first 2 days of hospitalization data » : Modèle utilisant l’apprentissage automatique pour prédire précocement la durée de séjour hospitalier. https://doi.org/10.1093/intqhc/mzaf116
- Bazoge et al., « Improving social determinants of health documentation in French electronic health records using large language models » : Utilisation des LLM pour extraire les déterminants sociaux à partir de comptes rendus cliniques en français. https://doi.org/10.1038/s41598-025-29987-z
2. Évaluation, fiabilité et sécurité des modèles de langage (LLM)
- Gong et al., « Knowledge-Practice Performance Gap in Clinical Large Language Models: Systematic Review of 39 Benchmarks » : Étude soulignant l’écart entre les connaissances théoriques et l’application pratique des modèles en clinique. https://doi.org/10.2196/84120
- N K et al., « A Unified Multi-Domain Framework for Hallucination Detection and Reliability Evaluation in Large Language Models » : Introduction du benchmark MDH-Bench pour détecter les hallucinations et évaluer la robustesse des modèles. https://doi.org/10.21203/rs.3.rs-8215493/v1
- Zhou et al., « Automating expert-level medical reasoning evaluation of large language models » : Présentation de MedThink-Bench, un outil d’évaluation du raisonnement médical basé sur l’expertise humaine. https://doi.org/10.1038/s41746-025-02208-7
- Lee et al., « Vulnerability of Large Language Models to Prompt Injection When Providing Medical Advice » : Analyse de la vulnérabilité des modèles médicaux face aux attaques par injection de prompts. https://doi.org/10.1001/jamanetworkopen.2025.49963
- Liu et al., « A scoping review: how evaluation methods shape our understanding of ChatGPT’s effectiveness in healthcare » : Revue montrant comment les protocoles d’évaluation influencent les conclusions sur l’efficacité de l’IA. https://doi.org/10.1016/j.ijmedinf.2025.106248
- Lamba et al., « Hallucinations in Scholarly LLMs: A Conceptual Overview and Practical Implications » : Vue d’ensemble conceptuelle des erreurs générées par les modèles dans le cadre de la recherche académique. https://doi.org/10.52825/ocp.v8i.3175
3. Aide au diagnostic et extraction de connaissances
- Guillen-Ramirez et al., « LLM-augmented semantic embeddings enable Cross-Lingual mapping of medical procedure terms » : Cadre facilitant l’intégration multilingue des terminologies de procédures médicales. https://doi.org/10.1038/s41598-025-34778-7
- Kim et al., « MedSumGraph: enhancing GraphRAG for medical QA with summarization and optimized prompts » : Système combinant graphes de connaissances et résumés pour fiabiliser les réponses aux questions médicales. https://doi.org/10.1016/j.artmed.2025.103311
- Islam et al., « ZebraMap: A Multimodal Rare Disease Knowledge Map with Automated Data Aggregation & LLM-Enriched Information Extraction Pipeline » : Carte de connaissances dédiée au diagnostic des maladies rares par agrégation automatisée de données. https://doi.org/10.3390/diagnostics16010107
- Shao & Zhang, « Two-stage prompting framework with predefined verification steps for evaluating diagnostic reasoning tasks on two datasets » : Méthode de prompting avec étapes de vérification pour sécuriser le raisonnement diagnostique. https://doi.org/10.1038/s41746-025-02146-4
- Zhang & Jiang, « Accelerate Medical Discovery with PubMed in BigQuery » : Guide pour accélérer la recherche médicale grâce à l’analyse sémantique massive des données PubMed. https://cloud.google.com/blog/topics/public-sector/accelerate-medical-research-with-pubmed-data-now-available-in-bigquery
4. Pratiques de recherche scientifique et éthique de l’IA
- Cassell et al., « Analysis of article screening and data extraction performance by an AI systematic literature review platform » : Évaluation d’une plateforme automatisée pour le screening et l’extraction de données scientifiques. https://doi.org/10.3389/frai.2025.1662202
- Kusumegi et al., « Scientific production in the era of large language models » : Analyse de l’impact des LLM sur la productivité et la qualité linguistique de la littérature scientifique. https://doi.org/10.1126/science.adw3000
- Luo et al., « Reporting guideline for the use of Generative Artificial intelligence tools in MEdical Research: the GAMER Statement » : Nouvelles lignes directrices pour garantir la transparence de l’IA dans les publications de recherche. https://doi.org/10.1136/bmjebm-2025-113825
- Maisonneuve, « Le NEJM AI a ouvert la voie : reviewers, relecteurs, un métier en voie de disparition (rapide ?) » : Réflexion sur l’automatisation croissante de la relecture par les pairs. https://www.redactionmedicale.fr/2025/11/reviewers-relecteurs-un-metier-en-voie-de-disparition-le-nejm-ai-a-ouvert-la-voie
- Maupin et al., « Dramatic increases in redundant publications in the Generative AI era » : Étude documentant une hausse préoccupante des publications redondantes facilitées par l’IA. https://doi.org/10.1186/s12916-025-04569-y
- Shao et al., « SciSciGPT: advancing human–AI collaboration in the science of science » : Agent intelligent conçu pour automatiser les tâches complexes dans le domaine de la science de la science. https://doi.org/10.1038/s43588-025-00906-6
- Zhou & Hu, « Can AI assess literature like experts? An entropy-based comparison of ChatGPT-4o, DeepSeek R1, and human ratings » : Comparaison montrant que l’IA peut évaluer la qualité littéraire de manière comparable aux experts. https://doi.org/10.3389/frma.2025.1684137
- Tay, « “We’re Good at Search”… Just Not the Kind That the AI era Demands – a Provocation » : Discussion sur la nécessité de faire évoluer les compétences de recherche vers des modèles agentiques et sémantiques. https://aarontay.substack.com/p/were-good-at-search-just-not-the