Le Forum économique mondial étudie l’utilisation de patients et de données générés par l’IA dans les essais cliniques
Les dirigeants politiques et économiques du monde entier se réunissent cette semaine à Davos, en Suisse, pour la réunion annuelle du Forum économique mondial (WEF), dont l’un des thèmes centraux cette année est “l’intelligence artificielle [AI] en tant que force motrice pour l’économie et la société“.
Mais alors que les dirigeants mondiaux se préparent à discuter de l’IA, un projet du WEF – annoncé pour la première fois en 2019 – finance déjà la recherche sur l’utilisation de “patients” et de données “synthétiques” générés par l’IA dans les essais cliniques.
Les données synthétiques seraient développées par l’IA – et seraient ensuite transmises à l’IA pour la “former”.
L’agence britannique de réglementation pharmaceutique, la Medicines and Healthcare Products Regulatory Agency (MHSA), a reçu 750 387 livres sterling (environ 950 000 dollars) pour ce projet, qui semble soutenir des recherches actuellement en cours dans au moins deux universités britanniques, soient l’Université de Birmingham et la Brunel Université London..
Le Fonds pionnier des régulateurs du gouvernement britannique a financé le projet 2022. Le financement semble provenir d’un accord conclu en janvier 2019 entre le gouvernement britannique et le WEF, “pour mener [the] la révolution de la réglementation afin de favoriser les industries du futur”.
Dans le cadre de cet accord, le Royaume-Uni est devenu le premier pays à s’associer au Centre pour la quatrième révolution industrielle du WEF, en s’appuyant sur une “collaboration existante” dans le domaine de l’IA.
Les partisans de l’utilisation de l’IA pour créer des données et des participants “synthétiques” aux essais cliniques affirment qu’elle est beaucoup moins coûteuse que l’utilisation de participants humains, qu’elle répond aux préoccupations en matière de protection de la vie privée liées aux données collectées auprès des humains et qu’elle peut améliorer l’”équité”.
Mais les experts qui se sont entretenus avec The Defender ont exprimé des inquiétudes quant à l’utilisation qui pourrait être faite de cette technologie.
Mary Holland, présidente-directrice générale de Children’s Health Defense (CHD), a déclaré qu’il était facile de “comprendre l’attrait” des données cliniques synthétiques générées par l’intelligence artificielle.
“L’obtention de données réelles sur les patients prend du temps, est coûteuse et nécessite le consentement éclairé des patients”, a déclaré M. Holland. “Les données artificielles, en revanche, ne nécessitent rien de tout cela. C’est très pratique – et lucratif – pour Big Pharma“, a déclaré Mme Holland.
Brian Hooker, docteur en sciences, directeur principal de la science et de la recherche au CHD, a décrit les patients et les données “synthétiques” générés par l’IA comme “une proposition extrêmement effrayante”.
L’utilisation de l’IA pour générer des données – pour les groupes de contrôle et les groupes expérimentaux de “patients” – semble être un moyen de réduire davantage les coûts des vaccins approuvés qui sont malheureusement sous testés, comme le vaccin Covid-19 à ARNm de Pfizer et de Moderna”, a-t-il déclaré.
Le Dr Meryl Nass, interniste et épidémiologiste spécialisée dans les guerres biologiques, a déclaré : “Les laboratoires pharmaceutiques ne veulent pas de véritables essais cliniques avant de pouvoir vendre leurs produits. La plupart des médicaments et des vaccins meurent au cours des essais, car les gens ne se comportent pas comme des souris ou des rats dans le monde réel. De plus, les essais cliniques sont très coûteux.
Mme Nass a déclaré : “Entrez dans le faux essai clinique”.
Cependant, il y a un “hic”, selon Mme Holland. “Les données peuvent être incroyablement erronées.
“Ce projet d’information sur les essais cliniques par l’IA me rappelle les résultats des élections soviétiques où, fait remarquable, le seul candidat en lice obtenait toujours 99 % des voix – et ce, même sans l’IA”, a-t-elle déclaré. “On peut imaginer des résultats d’essais cliniques d’IA similaires pour des produits médicaux, comme les résultats de l’essai clinique de l’injection Covid-19, dont l’efficacité présumée est de 99 %.
Michael Rectenwald, auteur de “Google Archipelago: The Digital Gulag and the Simulation of Freedom”, a déclaré que les participants et les données “synthétiques” des essais cliniques s’inscrivent dans le cadre du programme plus large du WEF et de son fondateur et président exécutif, Klaus Schwab, visant à introduire l’IA dans de nombreux secteurs de la société.
“Schwab et le WEF pensent que l’avenir appartient à l’IA”, a déclaré M. Rectenwald. “Ils pensent que l’IA rendra les élections inutiles, et maintenant ils disent que l’IA rendra obsolètes les essais cliniques pour les vaccins, avec de vrais sujets humains. De telles mesures d’IA sont susceptibles de truquer les résultats et le WEF ne demande pas mieux que de truquer les essais de vaccins – et les élections”, a-t-il déclaré.
Les partisans de l’IA vantent son “énorme potentiel” pour générer des patients et des données synthétiques
Selon un article publié en 2023 dans Clinical Cancer Informatics:
“Les données synthétiques sont des données artificielles générées par un algorithme formé pour apprendre les caractéristiques d’un ensemble de données réelles, sans inclure d’informations réelles sur les patients. Elles sont largement utilisées pour accélérer la recherche dans le domaine des sciences de la vie.
“Les données synthétiques imitent les caractéristiques et les résultats cliniques et génomiques réels et rendent anonymes les informations relatives aux patients. La mise en œuvre de cette technologie permet d’accroître l’utilisation scientifique et la valeur des données réelles, accélérant ainsi la médecine de précision en hématologie et la conduite d’essais cliniques.
“Il s’agit notamment de faciliter l’accès aux données de formation, souvent sans que la vie privée des patients en pâtisse, d’offrir un meilleur accès aux ensembles de données de validation ou d’étalonnage, de combler les lacunes dans les données qui existeraient autrement, et d’augmenter la taille des échantillons”.
Ce concept semble s’appuyer sur la pratique existante de l’utilisation de “surrogate endpoints”(critères de substitution)dans les essais cliniques: au lieu de mesurer si les participants à l’essai se sentent mieux ou vivent plus longtemps, ou d’examiner les résultats, par exemple si les participants ont eu un accident vasculaire cérébral, les chercheurs utilisent des mesures par procuration dont les chercheurs s’attendent simplement qu’ils soient prédictifs.
Selon Bertalan Meskó, docteur en médecine, directeur du Medical Futurist Institute, les “patients artificiels” peuvent être définis comme “un ensemble de données représentant les caractéristiques humaines souhaitées … basées sur de grandes quantités de données de patients réels, sans réellement inclure de données de patients réels pouvant être retracées”.
“Les patients artificiels peuvent être la réponse à plus d’un problème de la médecine moderne, y compris la protection de la vie privée des patients”, a écrit M. Meskó. “Un jour, les patients virtuels pourraient devenir les outils de référence pour “estimer l’efficacité et les effets secondaires potentiels de molécules médicamenteuses prometteuses ou optimiser l’utilisation de celles qui existent déjà”, modéliser le taux de réussite de nouveaux dispositifs médicaux ou remplacer le groupe de contrôle placebo dans les essais cliniques.
“L’utilisation de données du monde réel comme groupe de patients dans un essai, souvent connu sous le nom de bras de contrôle synthétique, peut rendre les essais de recherche plus efficaces – les entreprises n’ont pas besoin de recruter autant de personnes dans les essais cliniques et peuvent garantir que les candidats recevront effectivement le traitement”, écrit-il, ajoutant que “les groupes de contrôle synthétiques peuvent également améliorer l’équité dans la recherche clinique”.
“Comme beaucoup l’espèrent, les patients artificiels pourront un jour remplacer complètement les humains et les animaux dans les essais cliniques, les animaux étant très probablement les premiers”, écrit M. Meskó.
L’aperçu du projet financé par le gouvernement britannique indique que l’affectation de patients d’essais cliniques humains à des groupes de contrôle “peut s’avérer difficile dans certains états de santé, car l’affectation aléatoire à un groupe de contrôle pourrait priver les patients de l’accès à des traitements qui pourraient prolonger leur vie ou améliorer leurs symptômes”.
L’aperçu du projet ajoute que “de nombreux essais cliniques éprouvent également des difficultés à recruter suffisamment de patients, en particulier ceux qui portent sur des maladies rares”.
Cependant, “les récentes améliorations de la puissance informatique ont permis aux chercheurs de créer des patients artificiels, avec des informations de santé similaires à celles des patients réels dans les essais cliniques”, indique la vue d’ensemble du projet. Ces “données artificielles” pourraient alors contribuer à “stimuler les essais cliniques de moindre envergure, en réduisant le nombre de patients nécessaires à leur réussite”.
Les informations générées artificiellement pourraient également être utilisées pour “mieux refléter les groupes de la société qui sont moins bien représentés dans les essais cliniques, y compris les différents groupes d’âge et les ethnies”, selon l’aperçu du projet, qui précise également :
“À l’avenir, ces approches pourraient être combinées à des informations réelles sur les patients, voire les remplacer. La réussite de ce projet pourrait contribuer à modifier la façon dont les essais cliniques sont réalisés pour les maladies courantes et rares, en réduisant leur coût et en améliorant la façon dont les nouveaux traitements sont testés.”
Les deux études en cours, à l’université de Birmingham et à l’université Brunel de Londres, se poursuivront jusqu’au début de 2025. Ils ont également produit au moins un article évalué par des pairs, qui sera bientôt publié dans Heliyon.
Selon une version publique de l’article, “les générateurs de données synthétiques avancés peuvent modéliser des ensembles de données personnelles sensibles en créant des échantillons simulés de données avec des structures de corrélation et des distributions réalistes, mais avec un risque considérablement réduit d’identification des personnes”.
“Le potentiel est énorme en médecine, où les données sensibles des patients peuvent être simulées et partagées, ce qui permet le développement et la validation solide de nouvelles technologies d’IA pour le diagnostic et la gestion des maladies”, ajoute le document.
Cependant, selon les auteurs de l’article, “la sous-représentation des groupes est l’une des formes sous lesquelles un biais peut survenir dans l’apprentissage automatique [and] et peut également conduire à des données structurellement manquantes ou à des corrélations et distributions incorrectes qui seront reflétées dans les données synthétiques générées à partir d’ensembles de données véritables sur le terrain biaisées.”
Une nouvelle approche développée par les chercheurs, BayesBoost, est censée surmonter ces difficultés en démontrant “une excellente capacité à identifier les groupes sous-représentés dans les données en fonction d’un attribut sensible et d’une maladie cible” et “en générant de nouvelles données synthétiques qui ne s’écartent pas de la distribution des données réelles”.
“Nous devons insister sur la nécessité de réaliser des essais cliniques sur des sujets humains”
Même les partisans de l’utilisation de l’IA pour développer des patients “synthétiques” et des données d’essais cliniques notent que la technologie présente des lacunes.
Selon M. Meskó, “l’utilisation de patients artificiels pour le développement de médicaments ou de dispositifs médicaux est un domaine prometteur, mais il reste un long chemin à parcourir jusqu’à ce que les modèles atteignent la complexité requise tout en étant véritablement représentatifs de la population humaine”.
Notant que les modèles d’IA et les ensembles de données sont imparfaits et contiennent des “biais”, il a déclaré : “Si nous laissons les algorithmes d’apprentissage automatique et d’apprentissage profond se développer sur ces ensembles de données synthétiques et imparfaits, il y a de fortes chances qu’ils parviennent à des conclusions qui sont plus ou moins fausses dans le monde réel.”
Les auteurs de l’article de Regulatory Focus se sont demandé “dans quelles circonstances, le cas échéant, il serait acceptable que AIaMD [artificial intelligence as a medical device] soit formé ou testé sur des données synthétiques plutôt que sur des données réelles” et s’il “existe des possibilités d’utiliser des données synthétiques pour mieux valider ou tester les modèles AIaMD”.
Mais les experts qui se sont entretenus avec The Denfender ont exprimé des inquiétudes quant aux résultats mêmes qui peuvent émerger de ces modèles – et aux conséquences potentielles pour le grand public des médicaments et des traitements testés cliniquement à l’aide de ces modèles.
Selon M. Booker, les participants aux essais cliniques et les données “synthétiques” générées par l’IA risquent fort de poser des problèmes, car la science actuelle manque encore de connaissances essentielles sur la physiologie humaine.
“L’IA ne vaut que ce que vaut l’algorithme produit pour la simulation et il y a tant de choses que nous ne savons pas sur la physiologie humaine, en particulier au niveau de la population”, a-t-il déclaré. “C’est faire preuve d’orgueil que de croire le contraire, et c’est extrêmement dangereux pour les âmes involontaires à qui cela sera imposé.
Le Dr Nass a proposé un exemple hypothétique: Elle a dit :
“Supposons que la mesure d’un niveau arbitraire d’anticorps – sans démontrer qu’il s’agit d’un substitut d’une immunité réelle – remplacera un test d’efficacité réel. Il suffit d’injecter votre produit expérimental à une personne, puis de la ramener 2 à 4 semaines plus tard pour lui prélever un échantillon de sang, qui révèle invariablement la présence d’anticorps.
“Ces anticorps peuvent prévenir la maladie, la renforcer (la rendre plus grave), augmenter le risque de maladie ou n’avoir aucun effet mesurable. Peu importe. Voilà ! C’était facile. Licence délivrée”.
L’adoption des “essais cliniques de l’IA” semble être un moyen de plus pour les dirigeants du WEF de transformer la population humaine mondiale en rats de laboratoire planétaires”, a déclaré Mme Holland.
Mme Nass a déclaré que, pour les entreprises pharmaceutiques, il est “encore moins cher … de ne pas utiliser les gens du tout. Il suffit de les modéliser”.
“Pourquoi pas, puisque la FDA semble maintenant penser que son travail consiste à mettre en place une charade convaincante d’agence de régulation”, a-t-elle demandé.
D’autres experts ont également lié les efforts visant à développer des participants et des données “synthétiques” pour les essais cliniques à des points plus généraux de l’ordre du jour du WEF, notamment les efforts visant à se préparer et à contrer une hypothétique “maladie X” qui, selon l’Organisation mondiale de la santé et d’autres, pourrait être à l’origine de la prochaine pandémie.
“Les partisans de la vaccination contre la maladie X dans un délai de 100 jours utiliseraient très probablement ce substitut peu convaincant aux données réelles sur les patients pour atteindre leur objectif invraisemblable”, a déclaré M. Hooker.
La “maladie X” est l’un des points à l’ordre du jour de la réunion du WEF de cette semaine à Davos, tandis qu’en 2021, le Gouvernement britannique et la Coalition for Epidemic Preparedness and Innovations (CEPI) ont annoncé leur “Mission 100 jours”, qui consiste à développer la capacité de mettre au point un vaccin contre une future “maladie X” dans un délai de 100 jours.
Nous devons insister sur les essais cliniques sur des sujets humains, même si le WEF et ses “partenaires publics-privés” essaient de nous éblouir et de nous embrouiller avec la technologie”, a déclaré M. Rectenwald.
CHD.TV couvrira les réunions de Davos toute la semaine.
Michael Nevradakis