October 7, 2025

À l’intérieur de la coalition de santé AI que l’administrateur Trump veut mort

0
donald-trump-sept.-18-2025-1200x675.jpg



L’administration Trump n’est pas satisfaite d’un organisme sans but lucratif dirigé par l’ère Biden et du secteur privé qui voit les outils d’IA à utiliser dans les milieux de santé.

La Coalition for Health IA (CHAI) a été critiquée des hauts responsables du ministère de la Santé et des Services sociaux la semaine dernière, rapporte Politico.

Avec les laboratoires de Duke, Stanford et de Mayo Clinic, Chai travaille avec les secteurs privés de la technologie et de la santé pour élaborer des directives et les meilleures pratiques pour la mise en œuvre de l’IA. Les partenaires fondateurs de la Coalition comprennent des hôpitaux comme le général de masse Brigham, des sociétés de soins de santé comme CVS et UnitedHealth, et les grands géants de la technologie Microsoft, Amazon et Google.

“Chai est ce partenariat public-privé où vous avez des innovateurs du secteur privé en informant les responsables du secteur public, et le secteur public est en mesure de faire des politiques mieux informées de là”, a déclaré le PDG de Chai, Brian Anderson, à Gizmodo.

L’organisme à but non lucratif compte actuellement environ 15 groupes de travail à cas d’usage, chacun dirigé par des chercheurs d’Amazon, Intel, Oracle, Microsoft, etc. La coalition prévoit également de lancer un registre national des cartes de modèles – un peu étiquette nutritionnelle qui fournit des informations de haut niveau sur les modèles d’IA – pour mieux éclairer les systèmes de santé qui cherchent à se procurer des modèles d’IA.

Les responsables administratifs de Trump affirment maintenant que le véritable objectif de l’organisation est d’étouffer les startups de la technologie de la santé et le développement de l’IA.

«Le ministère de la Santé et des Services sociaux de Biden a donné à Chai et à ses grands bailleurs de fonds technologiques le pouvoir de réglementer et d’étouffer les startups de technologie de santé.

Le PDG de Chai, Brian Anderson, plaide contre cette caractérisation.

“Chai n’a rien à voir avec la réglementation gouvernementale. Le gouvernement décide de la politique et de la réglementation, et Chai, nous nous adapterons à cela”, a déclaré Anderson. «(Mais) dans un partenariat public-privé, nous voulons idéalement informer nos régulateurs et nos décideurs afin qu’ils prennent des réglementations éclairées.»

Chai n’a pas de pouvoir réglementaire réel, mais O’Neill a déclaré à Politico la semaine dernière qu’il avait entendu des responsables de l’industrie qui avaient fait craindre que les startups qui souhaitent travailler dans l’espace se sentent comme si elles devaient être membre de l’organisation. O’Neill pense que Chai a le potentiel de devenir un «cartel» qui supprime l’innovation dans la santé AI.

“Personne ne devrait vraiment se sentir obligé de soumettre leur travail pour l’analyse de leurs concurrents ou des personnes enchevêtrées avec leurs concurrents”, a déclaré O’Neill à Politico.

«C’est comme un cornet de crème glacée auto-légendaire, un syndicat virtuel et contraire à l’éthique. Nous frappons la réinitialisation. Sous secrétaire Robert F. Kennedy Jr., HHS n’autorisera pas Chai – ni aucun autre groupe à but non lucratif, un groupe de réflexion ou une compagnie – pour exploiter comme un répertoire ou un répertoire soutenu par le gouvernement. Cette affirmation peut sembler riche étant donné que l’administration Trump a largement suivi le livre de jeu du projet 2025 qui a été conçu par la Heritage Foundation, un groupe de réflexion conservateur.

Les objectifs de Chai ont également été remis en question dans des lignes similaires par des membres du Congrès républicain lors des audiences précédentes du Sénat.

Lors d’une audience de mai 2024, la représentante républicaine Mariannette Miller-Meks a déclaré que Chai et d’autres organisations similaires, appelées laboratoires d’assurance, ne «réussissent pas le test de l’odeur» et ne montrent pas de «signes clairs de tentative de capture réglementaire».

La capture réglementaire se produit lorsqu’une agence de réglementation créée pour faire progresser l’intérêt public devient un coquille pour des groupes d’intérêt spéciaux qui dominent l’industrie même que l’agence est censée réglementer. Au cours de l’audience, le Dr Jeff Shuren, qui a dirigé le Centre des appareils et de la santé radiologique de la FDA, mais a depuis quitté son poste, a répondu aux préoccupations des représentants en disant que si Chai produit «quoi que ce soit en termes de livrables qui est utile, nous pouvons le prendre en considération. Mais ils ne fonctionnent pas pour nous, nous ne travaillons pas pour eux».

Les craintes de Chai tentant de capture réglementaire ont également été soulevées dans un article d’opinion par un cadre de la société de capital-risque Andreessen Horowitz.

“Les grandes sociétés sont fortement incitées à saisir le marché sous le couvert de la sécurité”, a déclaré Julie Yoo, partenaire général de l’équipe de santé Bio + de la BIO + d’Andreessen Horowitz, affirmant que des couches supplémentaires de révision de la propriété intellectuelle des startups “ralentissaient l’innovation réelle”.

Les fondateurs d’Andreessen Horowitz ont approuvé Trump lors des élections de 2024 et ont soutenu un effort de 100 millions de dollars pour influencer la politique de l’IA avec un groupe extérieur appelé «diriger l’avenir».

Le chai n’est pas obligatoire, mais malgré cela, il y a 3 000 organisations qui sont membres de la coalition, un mélange d’entreprises technologiques et de soins de santé et d’hôpitaux. Anderson dit que 700 de ces membres sont des startups, la communauté des parties prenantes la plus active et la plus rapide de Chai.

Il soutient que les startups rejoignent Chai non pas par pression mais comme un moyen de faire progresser leur entreprise et de comprendre leurs clients.

“La raison pour laquelle les startups veulent en faire partie est parce qu’ils veulent construire un produit qu’ils peuvent vendre à autant de systèmes de santé et de sociétés de sciences de la vie”, a déclaré Anderson. «C’est Business 101 pour toute entreprise technologique de connaître vos clients, et c’est essentiellement ce que nous créons.»

Cette logique vaut également pour les grandes entreprises technologiques qui fournissent des services cloud à ces startups de santé, selon lui. Azure de Microsoft, AWS d’Amazon et la plate-forme Google Cloud sont tous des choix de choix pour les startups AI et sont tous des partenaires fondateurs.

Il insiste sur le fait que les intérêts des startups ne seront pas écrasés par les grandes entreprises technologiques qui font également partie de la coalition, affirmant que chaque entreprise n’obtient qu’un siège dans les groupes de travail, et que les startups sont plus nombreuses que les grandes entreprises technologiques.

Mais les partenaires fondateurs, qui comprennent Amazon, Google et Microsoft, ont également un siège garanti sur un conseil consultatif qui relève du conseil d’administration pour façonner les décisions de gouvernance.

Tout pour la transparence

O’Neill a déclaré à Politico que l’administration Trump soutient les efforts de transparence de l’IA afin que les acheteurs puissent prendre des décisions mieux informées. C’est un point que, en principe, lui et Anderson se voient yeux.

Parce que l’IA est plutôt nouvelle, «il est vraiment important d’avoir un niveau de transparence dans la façon dont ces modèles fonctionnent réellement et de pouvoir les surveiller une fois qu’ils sont déployés», a déclaré Anderson.

“La partie ultime responsable lorsqu’un modèle est utilisé n’est pas le fournisseur, c’est le médecin, c’est le système de santé. Donc, vous avez des systèmes de santé à juste titre” bien, avant d’utiliser ce modèle, j’ai besoin de savoir quel type d’ensembles de données a été utilisé pour le former, quelle était la méthodologie de formation? ” A dit Anderson.

Mais Anderson pense qu’il est logique que les entreprises technologiques ne veulent pas révéler leur propriété intellectuelle. Chai essaie de trouver un équilibre par le biais de groupes de travail qui rassemblent des chercheurs et des dirigeants des deux secteurs pour parvenir à un consensus sur la quantité minimale de divulgation qui peut satisfaire à ces exigences de transparence.

Cela comprend des descriptions de haut niveau des ensembles de données et de la méthodologie qui est utilisé pour former des modèles d’IA, plutôt que de montrer la ligne pour les ensembles de données exacts utilisés.

“La carte modèle ne nécessite pas la communauté des startups, ni les entreprises technologiques en général, pour révéler leur IP”, a déclaré Anderson. «C’était les fournisseurs qui souhaitaient établir la confiance avec les clients, et les clients souhaitant pouvoir faire confiance à ces outils.»

Les fournisseurs de ressources d’assurance certifiés par Chai, Beekeeaierai et Citadel AI, avec plus de nouveaux, offrent également un test volontaire que les systèmes de santé peuvent demander aux développeurs de passer avant de prendre une décision d’achat finale. Ce sont des tests comme ceux-ci contre lesquels les critiques sont contre, mais Chai affirme qu’il est important pour le déploiement responsable et transparent de l’IA de santé, et qu’il accélère en fait l’adoption de l’IA dans les soins de santé en rationalisant le processus de vérification et de déploiement.

Relations gouvernementales

Bien qu’il soit dirigé par le secteur privé, Chai travaille dans une certaine mesure avec des représentants du gouvernement.

Deux anciens responsables de l’administration de Biden, secrétaire adjoint de la politique technologique de HHS, Mickey Tripathi, et directeur du Centre d’excellence de la santé numérique de la FDA, Troy Tazbaz, étaient destinés à un délai limité non votant les membres du conseil d’administration tout en occupant des postes gouvernementaux, mais ont ensuite résigné citant des conflits d’intérêts.

L’administration Biden avait également plusieurs liaisons fédérales travaillant dans les groupes de travail de la coalition, et les relations de la coalition avec le gouvernement se poursuivent sous l’administration Trump. Au moins jusqu’à présent.

Anderson a déclaré qu’ils avaient eu plusieurs pistes techniques d’agences HHS comme les Centers for Medicare & Medicaid Services, et ont récemment annoncé une collaboration avec l’Institut national des normes et de la technologie, qui a été chargé de se concentrer entièrement sur la progression de l’IA sous Trump.

Chai a également des réunions régulières avec les sénateurs républicains Mike Crapo, Mike Rounds, Todd Young et Ted Cruz pour parler de l’IA en santé, selon Anderson. Politico a rapporté que Chai avait embauché l’ancien assistant des soins de santé du sénateur Crapo, Susan Zook, plus tôt cette année pour faire pression sur les responsables.

Il craint que ce changement de cœur par le HHS ne compromette ces connexions. CMS n’a pas encore répondu à une demande de commentaires de Gizmodo sur ses plans à l’avenir concernant Chai.

Les soins de santé sont l’un des cas d’utilisation les plus célèbres et les plus examinés de l’IA. Les sociétés d’IA, comme Openai, font d’énormes jeux pour le secteur des soins de santé. Pendant ce temps, la startup d’IA de santé Opentup OpenEvidence a (prétendument) trouvé son chemin sur les écrans d’un quart de médecins à l’échelle nationale.

Le gouvernement est aussi optimiste. En juillet, la Maison Blanche a organisé un événement «Make Health Tech Great Again» où Trump a annoncé une initiative du secteur privé qui utilisera les assistants de l’IA conversationnelle pour les soins aux patients et partagera les dossiers médicaux privés des Américains à travers des applications et des programmes de 60 entreprises.

Mais il n’y a pas de verdict clair sur la façon dont l’IA fonctionne dans les milieux médicaux. Une étude de Stanford de l’année dernière a montré que Chatgpt a très bien performé dans les diagnostics médicaux, encore mieux que certains médecins, mais certains médecins ne sont pas convaincus que les premiers tests sont rassurants.

Les soins de santé sont un cas d’utilisation de l’IA étroitement examiné car même une erreur peut être mortelle, et nos systèmes d’IA actuels sont très loin d’être parfaits, avec des hallucinations fréquentes et des biais de préparation.

Cela a conduit les experts concernés à appeler à plus de transparence et de réglementation. Les États-Unis ont fait sa première étape réglementaire majeure vers la réalisation de cette transparence plus tôt cette semaine lorsque le gouverneur de Californie Gavin Newsom a signé la loi de la transparence de la Frontier Artificial Intelligence Act, un projet de loi de premier ordre qui pourrait être un catalyseur pour plus de législation à l’échelle nationale.

Il y a actuellement une surveillance fédérale limitée en ce qui concerne le déploiement de l’IA de la santé, bien qu’il semble que l’administration Trump puisse être prête à reprendre les rênes.

La FDA a publié une demande d’informations la semaine dernière, cherchant à recueillir les commentaires du secteur médical sur le déploiement et l’évaluation de l’IA de la santé. Il reste à voir si les commentaires directs seront pris aussi au sérieux que les désirs des groupes d’intérêt externes profonds.


https://gizmodo.com/app/uploads/2025/09/donald-trump-sept.-18-2025-1200×675.jpg

About The Author

Leave a Reply

Your email address will not be published. Required fields are marked *