Close

Quand ChatGPT devient prescripteur : la Knesset appelée à trancher

À l’heure où les intelligences artificielles envahissent nos écrans, nos mails… et nos esprits, il n’était qu’une question de temps avant qu’elles s’installent dans les cabinets médicaux. En Israël, certains médecins auraient franchi un cap : utiliser ChatGPT pour générer des prescriptions médicales. L’information a de quoi faire frémir. D’autant que la réaction ne s’est pas fait attendre : des parlementaires de la Knesset demandent des garde-fous.

Imaginez : un patient souffrant d’hypertension entre dans le cabinet. Le médecin, entre deux consultations, demande à ChatGPT un traitement standard, copie-colle la réponse, et signe. Geste rapide, presque banal. Mais qui porte en germe un risque majeur : celui de s’en remettre à une machine dont la logique n’est pas celle d’un clinicien, mais d’un algorithme statistique entraîné sur des données parfois inexactes ou obsolètes.

Des erreurs ont déjà été signalées, notamment par l’association LeMa’anchem, qui alerte sur des posologies incorrectes, des contre-indications négligées, ou des diagnostics confus, tous produits par des IA. Le dossier est désormais sur la table du ministère de la Santé, et la Knesset s’en empare.

La Knesset, consciente de l’enjeu, pourrait ouvrir dans les prochaines semaines des auditions parlementaires sur l’usage de l’IA en médecine. Des députés réclament :

Une interdiction stricte d’utiliser une IA pour générer des prescriptions sans validation humaine.
L’obligation de mentionner toute contribution d’une IA dans un dossier médical.
La mise en place de formations pour les médecins sur l’usage encadré de ces outils.

Le défi est classique : l’innovation est plus rapide que la loi. Mais lorsqu’il s’agit de santé publique, le législateur ne peut rester passif.

La tentation est grande de penser que l’intelligence artificielle pourrait remplacer, ou du moins surpasser, certains professionnels. Une étude américaine menée au Beth Israel Deaconess Medical Center semble aller dans ce sens : ChatGPT-4 aurait surperformé des médecins dans des cas cliniques complexes.

Mais cette même étude souligne que l’IA commet aussi plus d’erreurs, parfois grossières. Autrement dit, l’outil peut être puissant… mais aussi dangereux s’il est utilisé sans recul.

L’enjeu pour la Knesset n’est donc pas de freiner l’innovation, mais de poser une ligne claire entre l’aide et la substitution. Entre le conseil algorithmique et le raisonnement clinique. Ce que réclament les citoyens israéliens, ce n’est pas un retour en arrière, mais un usage éthique, maîtrisé et transparent de l’IA.

Ce débat ne concerne pas que les médecins ou les geeks. Il touche au cœur du lien de confiance entre le patient et le soignant. Si demain une ordonnance est rédigée par un programme, qui sera responsable en cas d’erreur ? Le médecin ? L’IA ? L’éditeur du logiciel ?

C’est à la Knesset, gardienne des équilibres démocratiques, de répondre à cette question. Et de rappeler, en creux, qu’une médecine moderne n’est pas forcément une médecine automatisée.

Dr. Jonathan TAÏEB