Home news L’IA pourrait rendre plus difficile la détermination des responsabilités dans les échecs médicaux, selon les experts | Intelligence artificielle (IA)

L’IA pourrait rendre plus difficile la détermination des responsabilités dans les échecs médicaux, selon les experts | Intelligence artificielle (IA)

by wellnessfitpro

L’utilisation de l’intelligence artificielle dans les soins de santé pourrait conduire à un jeu de reproches juridiquement complexe lorsqu’il s’agit de déterminer la responsabilité en cas d’échec médical, préviennent les experts.

Le développement de l’IA à des fins cliniques est en plein essor, les chercheurs développant une variété d’outils, depuis des algorithmes pour aider à interpréter les analyses jusqu’aux systèmes qui peuvent aider au diagnostic. L’IA est également développée pour aider à gérer les hôpitaux, de l’optimisation de la capacité en lits à la gestion des chaînes d’approvisionnement.

Mais même si les experts affirment que la technologie pourrait apporter d’innombrables avantages aux soins de santé, ils soulignent également qu’il existe des inquiétudes, allant du manque de tests sur l’efficacité des outils d’IA à la question de savoir qui est responsable si un patient obtient un résultat négatif.

Le professeur Derek Angus, de l'Université de Pittsburgh, a déclaré : “Il y aura certainement des cas où l'on aura l'impression que quelque chose ne va pas et les gens regarderont autour d'eux et blâmeront quelqu'un.”

Le Sommet Jama sur l'intelligence artificielle, organisé l'année dernière par le Journal of the American Medical Association, a réuni un large éventail d'experts, notamment des cliniciens, des entreprises technologiques, des régulateurs, des assureurs, des éthiciens, des avocats et des économistes.

Le rapport qui en résulte, dont Angus est le premier auteur, examine non seulement la nature des outils d'IA et les domaines de la santé dans lesquels ils sont utilisés, mais examine également les défis qu'ils posent, notamment les problèmes juridiques.

Le professeur Glenn Cohen de la Harvard Law School, co-auteur du rapport, a déclaré que les patients peuvent avoir des difficultés à détecter les erreurs dans l'utilisation ou la conception d'un produit d'intelligence artificielle. Il pourrait y avoir des obstacles à l’obtention d’informations sur le fonctionnement interne, et il pourrait également être difficile de suggérer une conception alternative raisonnable pour le produit ou de prouver que le système d’IA a provoqué un mauvais résultat.

Il a déclaré : “L'interaction entre les parties peut également présenter des difficultés pour déposer une réclamation – elles peuvent s'identifier mutuellement comme étant la partie fautive, et elles peuvent avoir un accord existant pour réattribuer contractuellement la responsabilité ou avoir des réclamations en dommages-intérêts.”

Le professeur Michelle Mello, autre auteur du rapport de la Stanford Law School, a déclaré que les tribunaux étaient bien équipés pour résoudre les problèmes juridiques. “Le problème est que cela prend du temps et est semé d'incohérences au début, et cette incertitude augmente les coûts pour tous les acteurs de l'écosystème d'innovation et d'adoption de l'IA”, a-t-elle déclaré.

Le rapport soulève également des inquiétudes quant à l’évaluation des outils d’IA, soulignant que nombre d’entre eux échappent à la surveillance des régulateurs tels que la Food and Drug Administration (FDA) des États-Unis.

Angus a déclaré : « Pour les médecins, l’efficacité signifie généralement de meilleurs résultats en matière de santé, mais rien ne garantit que le régulateur exigera des preuves. » [of that]. Une fois disponibles, les outils d’IA peuvent être utilisés de nombreuses manières imprévisibles dans différents contextes cliniques, avec différents types de patients et par des utilisateurs ayant des compétences différentes. Il y a peu de garanties que ce qui semble être une bonne idée dans le dossier d’approbation préalable soit réellement ce que vous obtenez dans la pratique.

Le rapport affirme qu’il existe actuellement de nombreux obstacles à l’évaluation des outils d’IA, notamment le fait qu’ils nécessitent une utilisation clinique fréquente pour être pleinement évalués, alors que les approches d’évaluation actuelles sont coûteuses et lourdes.

Angus a déclaré qu'il était important que des fonds soient alloués afin que les performances des outils d'IA dans le domaine de la santé puissent être correctement évaluées, l'investissement dans l'infrastructure numérique étant un domaine clé. « L’une des choses qui sont ressorties lors du sommet a été [that] Les outils les mieux notés ont été les moins adoptés. Les outils les plus utilisés ont été les moins bien notés.

#LIA #pourrait #rendre #difficile #détermination #des #responsabilités #dans #les #échecs #médicaux #selon #les #experts #Intelligence #artificielle

You may also like

Leave a Comment