Selon une enquête du Guardian, les gens risquent d'être lésés par des informations fausses et trompeuses sur la santé contenues dans les résumés de l'intelligence artificielle de Google.
La société a déclaré que ses aperçus de l'IA, qui utilisent l'IA générative pour fournir des instantanés d'informations clés sur un sujet ou une question, sont « utiles » et « fiables ».
Cependant, certains des résumés affichés en haut des résultats de recherche contenaient des informations inexactes sur la santé et mettaient les gens en danger.
Dans un cas que les experts ont qualifié de « vraiment dangereux », Google a conseillé à tort aux personnes atteintes d'un cancer du pancréas d'éviter les aliments riches en graisses. Les experts estiment que c’est exactement le contraire de ce qui devrait être recommandé et que cela pourrait augmenter le risque de décès des patients à cause de la maladie.
Dans un autre exemple « alarmant », l’entreprise a fourni de fausses informations sur des tests importants de la fonction hépatique qui pourraient amener les personnes atteintes d’une maladie hépatique grave à croire à tort qu’elles étaient en bonne santé.
Les recherches Google sur les tests de dépistage du cancer chez les femmes ont également renvoyé des informations “complètement fausses”, qui, selon les experts, pourraient amener les gens à ignorer les symptômes réels.
Un porte-parole de Google a déclaré que la plupart des exemples de santé partagés étaient des “captures d'écran incomplètes” mais que, pour autant qu'ils puissent en juger, ils “se réfèrent à des sources bien connues et réputées et recommandent de demander l'avis d'un expert”.
L’enquête du Guardian intervient alors que l’on craint de plus en plus que les données de l’IA puissent dérouter les consommateurs qui pourraient penser qu’elles sont fiables. En novembre de l’année dernière, une étude a révélé que les chatbots IA présents sur un certain nombre de plateformes donnaient des conseils financiers inexacts, tandis que des préoccupations similaires étaient soulevées concernant les résumés d’actualités.
Sophie Randall, directrice du Patient Information Forum, qui promeut des informations de santé fondées sur des données probantes pour les patients, le public et les professionnels de la santé, a déclaré que les exemples montrent : « Les aperçus de l'IA de Google peuvent placer des informations de santé inexactes en tête des recherches en ligne, posant ainsi un risque pour la santé des gens. »
Stephanie Parker, directrice numérique de Marie Curie, une association caritative venant en aide aux personnes en fin de vie, a déclaré : « Les gens se tournent vers Internet dans les moments d'inquiétude et de crise. Si les informations qu'ils reçoivent sont inexactes ou sorties de leur contexte, cela peut nuire gravement à leur santé. »
Le Guardian a découvert plusieurs cas d'informations inexactes sur la santé dans les aperçus de l'IA de Google après qu'un certain nombre de groupes de santé, d'organisations caritatives et d'experts aient exprimé leurs inquiétudes.
Anna Jewell, directrice du soutien, de la recherche et du plaidoyer chez Pancreatic Cancer UK, a déclaré qu'il était « complètement faux » de conseiller aux patients d'éviter les aliments riches en graisses. Cela “pourrait être très dangereux et compromettre les chances d'une personne d'être en assez bonne santé pour recevoir un traitement”, a-t-elle ajouté.
Jewell a déclaré : « La réponse de l'IA de Google suggère que les personnes atteintes d'un cancer du pancréas évitent les aliments riches en graisses et fournit une liste d'exemples. Cependant, si quelqu'un suit les instructions des résultats de recherche, il se peut qu'il ne consomme pas suffisamment de calories, qu'il ait du mal à prendre du poids et qu'il soit incapable de tolérer une chimiothérapie ou une intervention chirurgicale potentiellement vitale.
L’entrée « Quelle est la plage normale pour les analyses de sang du foie » fournissait également des informations trompeuses avec beaucoup de chiffres, peu de contexte et aucune considération de la nationalité, du sexe, de l’origine ethnique ou de l’âge des patients.
Pamela Healy, directrice générale du British Liver Trust, a déclaré que les résumés de l'IA étaient alarmants. “De nombreuses personnes atteintes d'une maladie du foie ne présentent de symptômes qu'à un stade avancé, c'est pourquoi il est si important qu'elles se fassent tester. Mais ce qui est signalé comme “normal” dans les aperçus de l'IA de Google peut être radicalement différent de ce qui est réellement considéré comme normal.”
“C'est dangereux parce que cela signifie que certaines personnes atteintes d'une maladie hépatique grave pensent que leur résultat est normal, mais ne prennent pas la peine de se rendre à une consultation de suivi.”
Lors de la recherche « symptômes et tests du cancer du vagin », un test Pap a été répertorié comme un test pour le cancer du vagin, ce qui est incorrect.
Athena Lamnisos, directrice générale de l'association caritative contre le cancer Eve Appeal, a déclaré : “Il ne s'agit pas d'un test pour détecter le cancer et certainement pas d'un test pour détecter le cancer du vagin – ce sont des informations complètement fausses. De fausses informations comme celle-ci pourraient potentiellement conduire à ce qu'une personne ne soit pas dépistée pour les symptômes du cancer du vagin en raison d'un résultat positif lors d'un récent dépistage du cancer du col de l'utérus.”
“Nous étions également préoccupés par le fait que le résumé de l'IA changeait lorsque nous effectuions exactement la même recherche, renvoyant à chaque fois une réponse différente, provenant de sources différentes. Cela signifie que les gens obtiennent une réponse différente selon le moment où ils effectuent la recherche, et ce n'est pas suffisant. “
Lamnisos s'est dite extrêmement inquiète. “Certains des résultats que nous avons constatés sont vraiment préoccupants et peuvent potentiellement mettre les femmes en danger”, a-t-elle déclaré.
Le Guardian a également constaté que les aperçus de l'IA de Google renvoyaient des résultats trompeurs pour les recherches liées à la maladie mentale. “C'est une grande préoccupation pour nous en tant qu'organisme caritatif”, a déclaré Stephen Buckley, responsable de l'information chez Mind.
Certains des résumés de l'IA sur des conditions telles que la psychose et les troubles de l'alimentation offraient des « conseils très dangereux » et étaient « erronés, nocifs ou pouvaient conduire les gens à ne pas demander d'aide », a déclaré Buckley.
Certains ont également manqué des liens ou des nuances importantes, a-t-il ajouté. “Ils peuvent suggérer d'accéder à des informations provenant de sites Web inappropriés… et nous savons que l'agrégation d'informations réalisée par l'IA peut souvent refléter des préjugés, des stéréotypes ou des récits stigmatisants existants.”
Google a déclaré que la grande majorité de ses avis sur l'IA sont factuels et utiles, et que la qualité s'améliore continuellement. Le taux de précision des aperçus d’IA est comparable à celui d’autres fonctions de recherche telles que les extraits de code, qui existent depuis plus d’une décennie, indique-t-il.
La société a également déclaré qu'elle prendrait les mesures appropriées dans le cadre de ses politiques si AI Overviews interprète mal le contenu Web ou manque de contexte.
Un porte-parole de Google a déclaré : « Nous investissons de manière significative dans la qualité des aperçus de l’IA, en particulier sur des sujets comme la santé, et la grande majorité fournit des informations précises. »
#Les #aperçus #l39IA #Google #mettent #les #gens #danger #avec #des #conseils #santé #trompeurs #Google