Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the fast-indexing-api domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /var/www/vhosts/180back.com/httpdocs/wp-includes/functions.php on line 6114

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the simple-tags domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /var/www/vhosts/180back.com/httpdocs/wp-includes/functions.php on line 6114

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the rocket domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /var/www/vhosts/180back.com/httpdocs/wp-includes/functions.php on line 6114

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the wordpress-seo domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /var/www/vhosts/180back.com/httpdocs/wp-includes/functions.php on line 6114
Des scientifiques avertissent les patients que ChatGPT invente de fausses informations sur le cancer

Des scientifiques avertissent les patients que ChatGPT invente de fausses informations sur le cancer

Modifié le
Lecture: 2 minutes
© DepositPhotos

Des chercheurs de l'école de médecine de l'université du Maryland ont mis en garde contre l'utilisation de pour obtenir des conseils médicaux après qu'une étude a révélé que le chatbot alimenté par l' (IA) inventait des faits sur la lorsqu'on lui demandait des informations sur le cancer.

Selon un article publié sur le site web du Daily Mail citant la recherche, le chatbot a répondu de manière incorrecte à une question sur dix concernant le dépistage du cancer du sein et les réponses correctes n'étaient pas aussi « complètes » que celles trouvées par une simple recherche sur .

Une étude révèle 34 professions qui ne disparaîtront pas à cause de l'intelligence artificielle

Les chercheurs ont indiqué que, dans certains cas, le chatbot d'IA avait même utilisé de faux articles de journaux pour étayer ses affirmations.

Cette étude intervient alors que les utilisateurs sont invités à traiter le logiciel avec prudence, car il a tendance à halluciner ou, en d'autres termes, à inventer des choses.

L'étude qui a mis ChatGPT sous les feux de la rampe

Les chercheurs ont demandé à ChatGPT de répondre à 25 questions relatives à des conseils sur le dépistage du cancer du sein. Le chatbot étant connu pour varier ses réponses, chaque question a été posée trois fois. Les résultats ont ensuite été analysés par trois radiologues formés à la mammographie.

Microsoft dévoile VALL-E, une IA qui peut imiter votre voix après seulement 3 secondes d'écoute ! Incroyable !

Quatre-vingt-huit pour cent des réponses étaient appropriées et faciles à comprendre. Cependant, certaines réponses étaient inexactes, voire fictives, ont-ils averti.

Une réponse, par exemple, était basée sur des informations obsolètes. Elle conseillait de retarder la mammographie de quatre à six semaines après avoir reçu le vaccin COVID-19, alors que ce conseil a été modifié il y a plus d'un an pour recommander aux femmes de ne pas attendre.

ChatGPT a également fourni des réponses incohérentes aux questions concernant le risque de cancer du sein et l'endroit où passer une mammographie. L'étude a révélé que les réponses « variaient de manière significative » chaque fois que la même question était posée.

Comment désactiver le copilote de Bing avec ChatGPT dans Microsoft Edge ?

Le Dr Paul Yi, coauteur de l'étude, a déclaré : « Notre expérience nous a montré que ChatGPT invente parfois de faux articles de journaux ou des consortiums de santé pour étayer ses affirmations. Les consommateurs doivent être conscients qu'il s'agit de technologies nouvelles et non éprouvées, et doivent toujours se fier à leur médecin, plutôt qu'à ChatGPT, pour obtenir des conseils« .

3.6/5 - (11 votes)