Des abonnements
pour l'enrichissement
11 mai 2023 | La Revue POLYTECHNIQUE | Intelligence artificielle

ChatGPT écrit aussi des études scientifiques pour des chercheurs

Par Aurore Gayte publié sur Numerama

De plus en plus de scientifiques et de chercheurs se servent de l’intelligence artificielle pour rendre plus vite des rapports d’étude et écrire des papiers de recherches. L’arrivée de cette technologie bouscule le monde académique et comporte des risques.

On connaissait ChatGPT auteur, journaliste, et même hacker. Il y a désormais un ChatGPT auteur d’études scientifiques. L’intelligence artificielle développée par OpenAI connait un succès phénoménal depuis son lancement fin 2022. Utilisée par de nombreux professionnels dans leur travail de tous les jours, ChatGPT a transformé de nombreux métiers — et le dernier en date pourrait bien être celui de scientifique.

C’est The Daily Beast qui rapporte la nouvelle dans un article publié le 6 mai 2023 : de plus en plus de scientifiques et de chercheurs utilisent l’intelligence artificielle pour écrire leurs publications. Dans un monde académique où le nombre de publications dans des journaux scientifiques détermine les carrières, l’arrivée de ChatGPT ne passe pas inaperçue.

ChatGPT auteur d’études sur la radiologie

L’article de The Daily Beast prend l’exemple de Som Biswas, un radiologiste exerçant à l’université du Tennessee, aux États-Unis. Après avoir réalisé plusieurs essais pour parvenir à un résultat satisfaisant, et en faisant plusieurs prompts, Som Biswas a réussi à perfectionner sa technique. Il raconte avoir utilisé ChatGPT pour écrire seize publications scientifiques, dont quatre sont parues dans des journaux spécialisés. Dans Pediatric Radiology, où son étude « L’impact de ChatGPT dans la radiologie » a été publiée le 28 avril 2023, il est noté comme l’unique auteur. Seule une mention en bas de texte précise que le texte a été écrit par ChatGPT, et qu’il l’a édité et mis en page après.

The Daily Beast explique que l’exemple de Som Biswas n’est pas unique. ChatGPT et d’autres intelligences artificielles génératives sont utilisées par des chercheurs pour les aider à écrire plus vite leurs recherches. Cependant, les scientifiques ne sont pas tous aussi honnêtes que Som Biswas, et beaucoup cachent l’implication de l’IA dans leur rendu.

Elisabeth Bik, une microbiologiste et spécialiste de la question de l’intégrité dans la science, a ainsi expliqué à The Daily Beast avoir vu le nombre de chercheurs « abuser » de l’utilisation de ChatGPT augmenter. Certains auraient utilisé l’intelligence artificielle pour fabriquer « à la chaîne » des dizaines d’articles ces derniers mois. Selon elle, les auteurs n’auraient de plus pas précisé que ChatGPT avait généré les textes.

Les scientifiques et les chercheurs ont de plus en plus recours à l'IA pour écrire leur étude // Source : Canva
Les scientifiques et les chercheurs ont de plus en plus recours à l’IA pour écrire leur étude // Source : Canva

La raison derrière ce comportement est facile à comprendre : « les citations [dans des journaux] et le nombre de publications sont les deux mesures du succès des chercheurs académiques », explique Elisabeth Bik. Plus un auteur a publié d’études, plus il est considéré compétent. Dans ce cadre, il est logique que certains essayent de se servir d’outils comme ChatGPT.

Le chatbot développé par OpenAI est pourtant loin d’être une référence scientifique. ChatGPT ment régulièrement, invente des faits, et ne source pas bien les informations qu’il donne. En plus de cela, il est également susceptible d’avoir des biais racistes et sexistes, comme toutes les intelligences artificielles. Ces biais doivent être pris en compte dans les recherches pour parvenir à des résultats neutres, et au plus proche de la réalité.

Malgré ces défauts, ils sont nombreux à continuer de se servir de l’IA. Stefan Duma, professeur spécialisé en ingénierie à l’université de Virginie et rédacteur en chef du journal Annals of Biomedical Engineering, a indiqué devoir rejeter de plus en plus d’articles générés par ChatGPT de mauvaise qualité. « Les gens font n’importe quoi avec l’IA. Des gens m’envoient parfois la même lettre 10 fois, en changeant seulement un mot », regrette-t-il.