Date : 2023
Type : Livre / Book
Type : Thèse / ThesisLangue / Language : français / French
Intelligence artificielle en médecine
Résumé / Abstract : Contexte. L'intelligence artificielle (IA), qui fascine et véhicule beaucoup de promesses, ne répond à aucune définition opérationnelle consensuelle, et ses contours sont de géométrie variable selon les spécialistes qui s'y intéressent. Un précédent travail d'enquête nous avait conduits à ces constats mais aussi à celui de la quasi-absence du recueil de la perception des patients sur le sujet. En tant que technique susceptible d'interférer avec les pratiques humaines dans le domaine de la santé, l'IA pose la question de savoir si - et comment - ses développements futurs dans ce domaine pourront être concrètement considérés comme éthiques. Si de nombreux enjeux éthiques de l'IA ont déjà été identifiés et peuvent nous inspirer collectivement sur la bonne manière de concevoir et d'utiliser ses applications, l'objectif de ce travail vise à poser les jalons d'un cadre éthique permettant de garantir que l'IA dans les soins ne se développe pas aux dépens des personnes. Méthode. Ce travail s'appuie sur une démarche empirique en plusieurs temps. Le premier temps a permis de co-construire avec des acteurs des différents champs concernés une définition de l'IA pertinente pour mieux cerner ses contours dans le champ de la santé. Dans un second temps, une analyse critique de la littérature a été conduite dans différents secteurs. Des rapports officiels de portée nationale ou internationale ont été analysés, afin d'en extraire d'éventuelles préconisations pour le développement de l'IA en santé et d'étudier leur adéquation avec les principes dits internationaux de l'éthique. Une revue de la littérature biomédicale internationale et des textes réglementaires français sur le sujet a permis un inventaire des « enjeux éthiques » théoriques identifiés et de leurs apports dans la réflexion éthique sur cette biotechnologie. Enfin, à l'aide de la définition préalablement co-construite, la perception de patients dans le domaine de l'oncologie médicale a été recueillie afin de confronter leurs attentes vis-à-vis de l'utilisation de l'IA pour leurs soins avec les considérations de portée générale issues de la littérature. Résultats. Le travail mené de co-construction d'une définition de l'IA, nous a permis de qualifier l'IA d' « agent complexe qui se traduit sous la forme d'outils dotés d'un algorithme informatique . [...] Dans le champ de la santé, l'IA sera développée dans l'objectif d'apporter un bénéfice sensible dans les soins des patients ». Une fois le périmètre de cette thèse ainsi déterminé, les rapports officiels pour le développement de l'IA analysés ont révélé que les préconisations de ces rapports n'entraient pas en confrontation avec les principes internationaux de l'éthique. Néanmoins, les enjeux éthiques soulevés n'en demeuraient pas moins nombreux. Ces enjeux étaient le reflet de ce qui se joue lors d'un affrontement de valeurs et qui suscite la discussion, en réponse à une émotion (espoir ou crainte) induite par la déstabilisation possible de la hiérarchie de nos valeurs. Les patients nous ont permis d'identifier beaucoup de ces enjeux éthiques. Pour autant, nos résultats suggèrent que les patients ayant une pathologie sévère seront favorables au développement de l'IA en santé, indépendamment de leur âge et de leur niveau de littéracie, moyennant certaines conditions. Conclusion. L'élaboration d'un cadre éthique pour le développement d'une biotechnologie, nécessite sans doute de prendre en compte les principes éthiques établis pour le développement de l'IA mais aussi les valeurs sous-jacentes des individus concernés. Il semble que les patients, dont les perceptions sont encore trop peu recueillies sur ce sujet aujourd'hui, pourraient être les plus à même de nous aider à identifier les enjeux éthiques de l'IA. Le cadre ainsi construit à partir de nos résultats nous amène à promouvoir le développement de l'IA tout en protégeant l'individu et en replaçant l'humain et la relation humaine au centre du développement de cette biotechnologie.
Résumé / Abstract : Context. Artificial intelligence (AI), which fascinates and holds many promises, does not meet any consensual operational definition, and its contours are of variable geometry depending on the specialists who are interested in it. A previous survey had already led us to these observations, but also to the almost total absence of any collection of patients' perceptions on the subject. As a technique likely to interfere with human practices in the field of health, AI raises the question of whether - and how - its future developments in this field can be considered as ethical in practice. While many of the ethical issues of AI have already been identified and can inspire us collectively on the right way to design and use its applications, the aim of this work is to lay the groundwork for an ethical framework to ensure that AI in healthcare does not develop at the expense of people. Method. This work is based on an empirical approach in several stages. The first step allowed us to co-construct a definition of AI that is relevant to better define its contours in the field of health thanks to actors from the different fields concerned. In the second phase, a critical analysis of the literature was conducted in different sectors. Official reports of national or international scope were analysed in order to extract possible recommendations for the development of AI in health and to study their adequacy with the so-called international principles of ethics. A review of the international biomedical literature and French regulatory texts on the subject allowed an inventory of the theoretical "ethical issues" identified and their contributions to ethical reflection on this biotechnology. Finally, using the previously co-constructed definition, the perception of patients in the field of medical oncology was collected in order to compare their expectations with regard to the use of AI for their care with the general considerations arising from the literature. Results. The work carried out to co-construct a definition of AI enabled us to qualify AI as "a complex agent that takes the form of tools equipped with a computer algorithm. [...] In the field of health, AI will be developed with the objective of bringing significant benefit to patient care". Once the perimeter of this thesis was thus determined, the official reports for the development of AI analysed revealed that the recommendations of these reports did not come into conflict with international ethical principles. Nevertheless, the ethical issues raised were nonetheless numerous. These issues reflected what happens in a clash of values and provoked discussion, in response to an emotion (hope or fear) induced by the possible destabilisation of our value hierarchy. The patients enabled us to identify many of these ethical issues. However, our results suggest that patients with severe pathologies will be favourable to the development of AI in health, regardless of their age and literacy level, under certain conditions. Conclusion. The elaboration of an ethical framework for the development of a biotechnology probably requires taking into account the ethical principles established for the development of AI but also the underlying values of the individuals concerned. It seems that patients, whose perceptions are still too little collected on this subject today, could be the most likely to help us identify the ethical issues of AI. The framework thus constructed, based on our results, leads us to promote the development of AI while protecting the individual and placing the human and the human relationship at the center of the development of this biotechnology.