Accueil Société Intelligence artificielle: les états généraux de la bioéthique suffiront-ils à prévenir de ses dangers ?

Intelligence artificielle: les états généraux de la bioéthique suffiront-ils à prévenir de ses dangers ?

L'inquiétante révision chronique des lois françaises de bioéthique


Intelligence artificielle: les états généraux de la bioéthique suffiront-ils à prévenir de ses dangers ?
Will Smith dans "I-Robot" (Alex Proyas, 2004)

Les États généraux de la bioéthique, qui s’achèvent dans quelques jours, visent à définir les contours des prochaines lois de bioéthique. Ils s’inscrivent dans le cadre de la révision des textes fondateurs que sont les trois grandes lois de 1994 qui avaient été adoptées afin de maîtriser, réguler et accompagner les progrès de la recherche et de la médecine. Elles recherchaient l’équilibre entre avancées de la recherche et encadrement, voire interdiction, de pratiques risquant de remettre en cause notre humanité.

Bioéthique et surenchère permanente

Ce qui ne fut pas suffisamment aperçu à l’époque c’est la logique de surenchère dans laquelle nous faisait entrer le mécanisme de révision régulière. Ces lois de bioéthiques furent modifiées en 2004, 2011 et 2013 et vont donc l’être à nouveau. Cette année, les demandes d’ « avancées » de nombreux groupes de pression impressionnent, sur la PMA et sur l’euthanasie en particulier. Mais un sujet, pourtant majeur lui aussi, semble moins retenir l’attention : c’est celui de l’entrée de l’intelligence artificielle (IA) dans le champ médical.

Dans l’un de ses récents avis, le Comité consultatif national d’éthique (CCNE) a pourtant reconnu que la montée en puissance de l’IA et de la robotique dans la pratique médicale actuelle et son développement futur « pose des questions en matière de sécurité, de respect de la vie privée et de protection de la dignité humaine ». De fait, la robotique, la domotique et l’IA transforment complètement la médecine, ses pratiques, ainsi que la rééducation et l’accompagnement des malades. Les robots, dans un premier temps simples opérateurs, s’affranchissent peu à peu du lien qui les relient aux soignants en bénéficiant des progrès et de l’autonomisation de l’IA.

Quelle place pour l’humain ?

De nombreuses questions apparaissent donc quant au rôle de l’ « humain soignant » de demain, concernant la prise de décisions médicales, la réalisation d’ordonnances automatisées ou, plus pratiquement, la recherche de responsabilités en cas d’erreur médicale. Il en va de même pour l’ « humain patient », par exemple dans son droit à être soigné par un humain, s’il le souhaite, lorsque seule une machine sera habilitée à réaliser le soin en cause pour des questions d’assurances et de responsabilités. Le magazine Science et Avenir vient d’ailleurs de signaler que « l’agence américaine du médicament a autorisé pour la première fois une intelligence artificielle à poser un diagnostic sans être supervisée par un médecin ».

Qui décide qu’un patient peut bénéficier de soins si une IA arrive à la conclusion qu’il n’y a plus rien à faire ou que le coût des soins est trop important au regard des capacités contributives du malade ? Soigner une personne relève-t-il seulement d’un acte logique, froid et mécanique ? Le médecin sera-t-il toujours en mesure de « respecter l’autonomie et la dignité de [son] patient », comme l’y oblige le serment d’Hippocrate qu’il a prononcé ? Que deviendront l’empathie et la chaleur humaine quand le système de soins ressemblera à ce qu’on voit dans la série Altered Carbon ?

Comment résister aux GAFAM ?

Il paraît évident que les lois de bioéthique ne seront pas suffisantes pour réguler les avancées de l’IA au regard de l’ampleur des transformations à venir, transformations portées par les géants aux moyens quasi illimités que sont les GAFAM américains (Google, Apple, Facebook, Amazon, Microsoft), les BATX chinois (Baidu, Alibaba, Tencent, Xiaomi) et les laboratoires pharmaceutiques mondiaux – tous dotés de comités d’éthique et de lobbyistes prêts à certifier de la pureté de leurs intentions et du bien-fondé de leur démarche.

Le grand combat à mener va donc être celui de la régulation. Le discours porté par certains missionnaires de la dérèglementation, dans le champ médical et au-delà, qui prétend que si la France (ou l’Europe) réglemente, les autres pays du monde ne le feront pas, n’est pas recevable. A l’image de Laurent Alexandre dans sa Guerre des intelligences, ils cherchent à imposer l’idée que le débat est déjà clos et que nous deviendrions une terre désolée dans les prochaines années si la puissance publique tentait de reprendre la main.

Le pouvoir politique doit rester maître du jeu

C’est faux et, une fois n’est pas coutume, le souffle de la raison vient de Bruxelles. Le 16 février 2017, le Parlement européen a en effet adopté une résolution concernant les « règles de droit civil sur la robotique » qui demande à la Commission, aux États membres mais également à la communauté internationale (au travers de l’ONU) de se doter d’outils juridiques puissants et adaptés aux révolutions en cours, car de simples lois ou directives ne permettront pas de réguler un changement global de nos sociétés.

Et il y a urgence à ce que le politique se saisisse de la question puisque les meilleurs spécialistes s’accordent pour considérer que l’IA aura sérieusement transformé nos vies dans un délai de cinq à dix ans – une échelle de temps qui n’a jamais été observée pour des transformations aussi capitales dans l’histoire de l’humanité. Les États généraux de la bioéthique sont l’occasion de cette prise de conscience.

L’expérience des vingt dernières années et la fragilité induite par la logique de la révision régulière de la loi oblige à rechercher un dispositif plus puissant, qui permette au pouvoir politique de rester le régulateur en dernier ressort et de fixer, au besoin d’imposer, les règles éthiques qui distinguent l’acceptable de l’inacceptable pour que nous restions humains.

La guerre des intelligences

Price: 20,90 €

45 used & new available from 0,58 €



Vous venez de lire un article en accès libre.
Causeur ne vit que par ses lecteurs, c’est la seule garantie de son indépendance.
Pour nous soutenir, achetez Causeur en kiosque ou abonnez-vous !

Article précédent Sollers sans complexe
Article suivant Alain Finkielkraut commente le manifeste « contre le nouvel antisémitisme » et l’interview présidentielle
Juriste en droit public, chercheur associé "Intelligence artificielle" à l'Institut Thomas More

RÉAGISSEZ À CET ARTICLE

Le système de commentaires sur Causeur.fr évolue : nous vous invitons à créer ci-dessous un nouveau compte Disqus si vous n'en avez pas encore.
Une tenue correcte est exigée. Soyez courtois et évitez le hors sujet.
Notre charte de modération