Pierre-Jean Dessertine
Quand l'institution militaire investit des millions de dollars pour la recherche visant à donner un sens moral aux robots, cela signifie qu'elle prévoit de lâcher des robots qui prendront de façon autonome la décision de tuer ... pour le Bien, évidemment ! Mais un robot moral est-il concevable ?
Le site de la très vénérable revue américaine The Atlantic, publiait le 14 mai un article intitulé The Military Wants To Teach Robots Right From Wrong (L’armée veut enseigner aux robots la distinction du Bien et du Mal) qui annonçait que " le gouvernement américain dépense des millions pour le développement de machines qui comprennent les conséquences morales. "
Que l’armée la plus puissante du monde ait un tel projet porte à sourire, avec quand même une pointe de commisération pour le contribuable américain qui le finance, tant il paraît stupide.
La moralité, en effet, c’est se donner des règles de comportement en fonction d’une conception du bien et du mal.
Se donner des règles de comportement, c’est choisir de ne pas suivre, en certaines circonstances, ses impulsions spontanées, c’est donc évaluer plusieurs comportements possibles et se contraindre à choisir celui qui est conforme à sa conception du bien. C’est donc s’obliger.
Il est contradictoire avec la nature de cette créature artificielle qu’est le robot qu’elle possède une conception du bien, connaisse la différence entre comportement spontané et comportement contraint, soit capable de se donner des règles et s’obliger à les suivre. Tout robot reste un système mécanique automobile, doté de capteurs externes et internes, et programmé pour prendre en compte certains types d’événements et y réagir d’une certaine façon. Le robot est par nature hors de l’obligation morale. Il est amoral.
Le robot, le vivant et l’humain
Il est vrai qu’à un certain niveau de finesse de son montage et de richesse de sa programmation, le robot peut engendrer, du point de vue de l’observateur extérieur, un effet de finalité comme s’il poursuivait un but, et partant, un effet de conscience comme s’il choisissait son mouvement, voire un effet d’apprentissage comme s’il accumulait de l’expérience.
Le fin mot de l’affaire est de reconnaître que, si complexe soit le chemin logique qui mène des signaux matériels venant des capteurs à la détermination du comportement (boucles de rétroaction, opérations itératives, etc.), le comportement du robot est toujours réactif. Le robot ne fait toujours que réagir au système capteurs/programme.
Par nature un comportement réactif est nécessaire – étant données les conditions initiales, il ne pouvait pas être autre qu’il a été, même si cette détermination intègre, par le programme, l’aléatoire (en telles conditions, il pourra faire aléatoirement ceci ou cela, …). Le comportement du robot est donc toujours, de droit, prévisible (éventuellement comme aléatoire) ; bien qu’il puisse se trouver qu’en pratique la complexité du programme et la multiplicité des capteurs rendent cette prédiction impossible à réaliser.
Il s’ensuit que le robot n’a pas de conscience. Pourquoi faire une hypothèse si coûteuse – et invérifiable – alors que l’on sait très bien que le comportement réactif n’a pas besoin de conscience ? Avez-vous besoin de conscience pour déclencher votre activité gastrique, ou pour abaisser vos paupières lorsqu’un projectile se dirige rapidement vers vous ?
Et le robot n’est pas libre, tout comme nous ne sommes pas libres quand nous ne faisons que réagir. Il y a un lien étroit entre conscience et liberté, bien mis en évidence par Bergson, dans La conscience et la vie (in "L'énergie spirituelle"). C’est d’ailleurs aussi pourquoi Bergson accorde la conscience à tout le monde vivant. Car ce qui caractérise l’individu vivant, c’est qu’il ne se contente pas de réagir : il a une capacité de choisir. Certes, le monde vivant non humain peut être considéré comme essentiellement réactif en ce sens que sa finalité est dictée par la biosphère. Elle consiste pour chaque espèce à s’insérer dans son biotope et s’y épanouir en se mettant dans la meilleure situation pour se reproduire et ainsi se perpétuer. Mais ce qui fait que chaque individu est vivant, c’est qu’il a sa manière bien à lui de poser sa finalité dans son milieu qui signe une liberté positive : une liberté de choix. Voilà pourquoi les animaux de même espèce ne constituent pas les exemplaires indifférenciés d’une série. Ils sont différents, ils ont, peut-on dire, leur personnalité – ce qui se voit très bien dans les animaux domestiques. Dans la salle de stockage d’une usine de production de robots, ceux-ci sont bien tous rigoureusement identiques, et leur notice d’emploi indique bien qu’ils relèvent des mêmes spécifications et annoncent les mêmes performances. C’est pourquoi aussi, contrairement au robot, le comportement de tout individu vivant est, de droit, imprévisible.
Les animaux choisissent. Mais ils ne conçoivent pas de bien et de mal. Ils ne font que poursuivre, chacun à leur manière propre, le bien prescrit par la biosphère. C’est pourquoi les animaux, comme tous les êtres vivants non humains, n’ont pas de moralité.
Ainsi les robots peuvent avoir des comportements imprévisibles et présenter des effets de finalité, mais ils n’ont jamais ni liberté, ni conscience, et a fortiori ne sont pas moraux.
Les êtres vivants sont toujours imprévisibles parce qu’ils ont une dimension de liberté. Mais ce n’est qu’une liberté de choix pour réaliser une finalité d’origine extrinsèque. Les humains ont non seulement la liberté de choisir leur comportement, mais ils ont la liberté de se donner un bien en dehors des prescriptions de la biosphère. Il sont moraux en ce qu’ils sont capables de se donner des règles et de s’obliger en fonction de ce bien.
Grandeur et limite de la moralité
Mais ce n’est pas assez dire que de définir la moralité comme obligation relative au bien.
Car le mot " bien " n’exprime que l’idée de valeur finale en général – un but qui n’est pas moyen pour un but plus élevé. Et comme l’homme peut le concevoir hors des prescriptions naturelles, il y a plusieurs valeurs finales possibles, lesquelles peuvent être contradictoires. Le respect d’autrui peut être une valeur finale, mais la justice peut l’être aussi et chacun sait qu’elle est pourvue d’un glaive qui parfois emprisonne et même trucide.
Le bien dont relève la moralité a ceci de particulier qu’il s’impose dans l’intime de la conscience de l’individu comme dans l’ensemble des humains. Il est à la fois une affaire personnelle et universelle. Une tradition de pensée, surtout promue par les britanniques Hume (1711-1776), Bentham (1748-1832) et Stuart Mill (1806-1873), en a déduit que la moralité est le moyen que les hommes se donnent collectivement pour atteindre le bien commun. Et si la moralité s’impose d’emblée à la conscience des individus, c’est en fonction d’une sensibilité spontanée de tout individu humain au bien commun. Et pour ces auteurs le bien commun ne peut être que le bonheur collectif.
Pourtant cette conception ne cadre pas toujours avec l’expérience morale. N’eut-il pas été, de ce point de vue, moral que les premiers médecins qui, en 1982, se sont rendu compte de la dangerosité du sida comme pandémie mortelle et sans remède efficace, éliminent systématiquement les malades contaminés qui s’adressaient à eux en les empoisonnant sous couvert de médication ?
Pourquoi cette hypothèse choque-t-elle ? Parce qu’on trompe et sacrifie délibérément des êtres humains qui donnent leur confiance. Mais cela est rendu possible par une conception de la morale fondée sur la seule considération des conséquences. Or, Kant remarquait (Fondements de la métaphysique des mœurs, 1785) que l’obligation morale se donne toujours comme " impératif catégorique " – c’est-à-dire comme une exigence de suivre la règle sans conditions. Alors qu’entrer dans la considération des conséquences rend toujours la règle morale conditionnelle. Par exemple, cela la conditionne à un calcul des dommages/bénéfices qui n’est pas toujours évident. Mais, nous montre Kant, on ne calcule pas dans le choix moral. Au point que tel résistant pris par les nazis a été capable de mourir sous la torture pour ne pas dénoncer les gens qui l’avaient hébergé.
