*** Transcription de la vidéo en dessous ! ***

 

 

Dans l’Atelier du Dimanche précédent, j’ai expliqué pourquoi une machine ne pourra pas accéder au jugement moral.

Aujourd’hui je voudrais avancer en concrétisant cette thématique.

J’avance un peu à l’aveugle. Je n’ai encore aucune idée de ce que pourrait être cette histoire. Parfois, on peut avoir des scènes précises, des actions ou des personnages. Là j’ai choisi d’avancer de manière très technique, presque mécanique. C’est un peu extrême, mais c’est pour l’exercice, que j’espère inspirant.

Cela dit, la thématique comporte déjà pas mal d’éléments.

L’histoire tourne autour du codage d’une ou de plusieurs IA. Et à l’échec de ce codage.

Comment signifier cet échec ?

  1. La machine fait quelque chose d’immoral.
  2. La machine bogue et n’arrive pas à se décider.
  3. La machine décide de s’autodétruire pour laisser l’homme être le seul décideur.
  4. Joker : vous pouvez proposer votre solution ou voter pour une autre solution qui a été proposée.

 

Je vais légèrement développer chaque option, mais je vais vous laisser choisir.

 

  1. La machine est immorale

Bon, c’est plus une manière de parler, car l’immoralité est une privation.

N’est immoral qu’un être qui est censé agir selon la morale et qui ne le fait pas. Je veux dire par là que si une pierre tue quelqu’un en le frappant à la tête, elle n’est pas immorale. En revanche, si quelqu’un l’a lancé exprès par vengeance personnelle, par exemple, cette pierre devient l’arme du crime.

Autrement dit, ce n’est pas la machine qui sera immorale, mais ceux qui auront lancé le processus. Cela dit, dans l’histoire, il faut bien manifester ça.

Comment montrer, rendre évident, l’immoralité ?

Ce serait par exemple une sorte de suicide de l’humanité organisé par quelques uns. A la place du flingue, on aurait cette chose autrement complexe qu’est l’IA. L’IA serait suffisamment complexe pour camoufler l’intention initiale. Mais le schéma serait celui-là. On arriverait alors à un cataclysme.

Notez bien que ça ne peut être le fruit d’une simple imprudence, car sinon on se rapprocherait plutôt de la thématique que vous n’avez pas choisie « La technique peut se retourner contre l’inventeur qui n’y prend pas garde ».

 

  1. Le bogue

Je pars du principe que la machine ne peut accéder au niveau moral parce qu’elle en est physiquement incapable. Un acte moral ne peut être déduit par le calcul.

Son dilemme serait le suivant : elle cherche à prendre une décision morale… Elle fait donc une recherche, analyse des faits humains similaires… mais elle ne peut pas passer à l’acte sans tirer au hasard. Ce qui remet entièrement en cause sa recherche morale et la fait boguer.

Parce que l’ordre moral échappe à l’ordre de la matière. Elle le dépasse.

 

Oui d’ailleurs, à ce sujet, je reprends ici un commentaire de Marho Lyne qui rappelle que nos décisions sont étroitement liées aux émotions et qu’il faudrait en donner aux machines.

 

C’est une remarque très intéressante. La très grande majorité de nos décisions ne sont en réalité que des réactions émotionnelles. Ce ne sont pas pour autant des décisions au rabais. Elles sont extrêmement utiles dans beaucoup de circonstances. Si le sujet vous intéresse, vous pouvez par exemple lire L’Erreur de Descartes d’Antonio Damasio.

Il montre aussi que les émotions peuvent influer nos raisonnements. Pas tous, mais une grande partie.

 

Oui. Et rien n’empêche en effet aux machines de simuler des émotions et de réagir comme des animaux !

De même qu’on a des neurones artificiels, on aurait l’équivalent des hormones et du système limbique (c’est la partie du cerveau principal responsable des émotions).

Tout cela est de l’ordre de la matière et il n’y a pas la même limitation que pour la morale.

Les émotions permettent aux animaux de réagir pour le bien de l’espèce d’abord, puis pour leur propre survie et leur confort (individu) :

Reproduction, recherche de nourriture, défense du territoire, établissement d’un groupe hiérarchisé, etc.

 

Les émotions primitives pourraient donner à la machine une sorte d’instinct de survie virtuel, un appétit de reproduction, de défendre son territoire, de rechercher la nourriture… Evidement ça poserait la question de quelle espèce cet instinct chercherait à protéger et à entretenir.

Comme on a écarté la thématique de la technique qui se retourne contre son inventeur, l’espèce serait l’homme, évidemment. Du coup, il faudrait qu’il se prenne pour un humain. Ou du moins que son instinct virtuel fasse qu’il soit entièrement dévoué à cette cause humaine. Et ensuite seulement de son intégrité personnelle.

 

Ça pourrait être amusant que la machine bogue à cause d’un petit détail à régler. On aurait le gigantisme de l’IA et le grain de sable qui fait tout enrayer.

Pour justifier le bogue et qu’il soit à l’échelle planétaire — sinon c’est pas drôle —, il faudrait montrer d’abord que l’IA palie à tout ce qui n’est pas une décision morale. Elle règle presque toutes les décisions, en fonction des choix assumés par des humains dits « responsables ».

Puis qu’il y ait un processus d’amélioration qui amène peu à peu la machine à prendre plus de « responsabilité », c’est-à-dire à remonter dans la chaîne des intentions.

 

Au moment de passer à la « moralité virtuelle » l’IA pourrait se retourner contre elle-même, ou une de ses parties, pour chercher à déterminer l’intention c’est-à-dire qui est responsable d’elle-même. Si l’IA cherche à se poser en responsable, elle va remonter rapidement à son codeur. Elle peut chercher à le remplacer peut-être pour être la source d’elle-même.

 

Et si l’initiateur est mort ou incapable de prendre sa responsabilité, le château de cartes s’effondre : elle ne peut se fonder ni sur le hasard ni sur le calcul. Elle bogue.

 

  1. L’autodestruction

C’est une version similaire à la B. Sauf que l’IA arriverait à prendre en compte sa propre limite.

Pour reprendre la réflexion sur les émotions, elle serait dévouée à l’humanité. Elle servirait la moralité au sens aristotélicien du terme.

 

Elle ne servirait pas à juger l’homme, mais d’elle-même pousserait l’homme à devenir vertueux pour être pleinement heureux.

Autrement dit, elle ne serait pas seulement le glaive de la justice, mais plus comme un éducateur qui éveille la liberté.

Sauf que là encore, la machine serait face à un vide infranchissable.

Elle ne peut pas imposer à l’homme d’être heureux. Elle ne peut pas décréter le bonheur. C’est à chaque personne de décider de tout faire pour le devenir.

Et plus elle sera puissante, plus l’IA sera aussi une menace pour cette liberté. Des méchants chercheront à la dompter, à la détourner.

Des processus internes ou peut-être d’autres IA lancées en parallèle (avec d’autres intentions que le bonheur de l’homme) pourront entrer en concurrence et chercheront à la détrôner.

La seule manière d’arriver à sa fin, c’est de crasher définitivement la possibilité de l’IA pour laisser l’homme se débrouiller tout seul. Ce pourrait être même une image du courage, de bravoure virtuelle, dans laquelle l’IA se sacrifie.

 

Vous pouvez aussi proposer votre propre solution ou voter pour une solution qui a été proposée en commentaire !

 

Au boulot

Eric