Pour voir la vidéo précédente cliquez ici : http://www.ecrire-un-roman.com/articles/non-classe/ecrire-un-roman-sf-1/

La transcription de la vidéo est plus bas ! >>>

Chers auteurs bonjour !

 

Suite à vos réponses, je continue cette expérience. J’écris avec vous pas à pas un roman de Science-Fiction autour de l’intelligence artificielle.

Si vous n’avez pas suivi le premier Atelier du Dimanche, je vous invite à le regarder avant pour bien comprendre d’où on part.

Vous avez plébiscité la thématique B :

  • 20 % pour A- L’intelligence artificielle ne sera jamais humaine
  • 70 % pour B- La morale ne pourra jamais être codée par une Intelligence Artificielle
  • 10 % pour C- La technique peut se retourner contre l’inventeur qui n’y prend pas garde

Je prends donc cette thématique qui tourne autour de la morale.

Nous allons prendre ce virage mais nous n’allons pas abandonner pour autant les autres domaines.  Ce que je veux dire par là, c’est que, oui, la conclusion de notre histoire sera bien autour de la morale, c’est désormais notre thématique principale, mais nous toucherons forcément aux deux autres questions, au moins dans la préparation.

 

J’ai déjà fait quelques recherches sur l’Intelligence artificielle, j’en ai rapidement parlé la semaine dernière.

Il faut maintenant que je creuse davantage le domaine de la morale.

Mon passé de prof de philo m’aide, bien évidemment, mais si je n’avais pas été au clair, il aurait suffit de faire une recherche sur Internet pour débroussailler la question de la morale, afin de voir comment la lier avec l’intelligence artificielle.

La morale

Il y a de nombreuses conceptions de la morale.

Je retiens trois écoles, qui se distinguent par l’objet de la morale, c’est-à-dire leur but affiché.

 

Empiristes (tout ce qui donne du plaisir est bien ou tout ce qui est utile est bien) :

Stoïcisme, Kantisme (Vertu –  Devoir : « il faut parce qu’il faut »)

Aristotélisme (Bonheur : « tout acte humain est finalisé par le bonheur »)

 

On pourrait bien sûr en ajouter d’autres.

Je simplifie exprès. Pas seulement pour la vidéo, mais aussi pour le roman. Je suis à un niveau de focus où je ne vais pas entrer dans les détails de telle ou telle morale. On pourrait y passer des années !

Le but de cette recherche n’est pas de devenir moraliste. Je ne suis pas en train d’écrire une thèse de philosophie.

Par contre, je dois pouvoir prendre parti dès cette phase de l’écriture.

Autrement dit, la recherche que j’ai faite doit me permettre de me faire ma propre idée. Tant pis si je découvre ensuite que ma pensée a évoluée. Enfin, ça dépendra du stade de mon histoire. On pourra toujours atténuer telle ou telle position. Mais il est important de choisir rapidement un cap et de le tenir. Et rien n’empêche ensuite d’écrire une autre histoire qui dira la chose plus précisément.

Je pense donc axer ma thématique en mettant en balance les différentes morales pour favoriser la morale aristotélicienne.

La morale empiriste servira juste à amorcer la balance, la morale du devoir permettra de la dépasser et s’opposera à la morale du bonheur.

Mais… Hum. Je vais peut-être déjà un peu loin. Cela arrive souvent quand on avance dans les recherches. On précise trop vite, on s’emballe et on risque de perdre de vue le cap qu’on s’est donné.

Le mieux est donc de revenir à notre thématique telle que nous l’avions posée — et telle que vous l’avez choisie — pour évaluer ce que je viens de sortir.

 

La morale ne pourra jamais être codée par une Intelligence Artificielle

 

Remarquez, c’est encore très abstrait et le lien entre les l’intelligence artificielle n’est pas encore vraiment manifeste.

Pourquoi s’était-on lancé dans la morale au fait ?

Ah oui. Les robots dotés d’intelligence artificielle doivent pouvoir juger si un homme doit vivre ou mourir. Du coup il faut leur apprendre la morale.

 

D’accord. Mais il se pose au moins deux questions à ce sujet :

Quelle morale va-t-on coder ? Et comment pourrait-on la coder ?

 

Quelle morale va-t-on coder : on retrouve les différentes écoles du début. On pourrait d’ailleurs facilement dramatiser cette question.

Puisque l’intelligence artificielle est une arme qui peut se retourner contre les humains, on peut imaginer une sorte de comité international chargé d’apprendre les règles morales à l’IA, avec une vraie guerre de chapelle.

On pourrait imaginer plusieurs communautés d’intelligence artificielle, où les principes moraux ne seraient pas les mêmes, pour pouvoir tester à grande échelle, dans une sorte de laboratoire géant…

Par exemple, la société du devoir aspirerait à une application de la loi stricte. Ce serait la tyrannie de la raison pure, où l’homme serait tutoré par les machines. La société empirique serait une société où les robots satisferaient chaque désir de l’homme, essayant de préserver un équilibre explosif.

Bon, c’est un peu tarte à la crème, mais c’est l’idée. On creusera plus tard au-delà des stéréotypes.

Avant, il faut bien poser le vrai problème central : la morale peut-elle seulement être codée ?

Je sais que je veux répondre non, mais il faut encore que je vous dise pourquoi.

Il y a deux éléments essentiels dans la moralité d’un acte : il y a tout ce qui est du domaine des règles universelles comme « il faut faire le bien et ne pas faire le mal », mais aussi des règles plus précises, plus proches des actions individuelles comme le cas de la légitime défense : « je dois empêcher celui qui menace de me tuer, même s’il faut le tuer à mon tour ». Tout cela fait partie de la science morale qu’on pourrait apprendre à une machine.

Seulement, on ne peut pas aller jusqu’au cas singulier. D’accord, la légitime défense est un acte moral. Mais que faire dans telle ou telle circonstances précises ? Ces règles ne sont là que pour nous éclairer notre conscience morale. Mais ces règles ne vont pas trancher pour nous, ni nous faire persévérer. On ne peut pas déduire mathématiquement l’acte moral.

 

Ce qui permet de faire un jugement bon, c’est ce qu’on appelle la vertu de prudence, qui nous fait juger et vouloir sans défaillir ce qui a été jugé bon. Cette vertu est une force qui ne peut être que spirituelle. Autrement dit, ce n’est pas lié à la matière du corps. Pour faire simple, ça dépasse la capacité du cerveau et à plus forte raison, ça dépasse la capacité de l’IA.

Et c’est précisément cette pointe spirituelle – qui dépasse la capacité de la matière – qui permet la moralité de l’acte.

 

Voilà donc pour résumer : l’Ethique comme science pourrait être codée par une machine, mais l’intelligence artificielle ne pourra jamais accéder au jugement moral proprement dit.

La seule chose qu’elle pourrait faire serait une sorte de catalogue de tous les actes bons dans certaines circonstances. Une sorte de jurisprudence incroyable qui permettrait d’avoir un éclairage très fort, mais qui ne pourrait pas aboutir à une vraie décision morale.

Elle pourrait singer la décision morale.

Bien, j’ai un peu mieux défini ma thématique. C’était un peu abstrait… et surtout un peu rapide. Mais je n’ai pas trop le choix avec ce genre de format vidéo. On y reviendra encore dans le prochain Atelier du Dimanche, mais on commencera aussi à la concrétiser dans une histoire. Et je vous en proposerai plusieurs pour que vous puissiez choisir.

 

Au boulot !

Eric