Pour voir la vidéo précédente cliquez ici : http://www.ecrire-un-roman.com/articles/non-classe/ecrire-un-roman-sf-1/
La transcription de la vidéo est plus bas ! >>>
Chers auteurs bonjour !
Suite à vos réponses, je continue cette expérience. J’écris avec vous pas à pas un roman de Science-Fiction autour de l’intelligence artificielle.
Si vous n’avez pas suivi le premier Atelier du Dimanche, je vous invite à le regarder avant pour bien comprendre d’où on part.
Vous avez plébiscité la thématique B :
- 20 % pour A- L’intelligence artificielle ne sera jamais humaine
- 70 % pour B- La morale ne pourra jamais être codée par une Intelligence Artificielle
- 10 % pour C- La technique peut se retourner contre l’inventeur qui n’y prend pas garde
Je prends donc cette thématique qui tourne autour de la morale.
Nous allons prendre ce virage mais nous n’allons pas abandonner pour autant les autres domaines. Ce que je veux dire par là, c’est que, oui, la conclusion de notre histoire sera bien autour de la morale, c’est désormais notre thématique principale, mais nous toucherons forcément aux deux autres questions, au moins dans la préparation.
J’ai déjà fait quelques recherches sur l’Intelligence artificielle, j’en ai rapidement parlé la semaine dernière.
Il faut maintenant que je creuse davantage le domaine de la morale.
Mon passé de prof de philo m’aide, bien évidemment, mais si je n’avais pas été au clair, il aurait suffit de faire une recherche sur Internet pour débroussailler la question de la morale, afin de voir comment la lier avec l’intelligence artificielle.
La morale
Il y a de nombreuses conceptions de la morale.
Je retiens trois écoles, qui se distinguent par l’objet de la morale, c’est-à-dire leur but affiché.
Empiristes (tout ce qui donne du plaisir est bien ou tout ce qui est utile est bien) :
Stoïcisme, Kantisme (Vertu – Devoir : « il faut parce qu’il faut »)
Aristotélisme (Bonheur : « tout acte humain est finalisé par le bonheur »)
On pourrait bien sûr en ajouter d’autres.
Je simplifie exprès. Pas seulement pour la vidéo, mais aussi pour le roman. Je suis à un niveau de focus où je ne vais pas entrer dans les détails de telle ou telle morale. On pourrait y passer des années !
Le but de cette recherche n’est pas de devenir moraliste. Je ne suis pas en train d’écrire une thèse de philosophie.
Par contre, je dois pouvoir prendre parti dès cette phase de l’écriture.
Autrement dit, la recherche que j’ai faite doit me permettre de me faire ma propre idée. Tant pis si je découvre ensuite que ma pensée a évoluée. Enfin, ça dépendra du stade de mon histoire. On pourra toujours atténuer telle ou telle position. Mais il est important de choisir rapidement un cap et de le tenir. Et rien n’empêche ensuite d’écrire une autre histoire qui dira la chose plus précisément.
Je pense donc axer ma thématique en mettant en balance les différentes morales pour favoriser la morale aristotélicienne.
La morale empiriste servira juste à amorcer la balance, la morale du devoir permettra de la dépasser et s’opposera à la morale du bonheur.
Mais… Hum. Je vais peut-être déjà un peu loin. Cela arrive souvent quand on avance dans les recherches. On précise trop vite, on s’emballe et on risque de perdre de vue le cap qu’on s’est donné.
Le mieux est donc de revenir à notre thématique telle que nous l’avions posée — et telle que vous l’avez choisie — pour évaluer ce que je viens de sortir.
La morale ne pourra jamais être codée par une Intelligence Artificielle
Remarquez, c’est encore très abstrait et le lien entre les l’intelligence artificielle n’est pas encore vraiment manifeste.
Pourquoi s’était-on lancé dans la morale au fait ?
Ah oui. Les robots dotés d’intelligence artificielle doivent pouvoir juger si un homme doit vivre ou mourir. Du coup il faut leur apprendre la morale.
D’accord. Mais il se pose au moins deux questions à ce sujet :
Quelle morale va-t-on coder ? Et comment pourrait-on la coder ?
Quelle morale va-t-on coder : on retrouve les différentes écoles du début. On pourrait d’ailleurs facilement dramatiser cette question.
Puisque l’intelligence artificielle est une arme qui peut se retourner contre les humains, on peut imaginer une sorte de comité international chargé d’apprendre les règles morales à l’IA, avec une vraie guerre de chapelle.
On pourrait imaginer plusieurs communautés d’intelligence artificielle, où les principes moraux ne seraient pas les mêmes, pour pouvoir tester à grande échelle, dans une sorte de laboratoire géant…
Par exemple, la société du devoir aspirerait à une application de la loi stricte. Ce serait la tyrannie de la raison pure, où l’homme serait tutoré par les machines. La société empirique serait une société où les robots satisferaient chaque désir de l’homme, essayant de préserver un équilibre explosif.
Bon, c’est un peu tarte à la crème, mais c’est l’idée. On creusera plus tard au-delà des stéréotypes.
Avant, il faut bien poser le vrai problème central : la morale peut-elle seulement être codée ?
Je sais que je veux répondre non, mais il faut encore que je vous dise pourquoi.
Il y a deux éléments essentiels dans la moralité d’un acte : il y a tout ce qui est du domaine des règles universelles comme « il faut faire le bien et ne pas faire le mal », mais aussi des règles plus précises, plus proches des actions individuelles comme le cas de la légitime défense : « je dois empêcher celui qui menace de me tuer, même s’il faut le tuer à mon tour ». Tout cela fait partie de la science morale qu’on pourrait apprendre à une machine.
Seulement, on ne peut pas aller jusqu’au cas singulier. D’accord, la légitime défense est un acte moral. Mais que faire dans telle ou telle circonstances précises ? Ces règles ne sont là que pour nous éclairer notre conscience morale. Mais ces règles ne vont pas trancher pour nous, ni nous faire persévérer. On ne peut pas déduire mathématiquement l’acte moral.
Ce qui permet de faire un jugement bon, c’est ce qu’on appelle la vertu de prudence, qui nous fait juger et vouloir sans défaillir ce qui a été jugé bon. Cette vertu est une force qui ne peut être que spirituelle. Autrement dit, ce n’est pas lié à la matière du corps. Pour faire simple, ça dépasse la capacité du cerveau et à plus forte raison, ça dépasse la capacité de l’IA.
Et c’est précisément cette pointe spirituelle – qui dépasse la capacité de la matière – qui permet la moralité de l’acte.
Voilà donc pour résumer : l’Ethique comme science pourrait être codée par une machine, mais l’intelligence artificielle ne pourra jamais accéder au jugement moral proprement dit.
La seule chose qu’elle pourrait faire serait une sorte de catalogue de tous les actes bons dans certaines circonstances. Une sorte de jurisprudence incroyable qui permettrait d’avoir un éclairage très fort, mais qui ne pourrait pas aboutir à une vraie décision morale.
Elle pourrait singer la décision morale.
Bien, j’ai un peu mieux défini ma thématique. C’était un peu abstrait… et surtout un peu rapide. Mais je n’ai pas trop le choix avec ce genre de format vidéo. On y reviendra encore dans le prochain Atelier du Dimanche, mais on commencera aussi à la concrétiser dans une histoire. Et je vous en proposerai plusieurs pour que vous puissiez choisir.
Au boulot !
Eric
– La morale pourrait être codée de façon à permettre les décisions d’une IA dans le cas de la morale empiriste ou stoïciste car les paramètres de maximisation du plaisir, utilité, ou devoir sont relativement clairs et explicites puisque unidirectionnels.
EXEMPLES
Les personnages de La Dolce Vita sont éminemment prévisibles puisque dépendant d’une variable à laquelle on donne beaucoup plus d’importance qu’aux autres. Il serait facile de coder une IA en donnant le maximum d’importance au plaisir sexuel.
De même, le Cid confronté au choix entre l’amour de Chimène et la défense de l’honneur dans le cadre de la morale kantienne choisit évidemment d’obéir à son père. S’il avait été un robot fonctionnant dans cette logique là, le choix lui était aussitôt imposé.
2. Mais la morale du bonheur est beaucoup plus complexe car elle consiste à tenir compte d’une multiplicité d’éléments inscrits dans des domaines différents (caractère, famille, ambitions, désirs, expérience, aptitudes, etc.) qui favorisent ou nuisent au bonheur, ces éléments étant souvent fonction de caractères inhérents à l’individu. Il est impossible de les coder tous ou même un petit nombre.
EXEMPLE
Je serai peut-être heureux en acquérant le maximum de pouvoir mais je peux davantage me rendre heureux en jardinant, en m’occupant de mes enfants, et en acceptant l’instant présent avec ses limites, choix qui dépendent de caractéristiques personnelles et c’est leur équilibre et bonne utilisation qui crée le bonheur. Comment tenir compte de multiples variables (caractère, aptitudes, expérience, famille, éducation, désirs, etc.) ayant des poids relatifs différents suivant le type de décision à prendre comme base de choix ou de codage pour une IA ?
Impossible, n’est ce pas ? Mais beaucoup plus facile ou envisageable pour la morale empiriste ou kantienne car le critère de succès ou de décision est uni-directionnel.
Merci pour cette réponse Erato !
C’est en effet une manière de voir le problème.
Pour Aristote, l’amitié a une très grande place dans la quête du bonheur (comme Platon avant lui, d’ailleurs). L’amitié et la vertu. Nous aurons l’occasion d’y revenir !
Merci, Eric de nous intéresser à tout cela et de partager avec nous la lettre du DImanche.
A demain
Bonjour Eric,
Avec quelques jours de décalage, je viens de visionner la nouvelle vidéo de ton atelier d’écriture.
A l’inverse de certains commentaires déjà postés, je suis plutôt adepte du format vidéo.
Je reconnais que la retranscription sous forme de texte nous offre l’opportunité de retrouver facilement certains passages en particulier, et de les relire à souhait… mais je trouve que tes vidéos apportent du dynamisme et sont très agréables à découvrir (ou redécouvrir – il m’arrive souvent de revenir sur certaines vidéos précédentes quand le besoin s’en fait ressentir). Donc pour ma part je trouve que le mix » video-texte » est un must.
Revenons au sujet de la video.
Tu t’en doutes : pour moi qui me suis lancé dans un projet d’Anticipation, où robotique et intelligence artificielle sont mêlés, cet atelier est du pain béni (si tu me permets cette expression).
Le passage de ta vidéo qui a particulièrement suscité mon attention, c’est le moment où tu soutiens que :
– La vertu de prudence est une force qui ne peut être que spirituelle (…ce n’est pas lié à la matière du corps).
– Cette vertu dépasse la capacité du cerveau et à plus forte raison, ça dépasse la capacité de l’IA.
– cette pointe spirituelle qui dépasse la capacité de la matière permet la moralité de l’acte.
– L’I.A. ne pourra jamais accéder au jugement moral proprement dit. L’homme est donc le seul capable de poser un jugement moral.
Je trouve qu’à lui seul, ce passage mérite déjà un roman entier 😉
Et en y regardant de plus près, je réalise que dans le premier chapitre de mon roman (chapitre que j’ai écris fin 2016), je pose de façon indirecte les bases qui pourraient me permettre de débattre plus en profondeur de cette question de moralité. En réalité c’était bien mon but initial, même si le thème de la moralité, centrée sur L’I.A. n’était pas à proprement parler le thème central de mon histoire. Mais à bien y réfléchir, cela vaudrait franchement la peine que je prenne le temps de ré-évaluer la question et d’envisager de remettre cette question davantage au centre du débat. Peut-être à l’époque avais-je un peu trop rapidement éludé la question, sentant intuitivement que cela m’obligerait à traiter de la morale… un sujet auquel je ne connaissais finalement pas grand chose.
Juste une dernière question Eric : lorsque tu affirmes que la vertu de prudence est une force qui ne peut être que spirituelle, que cela dépasse le cerveau humain et par extension l’intelligence artificielle… Est ce un point de vue objectif ? Ou est-il subjectif ?
Merci pour tout Eric.
Je me remets au boulot sans tarder 😉
Yves
« …lorsque tu affirmes que la vertu de prudence est une force qui ne peut être que spirituelle, que cela dépasse le cerveau humain et par extension l’intelligence artificielle… Est ce un point de vue objectif ? Ou est-il subjectif ? »
Je m’appuie sur l’étude de l’âme d’Aristote.Il ne s’agit pas d’une approche subjective, mais bien objective. On étudie l’homme comme une chose vivante, douée de sensation et de raison. Il démontre que l’intelligence est une faculté qui dépasse la capacité de la matière. Evidemment, il n’avait pas les connaissances expérimentales qu’on a aujourd’hui du cerveau. Mais la démonstration est toujours valable et certaine.
Moi aussi j’aime bien la version texte (ça permet de garder son propre rythme de lecture, au lieu de dépendre de celui de l’auteur). Merci pour tout, très intéressant comme d’habitude.
Bonjour Eric,
Dire que j’ai failli passer à côté ! je pourrai dire que grâce à Eric et à sa lettre du dimanche, ce sera la troisième fois que je trouve l’inspiration pour mes romans. Je n’en reviens pas ! Eh oui ! je me lance dans la SF hi ! hi! hi! je veux voir de quoi je suis capable dans ce genre inconnu pour moi. J’ai déjà un synopsis court, je pense pouvoir le rallonger grâce à cette lettre du dimanche. Alors merci mille fois Eric. Je ne dis pas ça pour faire plaisir, j’ai les preuves.
Haha Sacrée Dominique !
Bravo ! Rien ne t’arrête ! 😀
Bonjour Eric,
Merci pour ces lettres du dimanche qui sont super !
Ça fait un bon moment que je les lis et je commence à me mettre dans un projet, tout arrive!
La lettre du dimanche est un très bon rappel pour moi et je la lis avec beaucoup de plaisir.
Même si je suis un adepte de YouTube, je vote pour le maintien de la version écrite, c’est un support que j’aime bien 🙂
Bonne journée !
Bravo Thierry !
C’est noté pour le texte.
Hello !
C’est peut-être dans ce type de cas que l’intervention humaine reste la plus judicieuse dans le sens de la coopération entre l’homme et la machine, la décision étant bien trop importante.
On peut également parler d’informatique cognitive : une machine pourrait apprendre d’après un flot d’informations conséquent, des séquences, des situations, des circonstances qu’elle pourrait identifier, analyser et évaluer, avec ou sans supervision humaine.
Bien sûr, on est encore très loin de tout ça, et il y a bien d’autres domaines à approfondir et améliorer (tout type de reconnaissance : spatiale, d’objet, de voix, de discours en langage naturel etc.) avant qu’une machine puisse avoir à prendre une décision basée sur la morale.
Bien vu Nemi !
Bon, là on est en SF, donc on peut lâcher la bride de l’imagination… tout en restant dans un univers probable ! 🙂
Mais dans ce cas, si on lâche la bride à l’imagination, ne peut-on donc pas penser que des IAs dôtées d’un sens moral puisse être conçues ?
Si on est capable de créer une machine à l’intelligence assez poussée pour pouvoir contextualiser tout son environnement, et il y a beaucoup de choses à comprendre, on serait tout à fait capable d’implémenter d’une façon ou d’une autre une simulation de conscience et de morale.
Parce que, qu’est-ce qu’une machine, sinon la matérialisation de la pensée humaine ?
Il y a tellement de choses à dire sur ce sujet 😀
Bonne idée. On est bien dans la problématique.
Seulement, encore une fois, on se base sur *l’univers tel que nous le connaissons*, dans l’extrapolation.
Or l’argument de l’IA simulant la morale ne passe pas le cap de l’immatérialité. Justement, l’IA est une « matérialisation ». On se concentre sur le résultat d’un processus spirituel (l’acte volontaire, moral) en un acte concret.
Donc, oui, on pourrait « simuler » de manière très persuasive un comportement humain, mais ça ne serait pas humain pour autant. Il n’y aurait pas de « conscience morale ». Juste le reflet des choix initiaux (qu’ils soient ceux d’un codeur initial ou bien ceux récupérés par la suite par l’observation des humains).
Attention : quand je parle d’extrapolation, je ne refuse pas non plus les romans qui attribuent une « conscience » aux robots, comme s’ils n’étaient pas de SF. Je pars d’un point de vue philosophique bien tranché (Aristotélicien).
Bonjour Eric !
Oui, oui, je confirme l’utilité du transcript, merci beaucoup d’ailleurs !! 😉
C’est noté, Nathalie !
Coucou Eric !
Merci encore pour ces lettres !
Je ne réponds pas toujours mais en les trouvant dans ma mailbox ça m’aider à me motiver !
Après TROIS mois de procratination me revoilà plonger dans les tréfonds de mon histoire !
Et que vois-je ?? La construction d’un sf !
Aah, mes je vais suivre avec ardeur, ça m’aidera tellement pour comprendre et trouver la direction que je veux suivre !
Merci mille fois.
Je suis tellement heureuse d’être abonnée à cette lettre qui me donne une nouveau souffle chaque dimanche depuis… je ne sais combien de temps^^
Merci encore !
Haha 🙂 Le « hasard » a encore frappé !
Super Soonie ! On voudra des news ! 😉