Bonjour à tous, je me lance dans un exercice délicat : vous ouvrir mon crâne en train d’écrire un roman de Science Fiction !

C’est l’Atelier du Dimanche.

Trouvez l’épisode 2 ici : http://www.ecrire-un-roman.com/articles/non-classe/ecrire-un-roman-sf-thematique-2/

Et la transcription est en dessous, bande de veinards. 😉

 

Chers auteurs bonjour,

Dans cette vidéo je vous partage comment je creuse une idée de roman de Science Fiction à partir de zéro. C’est un concept un peu différent des Bouffées d’écriture, ou du moins une série parallèle, car je pense développer ce roman, enfin plus exactement vous montrer différentes phases d’écriture réparties en quelques vidéos.

Donc, pour le moment, je ne pense pas en faire réellement un roman.

Ça va être différent des Bouffées d’écriture aussi parce que je ne vais pas expliquer la méthode.

Si vous avez besoin d’éléments sur la méthode, je vous renvoie vers les Bouffées d’écriture et vers commentecrireunlivre.Fr.

Bon, c’est un essai, alors n’hésitez pas à me dire en commentaire ce que vous en pensez sincèrement. Le but c’est quand même que ça vous soit utile, hein !

Alors, je vais partir d’un article de cet été qui m’avait marqué. Ça parlait de la menace des robots tueurs. Et on va voir ce qu’on pourrait trouver comme histoire à partir de ça.

C’était une lettre ouverte d’une centaine de chefs d’entreprises dans la robotique, l’intelligence artificielle et toutes sortes de techniques de pointe, dont Elon Musk, le fondateur de Tesla et de SpaceX, qui demandait à l’ONU de s’opposer aux recherches sur les « robots tueurs », c’est-à-dire des armes autonomes

Je vous mets le lien en description.

https://futureoflife.org/2017/08/20/killer-robots-worlds-top-ai-robotics-companies-urge-united-nations-ban-lethal-autonomous-weapons/

Pourquoi les robots tueurs sont-ils un problème ?

C’est une arme de destruction terrible, très efficace.

Mais aussi se pose le problème de la décision.

 

Comment va décider le robot si quelqu’un doit vivre ou mourir ?

QU’est-ce que l’IA ?

Comment ça se passe ?

Les neurones virtuels sont interconnectés. Ils forment comme une toile, mieux, plusieurs couches de tissus reliés entre eux.

Individuellement, un neurone virtuel est assez simple, il réagit de manière binaire : par exemple, il va s’allumer dès que son voisin de droite s’allumera et dès que son voisin de gauche s’éteindra.

C’est l’ensemble du réseau qui permet de faire des tâches complexes.

On va nourrir la machine avec des données pour un problème précis.

Par exemple, « comment reconnaître un chat ».

On lui donne donc un maximum de photos de chats et on lui dit, que ce sont des chats.

Une fois que l’apprentissage est suffisant, la machine est capable de reconnaître les chats.

Bon, elle peut faire des erreurs, mais là aussi, il peut continuer à apprendre.

De cela, je retiens deux choses pour mon histoire.

L’intelligence artificielle est capable d’erreur.

L’intelligence artificielle dépend dans son principe de l’homme, mais après n’a plus besoin de lui.

Elle est dépendante des informations qu’on lui donne : si l’opérateur qui lui montre les chats lui glisse aussi un chien tout en lui disant que c’est un chat, la machine aura un biais.

Ou bien si tous les chats sont sur des coussins, dès qu’il verra quelque chose sur un coussin, elle pourra peut-être croire que ce qui est sur le coussin est un chat.

Bon, quand je dis « enseigner » en réalité c’est assez métaphorique. De même quand on parle d’intelligence artificielle, il ne faut pas se méprendre. Ce n’est pas réellement une intelligence au sens où on l’entend.

D’ailleurs, je pense qu’une bonne partie de la problématique pourrait tourner autour de ça.

Je note :

Intelligence artificielle vs Intelligence humaine

La conclusion serait que non, il y aura toujours un gap de nature entre les deux. Il faudrait évidemment développer, mais ce n’est pas encore le moment. Pour l’instant, je jette plusieurs thématiques possibles.

Notez au passage qu’il y a déjà beaucoup d’histoires qui tournent autour de cette problématique. Mais ce n’est pas grave. C’est même plutôt rassurant. L’important, c’est que ça me motive suffisamment et que ça corresponde à l’histoire que je veux raconter.

Cela me donne une idée pour le roman.

On pourrait raconter l’histoire d’un comité d’éthique, des sages, qui seraient chargés d’enseigner à la machine le bien et le mal.

Ça préciserait la thématique « IA vs Intelligence ». Ça la déplacerait sur le terrain de la morale :

Peut-on coder la morale ? La morale est-elle une simple somme d’interdits ?

La morale est-elle une simple somme d’interdits ?

La réponse serait non. Mais là encore, ça serait à développer.

En réfléchissant, c’est toujours l’homme qui est au principe de l’édifice. Qui en est la source.

Evidemment, rien n’empêche qu’il soit dépassé. Comme quand on a inventé la machine à vapeur pour dépasser les capacités musculaires.

La machine à calculer qu’est l’intelligence artificielle permet de démultiplier, de dépasser en rapidité et en qualité ce que l’homme était capable de faire.

Mais la machine peut tout à fait se retourner contre l’homme, comme on peut avoir un accident de voiture.

Sauf que là ça ne sera pas juste un accident de voiture.

 

Ça pourrait être une autre thématique :

La technique qui se retourne contre son inventeur qui n’y prend pas garde.

La technique qui se retrourne scon te quan dilssleglalskdr

L’arroseur arrosé si vous voulez.

 

Bon, ça fait déjà trois grandes directions.

Ah ben tenez, c’est vous qui allez choisir : votez pour votre thématique favorite.

 

  • L’intelligence artificielle ne sera jamais humaine
  • La morale ne pourra jamais être codée par une IA
  • La technique peut se retourner contre l’inventeur qui n’y prend pas garde

Votez en commentaire, cliquez sur le pouce bleu si vous avez aimé cette vidéo.

Au boulot !

Eric