Access Code School (ACS), École du numérique pour tous en Bourgogne Franche-Comté, Auvergne Rhône-Alpes, Centre Val de Loire et Nouvelle-Aquitaine

Blog

Le danger de la Super Intelligence Artificielle

Tout le monde sait ce qu’est une intelligence artificielle de nos jours, mais qui sait ce qu’est une SUPER intelligence artificielle ?

Il s’agit d’une I.A capable de se reprogrammer, s’améliorer, effectuer des opérations de maintenance sur elle-même. En bref, elle est autonome et incroyablement développée. L’humain étant lié à une lente évolution biologique, elle finit par ne plus en avoir besoin et finit par le dépasser irrémédiablement : c’est la singularité technologique.

Celle-ci n’existe pas aujourd’hui, mais elle pourrait bien voir le jour demain, son développement dépendant de la puissance de nos calculateurs (cf article sur les ordinateurs quantiques). L’humain travaille dessus afin que celle-ci veille à notre bonheur, ce qui signifie qu’elle serait bienveillante.

Cependant, tout le paradoxe se résume ici : comment est-ce qu’une machine pourrait comprendre ce que sont les sentiments humains, ce qui est bon ou mauvais pour lui ou pour notre planète ? Comment répondrait-elle à des problèmes éthiques uniquement appliqués et applicables à l’humain ?

Le seul moyen serait de créer une I.A « amicale », un terme très sympa mais qui représente ici une question de vie ou de mort.

Prenons un exemple très simple : demander à une super Intelligence Artificielle intégrée à un robot  de créer des cure-dents ; une requête neutre en soi.

Celle-ci utiliserait les ressources mises à sa disposition, puis, quand elle n’en aurait plus, commencerait à rechercher les ressources ailleurs : les arbres, puis les pierres, puis la Terre, puis des ressources hors de notre planète…
En résumé, elle détruirait les ressources du système solaire.

Deuxième exemple : lui demander de protéger l’espèce humaine. Le plus grand ennemi de l’humain, c’est lui-même, elle pourrait donc réagir d’une manière effrayante : annihiler l’espèce humaine afin qu’elle ne soit plus en danger ou bien le priver totalement de sa liberté : si un humain ne bouge pas, il ne risque aucun danger, il est donc logique que l’I.A choisisse cette option.

Le paradoxe la super I.A est pour l’instant sans réponse, et il n’y a pas que la partie « amicale » qui pose problème : imaginez les dégâts que ferait une I.A programmée pour nuire aux autres et qui dépasserait son programmeur.

C’est pourquoi plusieurs grands penseurs, dont Stephen Hawking, mettent en garde le monde face au danger que représenteraient ces I.A :

« J’ai peur que les I.A. remplacent toute l’humanité. Si quelqu’un peut créer des virus informatiques, alors un autre créera une I.A. qui peut s’améliorer et se multiplier toute seule. Ce sera ainsi une nouvelle forme de vie qui va totalement dépasser les humains. »

Les scénarios de science-fiction ne seraient pas aussi fictifs qu’on pourrait le penser et Pepper devient moins mignon …

About the Author

Ajouter un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *