Pour Elon Musk, créer de l’intelligence artificielle, c’est "invoquer le démon"
Le célèbre PDG persiste et signe. Pour lui, l’intelligence artificielle représente une menace pour l’existence de l’humanité. Il préconise un contrôle règlementaire national ou international.
Elon Musk voit déjà la fin de l'humanité. Il avertot que l'intelligence artificielle c’est dangereux. Ce serait même, selon lui, potentiellement plus dangereux que le nucléaire. Elon Musk, le patron de Tesla et SpaceX, confirme sa vision pessimiste sur l’intelligence artificielle. Invité spécial à l’occasion d’une conférence du MIT sur les technologies aéronautiques et spatiales, il est questionné par une personne du public qui lui demande ce qu’il pense de cette technologie et s’il compte la développer dans ses propres entreprises. La réponse fut radicale. "Je pense que nous devrions être très prudents à propos de l’intelligence artificielle, explique-t-il. Si je devais deviner ce que serait notre plus grande menace existentielle, je dirais probablement que c’est ça. (...) Avec l’intelligence artificielle, nous invoquons le démon. Vous savez, ces histoires où il y a un gars avec un pentagramme et de l’eau bénite, et il est certain qu’il pourra contrôler le démon. Ça ne marche pas“.
Elon Musk pense même qu’il faudrait créer un contrôle étatique sur cette recherche, une idée plutôt inhabituelle pour un homme d’affaires américain. "Je suis de plus en plus enclin à penser qu’il devrait y avoir une certaine surveillance réglementaire, peut-être au niveau national ou international, juste pour s’assurer que nous ne faisons pas quelque chose de très stupide", souligne-t-il.
Ce n’est pas la première fois que PDG s’exprime de manière aussi négative sur ce sujet. Début octobre, dans le cadre du sommet Vanity Fair, il avait déjà mis en doute l’intelligence artificielle, mais ses mots n’étaient pas aussi dramatiques que maintenant. Matrix, Terminator et 2001, Odyssée de l’espace ne sont plus très loin. Dans ce dernier cas, la réalité serait en train de dépasser la fiction. "HAL9000 serait facile [à contrôler]. C’est un petit chiot [par comparaison à l’intelligence artificielle développée aujourd’hui],"
Après le serial entrepreneur Elon Musk, c'est le grand physicien britannique Stephen Hawking qui a récemment fait part de ses craintes face au développement tous azimuts des technologies d'intelligence artificielle.
Comme ces deux grandes figures des sciences et de la technologie, faut-il avoir peur de ce champ de recherche en plein essor? De l'homme augmenté aux voitures automatiques en passant par le cerveau connecté cher aux transhumanistes ou par les objets connectés.
Selon Stephen Hawking, l’intelligence artificielle menacerait la race humaine. C'est aussi l'avis de l'entrepreneur américain Elon Musk.
Selon Stephen Hawking, l’intelligence artificielle – c'est-à-dire le fait que des ordinateurs pensent comme des êtres humains – pourrait provoquer " l’extinction de la race humaine ". C’est ce qu’il a déclaré à la BBC.
Le scientifique pense que le jour où les machines seront capables de se prendre en charge toutes seules, elles n’auront plus besoin des hommes et elles feront tout pour s’en passer. Un vrai scénario de science fiction, genre Matrix, Terminator et 2001 L’Odyssée de l’espace à la fois. En effet, Stephen Hawking explique que les humains sont défavorisés car ils sont limités par une lente évolution biologique alors que l’intelligence artificielle des ordinateurs, elle, va beaucoup plus vite. Imaginez des machines fabriquant elles-mêmes d’autres machines et que des ordinateurs programment d’autres ordinateurs. Stephen Hawking est considéré comme l’un des plus brillants scientifiques vivants. Autant dire que lorsqu’il s’exprime, on tend l’oreille.