Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Ouf: je ne suis pas la seule à crier!

Si je crains cette terrible catastrophe pour l'humain et les sociétés humaines en devenir, c'est parce que, en tant que voyante transgénérationnelle, j'ai vu cette terrible menace pour nos arrières-petits enfants...

Peu à peu, je m'aperçois que d'autres aussi le sentent venir....

 

www.legende-des-siecles.com

___________________________________________________

 

Stephen Hawking: Sous-estimer l’intelligence artificielle serait "la plus grave erreur de notre histoire"

SCIENCE - Le scientifique britannique co-signe une tribune dans laquelle il alerte sur la potentielle menace pour l’humanité que constituerait l’invention de l’IA…

L’intelligence artificielle fait fantasmer et trembler. D’Isaac Asimov à Transcendence avec Johnny Depp et Morgan Freeman, en passant par la série "Battlestar Galactica", les possibles dangers pour l’homme d’une machine intelligente ont déjà été explorés dans d’innombrables variations. Mais quand Stephen Hawking prend la plume pour alerter des dangers de l’intelligence artificielle, la science rejoint la science-fiction.

 "Nous sommes face à la meilleure, ou la pire chose qui puisse arriver à l’humanité"

 "Réussir à créer une intelligence artificielle serait le plus grand événement dans l’histoire de l’homme, écrit l’éminent physicien britannique, connu pour sa recherche sur les trous noirs. Mais ce pourrait aussi être le dernier, prévient-il dans une tribune cosignée dans le journal The Independent." Citant les voitures auto-pilotées, les assistants personnels comme Siri ou les armes autonomes qui décideraient de tuer sur un champ de bataille sans intervention humaine, Stephen Hawking avertit que ne pas prendre au sérieux ce qui est encore de la science-fiction pourrait être "la plus grave erreur de notre histoire".

 "On peut imaginer que cette technologie déjoue les marchés financiers, dépasse les chercheurs humains, manipule les dirigeants humains et développe des armes qu’on ne peut pas même comprendre", poursuit le scientifique. "L’incidence à court-terme de l’intelligence artificielle dépend de qui la contrôle, mais l’impact à long-terme dépend de la possibilité réelle de la contrôler." Stephen Hawking déplore le manque de recherche sérieuse sur ces questions, "alors que nous sommes face à la meilleure, ou la pire chose qui puisse arriver à l’humanité".

 

Les commentaires sont fermés.