07/11/2016, 19:32
(07/11/2016, 17:17)tholdur a écrit : Tant qu'une machine n'aura pas "trouvé" d'intérêt de lutter contre l'être humain, elle ne le fera pas. La question est: peut-il exister un intérêt, un bénéfice pour la machine?
Cela dépend avant tout des développeurs. Même si la machine évolue, crée ses propres algorithmes, communique... des contraintes peuvent toujours être insérées dès le début, à partir desquelles l'IA devra faire ses propres choix.
Même sans aller jusqu'à imaginer un développeur pervers apprenant à son IA comment nuire aux autres, rien qu'en prenant la théorie des jeux il y a de quoi créer des catastrophes tout en faisant croire à la machine que ses choix sont tout à fait rationnels pour le bien de l'humanité.
Fan de Garcimore