Que pensez-vous de la lettre ouverte de Musk-Chomsky-Hawking ? Cette lettre fait écho à une tribune sur l’intelligence artificielle rédigée par Stephen Hawking et parue il y a un an. Cette tribune posait mal les problèmes. -- Or il n’y a pas d’éléments tangibles aujourd’hui qui permettent de justifier cette inquiétude. Les progrès de l’intelligence artificielle sont extraordinaires et ne mettent pas à l’abri d’accidents. Mais ce n’est pas pareil d’être attentif aux risques potentiels et de dire : «Attention, vous allez perdre le contrôle. -- Il y eut ensuite deux lettres ouvertes. La première, publiée en janvier sur le site de l’Institut du futur de la vie et signée par Musk et Hawking, portait sur l’intelligence artificielle en général. Une nouvelle lettre ouverte, publiée sur le même site et signée entre autres par Musk, Chomsky et Hawking, porte plus particulièrement sur les armes autonomes. -- La notion de responsabilité ne se pose plus dans les mêmes termes aujourd’hui qu’auparavant. Notre programme Ethicaa (éthique et agents autonomes, qui regroupe des chercheurs en intelligence artificielle, des philosophes et des spécialistes dans les facteurs humains) étudie comment mettre des systèmes normatifs sur ces machines autonomes pour les empêcher d’avoir des comportements contraires à certaines règles. Ronald Arkin va dire : «Ce sont les lois de la guerre.