Intervention de Olivier Becht

Réunion du mercredi 30 mai 2018 à 9h30
Commission de la défense nationale et des forces armées

Photo issue du site de l'Assemblée nationale ou de WikipediaOlivier Becht, rapporteur :

Toutes ces perspectives nous conduisent à nous interroger sur les moyens de maintenir l'homme « dans la boucle » de décisions, dans la guerre numérisée. Notre conviction est qu'en tout état de cause, l'homme doit rester dans cette boucle. Cela n'empêche pas d'exploiter les avancées technologiques. En effet, tout robot n'est pas nécessairement un robot tueur, et comme l'a bien montré le récent rapport de notre collègue Cédric Villani sur l'intelligence artificielle, on ne pourra pas faire sans cette technologie.

La question est donc de savoir comment contrôler l'intelligence artificielle. Cela passe notamment par des développements visant à rendre celle-ci capable de justifier ses résultats. Pour se convaincre de ce que l'on ne peut pas s'y fier sans contrôle, il suffit de se rappeler, par exemple, que le robot de Microsoft doté d'intelligence artificielle, appelé Tay, est devenu très rapidement néonazi. De même, en 2016, deux intelligences artificielles développées dans le cadre du projet Google Brain ont inventé, en quelques semaines, un langage nouveau, indéchiffrable par l'homme. Certes, l'intelligence artificielle n'a pas atteint pour l'heure le stade de la singularité, c'est-à-dire celui de la conscience réflexive de soi. Mais c'est dès à présent qu'il faut entamer une réflexion sur le contrôle de l'intelligence artificielle et, par prudence, rendre étanche les réseaux accessibles à des systèmes d'intelligence artificielle et ceux qui commandent des armes de destruction, a fortiori des armes de destruction massive.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.