IA et combat, quand les robots partent au front (TechPod #8)

3:41
 
Partager
 

Manage episode 303207679 series 45682
Par Futura, découvert par Player FM et notre communauté - Le copyright est détenu par l'éditeur, non par Player F, et l'audio est diffusé directement depuis ses serveurs. Appuyiez sur le bouton S'Abonner pour suivre les mises à jour sur Player FM, ou collez l'URL du flux dans d'autre applications de podcasts.

Non contente de s'immiscer dans chaque aspect de notre quotidien, l'intelligence artificielle est aujourd'hui exploitée dans un nombre incalculable de domaines parmi lesquels on trouve les robots de combat. Une triste association qui avait déjà alerté les experts il y a des années, et qui gagne de l'essor dans les zones de tension en quête de nouvelles stratégies.


👉Abonnez-vous sur vos apps et plateformes audio préférées 🎙️

❤️Interagissez avec nous sur Tumult 💬


Retrouvez les dernières actualités sur Futura :

Transcription du podcast :

Bonjour à toutes et à tous et bienvenue dans Techpod, la chronique de Futura dédiée à l’actualité des technologies et de la mobilité.

Le 27 novembre 2020, une voiture circule sur la route d’Absard, une ville située à une cinquantaine de km à l’Est de Téhéran en Iran. Le véhicule passe à proximité d’un camion empli de gravats quand soudain, une rafale d’arme automatique perfore de quatre balles le conducteur qui meurt sur le coup. Il s’agit de Mohsen Fakhrizadeh, le plus haut scientifique chargé du nucléaire en Iran. Le tir a été précis et l’épouse du scientifique a été épargnée. De même, la voiture est pratiquement intacte. Et pourtant, ce drame n’est pas l’œuvre d’un sniper mais d’un robot tueur piloté par satellite et assisté par une intelligence artificielle. Le tireur, un agent du Mossad israélien, se trouvait à 1.500 km de là au moment de la fusillade. L’affaire, relatée récemment par Futura, montre que les algorithmes d’intelligence artificielle sont aujourd’hui partout, non seulement dans notre quotidien le plus banal, mais également dans la robotique, la recherche ou encore les systèmes d’armes. En l’occurrence, l’IA utilisée par le robot tueur permettait d’anticiper à la fois le déplacement du véhicule et le décalage satellite d’1,6 seconde entre l’opérateur distant et la gâchette de l’arme. De même, l’IA intégrait également un système de reconnaissance faciale, afin de s’assurer que seul Mohsen Fakhrizadeh serait ciblé. En mars dernier, lors des tensions entre Israël et le Territoire palestinien, c’est encore avec le renfort de l’intelligence artificielle que l’armée israélienne avait envoyé un essaim de drones, pour identifier des cibles et organiser ses frappes avec plus de rapidité et de précision. Chez les Américains, un projet d’IA capable d’identifier en quelques secondes les indices d’une menace en préparation est actuellement expérimenté. Pour les militaires, elle pourrait être très utile pour anticiper une attaque éclair et préparer sans perdre de temps une opération de défense. Elle pourrait aussi permettre d’enclencher au plus vite des discussions diplomatiques au lieu d'entrer en conflit. Mais ces estimations restent faillibles et l’incident diplomatique n’est jamais loin si la machine se trompe.

Avant même qu’ils ne passent concrètement du côté obscur, cela fait des années que ces algorithmes funestes font réagir des personnalités comme Elon Musk, Steve Wozniak, ou encore le regretté Stephen Hawking. Dès 2014, avec 2.000 autres signataires spécialistes de l’IA, ils avaient même appelé à une interdiction des robots militaires autonomes dopés à l’intelligence artificielle. Mais depuis les lignes se sont déplacées et pas forcément dans la bonne direction. En 2018, un projet de traité interdisant ce type d’armement, avancé par les Nations Unies, avait été bloqué par une minorité de pays, malgré une grosse campagne de mobilisation de certaines ONG. Depuis, les robots tueurs débarquent donc sur le champ de bataille aux côtés des troupes, ou à leur place. En l'absence de réglementation en la matière, une course à ce type d’armements semble inévitable mais tout n’est peut-être pas encore perdu. Si aucun accord ne peut interdire ces machines tueuses, une des solutions pourrait consister à les humaniser, pour que ces armes intelligentes se comportent de façon morale. Il s'agirait alors de les doter d'un code de valeurs propre aux combattants. Autrement dit, une éthique artificielle, en plus de l’intelligence.

Pour ne rien manquer de l’actualité technologique et scientifique, rendez-vous sur les plateformes de diffusion pour vous abonner à Fil de Science et à nos autres podcasts. Vous pouvez désormais retrouver la chronique TechPod tous les jeudis matin sur Radio Nova, dans la rubrique Tech Paf. Si cet épisode vous a plu, pensez à le poster sur les réseaux sociaux avec le hashtag #FuturaPod, et laissez-nous une note sur vos applications audio préférées. On se retrouve la semaine prochaine pour un nouveau concentré d’actualités technologiques. Bonne semaine à tous !


Crédits :

  • Texte : Sylvain Biget
  • Voix et montage : Emma Hollen
  • Musique : Patricia Chaylade


Voir Acast.com/privacy pour les informations sur la vie privée et l'opt-out.

306 episodes