AEX
-4.5000
L'utilisation présumée de l'intelligence artificielle pour sélectionner des cibles et lancer des attaques contre l'Iran soulève de nombreuses questions, faisant craindre une érosion du contrôle humain sur la machine de guerre, selon un spécialiste de l'IA.
Les Etats-Unis et Israël ont effectué des milliers de frappes en Iran depuis le déclenchement de leur offensive, le 28 février.
Peter Asaro, qui a notamment réalisé des travaux sur l'IA et la robotique, a affirmé cette semaine à l'AFP qu'il semblait probable que ces deux pays aient utilisé l'IA pour identifier des cibles en Iran.
Mais si l'IA permet d'accélérer les choses, elle soulève aussi une foule de questions morales et juridiques, a dit ce professeur à l'université The New School de New York.
Avec l'IA, "vous pouvez rapidement préparer de longues listes de cibles, bien plus vite que des humains", a relevé M. Asaro, qui préside le Comité international pour le contrôle des armes robotisées, une ONG.
Il préside également depuis janvier la campagne "Stop Killer Robots", un groupement mondial de plus de 250 organisations, qui lutte depuis des années pour empêcher l'arrivée de "robots tueurs" sur le champ de bataille.
Se pose, selon lui, une question éthique et juridique centrale : "dans quelle mesure les humains examinent-ils réellement les cibles identifiées, en vérifiant leur légalité et leur valeur militaire avant d'en autoriser la frappe ?".
- Perte de contrôle ? -
L'objectif, avec l'IA, "est de pouvoir prendre des décisions et d'agir plus vite que votre ennemi" mais "sommes-nous vraiment encore aux commandes ?", s'interroge-t-il.
A l'ONU, des discussions sont en cours depuis une dizaine d'années à Genève en vue de mettre au point une règlementation sur ces systèmes d'armes létales autonomes (SALA), surnommés "robots tueurs", mais les pays ne sont jamais arrivés à trouver un consensus pour entamer de véritables négociations.
Ces discussions se poursuivent, dans l'espoir cette fois que ces derniers se mettent d'accord plus tard dans l'année.
Bien qu'il n'existe actuellement aucun traité spécifique sur l'IA et les armes autonomes, cela ne signifie pas que ces systèmes puissent fonctionner dans un vide juridique : le droit international existant s'applique, incluant la protection renforcée des écoles et des hôpitaux.
S'exprimant en marge des discussions à l'ONU à Genève, M. Asaro a souligné que le coeur du débat concernait en particulier le choix des cibles et les craintes de perdre tout contrôle humain réel.
Si l'argument avancé pour l'usage de l'IA dans les conflits est souvent que "ces systèmes sont très précis et font moins d'erreurs que les humains", l'expert a insisté sur le fait que "nous ne savons en réalité pas comment ces systèmes fonctionnent".
Selon lui, l'IA repose sur des systèmes opaques et classifiés, qui offrent peu d'éclairage sur leur fonctionnement et sur la manière dont ils parviennent à leurs conclusions.
Il n'existe aucun "moyen simple d'évaluer la production de ces systèmes" ni de déterminer ce qui a mal tourné lorsque des erreurs sont commises, a déclaré M. Asaro.
- "Qui est responsable ?" -
"Si quelque chose tourne mal, qui est responsable ?" a-t-il demandé.
Il a cité le bombardement présumé d'une école en Iran, dans la ville de Minab, qui a fait 150 morts selon les autorités iraniennes.
Ni les Etats-Unis, ni Israël n'ont admis avoir procédé à une telle frappe. L'AFP n'a pas été en mesure d'accéder à ce lieu pour vérifier de manière indépendante ce bilan ou les circonstances dans lesquelles ce drame s'est produit.
L'AFP a établi que le bâtiment était proche de deux sites contrôlés par le Corps des Gardiens de la Révolution islamique, la puissante garde idéologique du régime.
Selon M. Asaro, si une erreur a été commise, en trouver la cause est loin d'être évident.
"Ils n'ont pas distingué l'école de la base militaire comme ils auraient dû le faire (...) mais qui sont-+ils+ ?" a-t-il demandé. Des humains ou une machine ?
Si l'IA a été utilisée, la question clé est selon lui de savoir "quelle est l'ancienneté des données" utilisées et s'il s'agit d'une "erreur de base de données". La cible pourrait aussi avoir été correctement identifiée mais le tir aurait simplement manqué de précision, a-t-il ajouté.
Une hypothèse plus inquiétante, note M. Asaro, serait que "le système ait réellement conclu que l'école représentait une menace".
(T.Burkhard--BBZ)