Les humains doivent avoir un pouvoir prioritaire sur l'IA militaire

Vous n'avez pas pu assister à Transform 2022 ? Découvrez dès maintenant toutes les sessions du sommet dans notre bibliothèque à la demande ! Regardez ici.

Pendant des années, les responsables américains de la défense et les groupes de réflexion de Washington ont débattu pour savoir si l'avenir de notre armée pourrait ou devrait être un peu moins humain.

L'armée américaine a déjà commencé à s'appuyer sur une technologie qui utilise l'apprentissage automatique, l'intelligence artificielle (IA) et le big data, ce qui soulève des questions éthiques en cours de route. Bien que ces technologies aient d'innombrables applications bénéfiques, allant de l'évaluation des menaces à la préparation des troupes au combat, elles évoquent à juste titre des inquiétudes quant à un avenir dans lequel des machines de type Terminator prendront le relais.

Mais opposer l'homme à la machine passe à côté de l'essentiel. Il y a de la place pour les deux dans notre avenir militaire, tant que les machines facilitent la prise de décision humaine, plutôt que de la remplacer.

L'IA militaire et l'apprentissage automatique sont là

La technologie d'apprentissage automatique, un type d'IA qui permet aux systèmes informatiques de traiter d'énormes ensembles de données et d'"apprendre" à reconnaître des modèles, a rapidement pris de l'ampleur dans de nombreux secteurs. Les systèmes peuvent parcourir d'énormes quantités de données provenant de plusieurs sources, puis faire des recommandations en fonction des modèles qu'ils détectent, le tout en quelques secondes.

Événement

MétaBeat 2022

MetaBeat réunira des leaders d'opinion pour donner des conseils sur la manière dont la technologie métaverse transformera la façon dont toutes les industries communiquent et font des affaires le 4 octobre à San Francisco, en Californie.

Inscrivez-vous ici

Cela fait de l'IA et du machine learning des outils utiles pour les humains qui doivent prendre des décisions réfléchies à tout moment. Considérez les médecins, qui peuvent n'avoir que quelques minutes avec chaque patient, mais doivent poser des diagnostics qui peuvent potentiellement changer la vie. Certains hôpitaux utilisent l'IA et l'apprentissage automatique pour identifier les maladies cardiaques et le cancer du poumon avant qu'un patient ne présente des symptômes.

Il en va de même pour les chefs militaires. Lors d'un choix stratégique qui pourrait avoir un coût humain, les responsables doivent être en mesure de traiter toutes les données disponibles le plus rapidement possible pour prendre la décision la plus éclairée.

L'IA les aide à le faire. Certains systèmes, par exemple, peuvent prendre des images de surveillance bidimensionnelles et créer un modèle tridimensionnel détaillé d'un espace. Cela aide les responsables à tracer un chemin sûr pour leurs troupes à travers une zone jusque-là inexplorée.

Un pouce levé humain

Que ce soit dans une salle d'urgence ou sur le champ de bataille, ces applications de machine learning ont une chose en commun. Ils n'ont pas le pouvoir de prendre une décision ultime. En fin de compte, c'est la décision du médecin de poser un diagnostic - et la décision de l'agent de donner une ordonnance.

Les entreprises qui développent de nouvelles technologies militaires d'IA ou d'apprentissage automatique ont la responsabilité de contribuer à ce qu'il en soit ainsi. Ils peuvent le faire en équipant leurs innovations de quelques garde-corps essentiels.

D'une part, les humains doivent avoir le pouvoir de passer outre l'IA à tout moment. Les algorithmes informatiques peuvent être en mesure d'analyser des piles de données et de fournir des recommandations utiles pour l'action. Mais les machines ne peuvent pas saisir la complexité ou la nouveauté des facteurs en constante évolution qui influencent une opération stratégique.

Seuls les humains ont la capacité de réfléchir aux conséquences à long terme d'une action militaire. Par conséquent, les humains doivent pouvoir refuser les recommandations d'une machine.

Les entreprises développant une IA militaire devraient donner aux utilisateurs la possibilité de prendre des décisions manuellement, sans support technologique ; de manière semi-automatisée ; ou de manière entièrement automatisée, avec la possibilité de passer outre. L'objectif devrait être de développer une IA qui complète - plutôt qu'élimine le besoin - des capacités de prise de décision humaines uniques qui permettent aux troupes de réagir efficacement à des circonstances imprévues.

Une passation de pouvoir pacifique

Les systèmes d'apprentissage automatique militaires ont également besoin d'une chaîne claire de...

Les humains doivent avoir un pouvoir prioritaire sur l'IA militaire

Vous n'avez pas pu assister à Transform 2022 ? Découvrez dès maintenant toutes les sessions du sommet dans notre bibliothèque à la demande ! Regardez ici.

Pendant des années, les responsables américains de la défense et les groupes de réflexion de Washington ont débattu pour savoir si l'avenir de notre armée pourrait ou devrait être un peu moins humain.

L'armée américaine a déjà commencé à s'appuyer sur une technologie qui utilise l'apprentissage automatique, l'intelligence artificielle (IA) et le big data, ce qui soulève des questions éthiques en cours de route. Bien que ces technologies aient d'innombrables applications bénéfiques, allant de l'évaluation des menaces à la préparation des troupes au combat, elles évoquent à juste titre des inquiétudes quant à un avenir dans lequel des machines de type Terminator prendront le relais.

Mais opposer l'homme à la machine passe à côté de l'essentiel. Il y a de la place pour les deux dans notre avenir militaire, tant que les machines facilitent la prise de décision humaine, plutôt que de la remplacer.

L'IA militaire et l'apprentissage automatique sont là

La technologie d'apprentissage automatique, un type d'IA qui permet aux systèmes informatiques de traiter d'énormes ensembles de données et d'"apprendre" à reconnaître des modèles, a rapidement pris de l'ampleur dans de nombreux secteurs. Les systèmes peuvent parcourir d'énormes quantités de données provenant de plusieurs sources, puis faire des recommandations en fonction des modèles qu'ils détectent, le tout en quelques secondes.

Événement

MétaBeat 2022

MetaBeat réunira des leaders d'opinion pour donner des conseils sur la manière dont la technologie métaverse transformera la façon dont toutes les industries communiquent et font des affaires le 4 octobre à San Francisco, en Californie.

Inscrivez-vous ici

Cela fait de l'IA et du machine learning des outils utiles pour les humains qui doivent prendre des décisions réfléchies à tout moment. Considérez les médecins, qui peuvent n'avoir que quelques minutes avec chaque patient, mais doivent poser des diagnostics qui peuvent potentiellement changer la vie. Certains hôpitaux utilisent l'IA et l'apprentissage automatique pour identifier les maladies cardiaques et le cancer du poumon avant qu'un patient ne présente des symptômes.

Il en va de même pour les chefs militaires. Lors d'un choix stratégique qui pourrait avoir un coût humain, les responsables doivent être en mesure de traiter toutes les données disponibles le plus rapidement possible pour prendre la décision la plus éclairée.

L'IA les aide à le faire. Certains systèmes, par exemple, peuvent prendre des images de surveillance bidimensionnelles et créer un modèle tridimensionnel détaillé d'un espace. Cela aide les responsables à tracer un chemin sûr pour leurs troupes à travers une zone jusque-là inexplorée.

Un pouce levé humain

Que ce soit dans une salle d'urgence ou sur le champ de bataille, ces applications de machine learning ont une chose en commun. Ils n'ont pas le pouvoir de prendre une décision ultime. En fin de compte, c'est la décision du médecin de poser un diagnostic - et la décision de l'agent de donner une ordonnance.

Les entreprises qui développent de nouvelles technologies militaires d'IA ou d'apprentissage automatique ont la responsabilité de contribuer à ce qu'il en soit ainsi. Ils peuvent le faire en équipant leurs innovations de quelques garde-corps essentiels.

D'une part, les humains doivent avoir le pouvoir de passer outre l'IA à tout moment. Les algorithmes informatiques peuvent être en mesure d'analyser des piles de données et de fournir des recommandations utiles pour l'action. Mais les machines ne peuvent pas saisir la complexité ou la nouveauté des facteurs en constante évolution qui influencent une opération stratégique.

Seuls les humains ont la capacité de réfléchir aux conséquences à long terme d'une action militaire. Par conséquent, les humains doivent pouvoir refuser les recommandations d'une machine.

Les entreprises développant une IA militaire devraient donner aux utilisateurs la possibilité de prendre des décisions manuellement, sans support technologique ; de manière semi-automatisée ; ou de manière entièrement automatisée, avec la possibilité de passer outre. L'objectif devrait être de développer une IA qui complète - plutôt qu'élimine le besoin - des capacités de prise de décision humaines uniques qui permettent aux troupes de réagir efficacement à des circonstances imprévues.

Une passation de pouvoir pacifique

Les systèmes d'apprentissage automatique militaires ont également besoin d'une chaîne claire de...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow