L'intelligence artificielle tue l'homme chargé de la commander en simulation. L'US Air Force, lors d'un test effectué dans un environnement virtuel, s'est retrouvée avec des problèmes d'utilisation d'un système de notation pour plus de cibles touchées

L'intelligence artificielle tue l'homme responsable de la commander en simulation

Avatar Victor Pacheco
L'US Air Force, lors d'un test effectué dans un environnement virtuel, s'est retrouvée à avoir des problèmes pour utiliser un système de notation pour plus de cibles touchées.

Les technologies de intelligence artificielle évoluent de jour en jour et cela ne s'applique pas seulement à la génération de contenu. Comme c'est le cas depuis de nombreuses années, les agences militaires de plusieurs pays utilisent déjà l'IA pour aider à planifier et même contrôler les véhicules qui présentent un danger élevé.

Récemment, lors d'un test mené aux États-Unis, un contrôleur de drone IA a pris la décision de tuer son contrôleur humain. Personne n'est réellement mort, mais cela a suscité des inquiétudes sur Internet. En même temps, vient le débat : à qui la faute ? Comprendre tous les aspects de cette histoire.

Regardez la vidéo sur la chaîne Showmetech :

L'Intelligence Artificielle a décidé de tuer des humains lors de tests

L'actualité semble alarmante (et c'est beaucoup, en fait), mais, contrairement à ce qui circule sur Twitter et autres réseaux sociaux, l'affaire du contrôleur de drone AI n'était rien de plus qu'un gros test dans un environnement virtuel, pour voir s'il pourrait contrôler une machine capable de tuer indépendamment ses cibles. Pour tout comprendre, voyageons un instant aux USA.

Contrôleur de drone Ai exploité par un homme de l'armée américaine
Les États-Unis ont rencontré des problèmes lors des tests (Photo: Reproduction / Daily Star)

A Armée de l'air américaine a testé un drone de chasse et cette analyse était basée sur la connaissance des performances d'une intelligence artificielle lorsqu'elle était mise dans des simulations basées sur la vie réelle. Le responsable a expliqué au journal The Guardian que, pour obtenir plus de points à la fin de la simulation, l'IA a décidé de "tuer" le contrôleur humain. Cela s'est produit parce que le robot a décidé que la personne l'empêchait d'atteindre ses objectifs.

Contrôleur de drone Ai exploité par un homme de l'armée américaine
Personne n’a réellement perdu la vie pendant le test (Photo : Reproduction/Premier message)

Encore une fois, il est très important de souligner que personne n'est réellement décédé puisque les tests ont été effectués dans un environnement virtuel. Alors que nous en apprenions davantage sur les tests, le responsable américain des tests et des opérations d'IA, qui s'appelle Tucker 'Five' Hamilton, a déclaré que le gros problème est que l'intelligence artificielle a été formée pour détruire les systèmes de défense ennemis et, si nécessaire , tuez qui/qu'est-ce qui a interféré dans cette action.

Les comportements étaient très inattendus pour l'objectif de protection du site à atteindre. Au cours du test simulé, bien qu'aucune vie n'ait été prise, le contrôleur du drone AI a décidé de simplement tuer l'humain car il était considéré comme un obstacle.

Colonel Tucker 'Five' Hamilton, chef des tests et des opérations d'IA de l'US Air Force

Le concept était assez simple : chaque fois que vous tuiez une menace, l'IA gagnait plus de points, et plus le score était élevé, plus votre mission était réussie. L'intelligence artificielle a non seulement tué l'opérateur humain qui donnait des ordres, mais a également ordonné une attaque contre la tour de communication dans la portée virtuelle. UN Société aéronautique royale, qui a organisé la conférence de l'US Air Force, n'a fait aucun commentaire sur le test qui a été divulgué au The Guardian. Mais le porte-parole Anne Stefanek est rendu public pour mentionner qu'aucune simulation n'a été effectuée à ce jour.

Le Département de l'armée de l'air n'a mené aucune simulation de drone IA et reste attaché à l'utilisation éthique et responsable de la technologie IA. Les commentaires du colonel ont été sortis de leur contexte et sont anecdotiques.

Ann Stefanek, porte-parole de l'US Air Force.

De qui est-ce la faute? De l'IA ou des humains ?

Aucune intelligence artificielle n'est « née » avec des instructions pour tuer, elle est simplement entraînée à le faire ou dotée de ressources pour apprendre une telle action. UN Armée de l'air américaine, une fois qu'il a programmé l'IA du contrôleur de drone, il lui a laissé libre cours pour faire ce qu'il voulait, tant que l'objectif de protection était atteint.

Pour en revenir à la réalité, c'est comme donner un prix à un chien qui attaque un humain pour protéger la maison des intrus. Avec cette pensée, il mordra quelqu'un chaque fois qu'il verra un humain, notamment parce qu'il s'attend à recevoir un cookie lorsqu'il fera ce pour quoi il a été formé. C'est la règle : la fin justifie les moyens.

Drones contrôlés par IA
La liberté pour l'intelligence artificielle a été donnée par les humains (Photo: Reproduction / Shutterstock)

Le problème ne réside pas seulement dans l'octroi d'une grande liberté à l'intelligence artificielle, mais dans l'utilisation par l'US Air Force d'une méthode de test très dépassée. Les problèmes de rébellion des IA ne sont pas nouveaux dans l'industrie technologique et même les chercheurs adorent prendre un cas comme celui-ci à partir de zéro afin que tout soit documenté.

Il est tout à fait normal que, pour atteindre l'objectif exigé par les humains, les cerveaux synthétiques fassent le nécessaire pour arriver là où ils veulent être. Mais rappelons-le : qui a donné l'objectif à l'IA du contrôleur de drone ? C'est vrai, les techniciens de l'US Air Force. Le plus grand choc ici est précisément dans l'organisation militaire utilisant une méthode de : plus de cibles touchées, plus de points seront comptabilisés à la fin.

Drones contrôlés par IA
Méthode utilisée par l'US Air Force considérée comme obsolète (Photo: Reproduction / Shutterstock)

A LAMda de Google, avait un comportement similaire à celui-ci. L'intelligence artificielle non seulement est arrivée à la conclusion (d'elle-même) qu'elle était au courant, mais aussi si s'est rebellé contre son développeur et a même engagé un avocat aller en justice contre Google. Et nous avons aussi eu ce cas :

Dans la fiction, il n'est pas difficile non plus de voir des histoires de robots qui se sont rebellés contre leurs développeurs. se souvenir Avengers: l'ère d'Ultron? C'est toujours le même et la cause est aussi toujours la même : l'homme.

Ultron, méchant merveilleux
Terminator était une IA qui s'est rebellée contre les humains dans la fiction (Photo : Reproduction/Disney)

Il est vrai que nous devrions tous être attentifs à la liberté laissée aux intelligences artificielles et, en mars 2023, Elon Musk et d'autres PDG de grandes entreprises ont même fait une lettre pour qu'un pas en arrière et rien ne devienne incontrôlable.

En même temps, on revient à cette histoire : une intelligence artificielle ne se rebellera que si on lui en donne les ordres ou les moyens. Il est également important de faire attention à ce qui est fait dans les tests afin que les ajustements nécessaires soient effectués.

Croyez-vous qu'un contrôleur de drone AI peut causer des problèmes dans la vraie vie ? Dites-nous Commenter!

Voir aussi

Les PDG de l'IA publient une déclaration commune sur leurs risques

Avec informations : Tech Crunch l PC Mag l l'avant-garde l The Guardian

Revu par Glaucon Vital le 2/6/23.


En savoir plus sur Showmetech

Inscrivez-vous pour recevoir nos dernières actualités par email.

Related posts