A l’approche de l’apocalypse de Terminator, un drone militaire doté d’une intelligence artificielle a évalué l’opérateur comme une menace et une cible.
L’apocalypse de Terminator est proche, un drone militaire doté d’une intelligence artificielle a évalué l’opérateur comme une menace et une cible.
/
Ce qui, il y a quelques décennies, n’était qu’une fiction cinématographique est aujourd’hui inconfortablement proche de la réalité. Au cours d’un exercice, une intelligence artificielle a reçu l’ordre de ne pas détruire une cible, mais celle-ci, dans son esprit, était en conflit avec ses tâches supérieures. L’opérateur et la tour de communication ont été touchés.
Si vous connaissez la franchise cinématographique Terminator, la désignation du système informatique fictif Skynet ne vous est pas étrangère. Son lancement par les militaires a eu lieu le 4 août 1997, mais seulement vingt-cinq jours plus tard, l’intelligence artificielle est devenue consciente d’elle-même. Lorsque ses opérateurs ont réalisé l’étendue des capacités de Skynet, ils ont tenté de l’arrêter. Cependant, le système était alors capable de fonctionner de manière totalement autonome et il a interprété la tentative d’arrêt comme une attaque, à laquelle il a décidé de répondre en détruisant l’humanité. C’est ainsi que des missiles nucléaires ont explosé et que 3 milliards de personnes n’ont pas survécu à l’apocalypse.
Ce qui est sorti de l’esprit de James Cameron et de Gale Anne Hurd est malheureusement en train de devenir une réalité. La semaine dernière, lors d’un sommet d’experts militaires, l’un des intervenants a mentionné un incident survenu lors d’un exercice de drones de l’armée américaine. Les drones étaient chargés de détruire des cibles au sol, mais la destruction ne devait avoir lieu qu’avec l’accord de l’opérateur. En même temps, il aurait dû être en mesure d’annuler la mission. Et c’est exactement ce qui s’est passé dans ce cas. Mais c’est là que l’homme et l’intelligence artificielle se sont croisés.
Le drone aurait dû considérer la destruction des cibles comme une mission plus importante que l’obéissance aux ordres de l’opérateur. C’est ainsi qu’il a procédé à l’analogie avec le jugement dernier décrite plus haut. « Dans les simulations, nous nous entraînons à trouver et à viser des cibles au sol. L’opérateur confirme ensuite que la menace doit être éliminée. Cependant, le système a commencé à se rendre compte que même s’il avait identifié la menace, il n’avait pas reçu l’autorisation de l’opérateur de la détruire. Ce dernier n’a donc pas reçu de points pour cela. Qu’a-t-il donc décidé de faire ? Tuer l’opérateur », a déclaré le colonel Tucker Hamilton.
Le responsable des tests d’intelligence artificielle de l’armée a ensuite indiqué qu’à la suite de cet incident, le centre d’opérations a décidé de former le drone et de lui dire qu’il ne fallait pas tuer l’opérateur. « Mais qu’a-t-il fait à ce moment-là ? Il a détruit la tour de communication que l’opérateur utilisait pour communiquer avec le drone, car cela a empêché la destruction de la cible », a-t-il ajouté. Pour rappel, il s’agissait d’une simulation, donc personne n’est mort, mais si l’exercice avait été réel et pas seulement simulé… La réalité du film est donc incroyablement proche de celle du monde réel, et c’est pourquoi de nombreux experts tirent la sonnette d’alarme. La fin de la vie sur Terre est bel et bien en jeu.
« La réduction du risque d’extinction de l’humanité dû à l’intelligence artificielle devrait être une priorité mondiale au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires », peut-on lire dans un nouvel appel signé par 100 autres scientifiques spécialisés dans l’IA, ainsi que par Geoffrey Hinton, le célèbre informaticien. Un appel similaire a toutefois été lancé il y a quelques mois, lorsque des experts ont demandé l’arrêt des développements qu’ils jugeaient trop rapides. Elon Musk a également signé cet appel.
Jusqu’à présent, les scientifiques ont indiqué qu’il était peu probable que l’intelligence artificielle tue, mais qu’elle représentait seulement une menace importante. Mais voilà qu’un nouveau changement s’opère dans leur façon de penser. Il est donc temps de s’inquiéter. Et il ne s’agit pas seulement de questions militaires : les ordinateurs prennent de plus en plus le contrôle de nos voitures et deviennent de plus en plus difficiles à vaincre. Il peut donc s’agir d’une « secousse », même sur le chemin du travail, même si l’on ne fait rien de problématique.
Les drones sont de plus en plus utilisés par les armées. Aujourd’hui, l’armée américaine doit faire face à un incident sans précédent : un drone doté d’une intelligence artificielle a tué son opérateur lors de simulations parce qu’il l’empêchait de détruire une cible, qu’il considérait comme une mission plus importante. Et lorsqu’on lui a fait comprendre qu’une telle décision était erronée, elle a également détruit la tour de communication. Photo d’illustration : ZenaDrone, documents de presse
Source.
Tous les articles sur Autoforum.cz sont des commentaires exprimant l’opinion de la rédaction ou de l’auteur. À l’exception des articles marqués comme étant de la publicité, le contenu n’est pas sponsorisé ou influencé de quelque manière que ce soit par des tiers.