Publié le 02 décembre 2017

GOUVERNANCE D'ENTREPRISE

[VIDEO] Tuerie de masse et assassinat ciblé, les robots massacreurs un danger pour l’humanité

Des robots totalement autonomes capables d'identifier une cible et de lui perforer le crâne, de perpétrer en un temps record une tuerie de masse... Voilà ce qui nous attend si les États ne réglementent pas les SALA, les systèmes d’armes létales autonomes, dénonce dans une vidéo Stop Killer Robots. Ce collectif, soutenu par des pontes de l'intelligence artificielle, comme Elon Musk et Stephen Hawking, alerte sur les dangers des slaughterbots, les "robots massacreurs". 

La video mettant en scène les dangers des robots massacreurs a atteint les 2 millions de vues sur Youtube.

Elle a presque atteint les 2 millions de vues. La vidéo alertant sur le danger des Slaughterbots, littéralement les "robots massacreurs" a été diffusée à Genève, mi-novembre, à l’occasion d’une convention de l’ONU sur les armes conventionnelles. Et elle a jeté un froid dans la salle.

On y voit un représentant d’une entreprise présentant de nouveaux "slaughterbots", encore plus rapides et puissants que les précédents. Des drones ultralégers capables de tuer une personne en lui perforant le crâne, sans intervention humaine, en identifiant seul la cible. Ou, grâce à leur hyper-agilité, de perpétrer une tuerie de masse dans une université en quelques minutes. "Pour 25 millions de dollars, vous pouvez détruire la moitié d’une ville, la mauvaise moitié", affirme le représentant de la marque.

"Ces technologies peuvent tuer des humains et mettre en péril notre sécurité et notre liberté"

Cette vidéo est le dernier acte de la campagne Stop Killer Robots de Future of Life Institute, un organisme basé à Boston spécialisé dans l’intelligence artificielle. "Je travaille sur l’intelligence artificielle depuis 35 ans et ce film montre le potentiel de la miniaturisation et militarisation de technologies déjà existantes. Et il est énorme, car ces technologies peuvent tuer des humains et mettre en péril notre sécurité et notre liberté", explique Stuart Russell, professeur à l’université de Berkley.

Le projet est soutenu par des grandes pontes de l’intelligence artificielle comme Elon Musk, fondateur de Tesla et SpaceX ou le célèbre physicien Stephen Hawking. En août, ils étaient d’ailleurs une centaine de spécialistes et d’entreprises de l’intelligence artificielle à alerter sur le risque du développement des armes autonomes grâce aux progrès de l’intelligence artificielle.

"Une troisième révolution dans la guerre"

"Les armes autonomes mortelles menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles permettront des conflits armés à une échelle plus grande que jamais, et à des vitesses trop rapides pour la compréhension humaine", prévenaient-ils. Et rien de mieux qu’une vidéo pour rendre le danger plus concret.

À l’issue de l’évènement organisé par l’ONU, 91 pays ont décidé de poursuivre les délibérations sur les SALA, en 2019. Une décision saluée par Stop Killer Robots qui dénonce tout de même un manque d’ambition des États. "Cette décision ne reflète pas un sentiment d’urgence", estime le collectif. 

Marina Fabre @fabre_marina


© 2017 Novethic - Tous droits réservés

‹‹ Retour à la liste des articles

Voir nos offres