A ne pas manquerPolitique

L’échec de l’ONU à interdire les « robots tueurs » pourrait sonner le glas de l’humanité

Des experts en stratégie militaire et en intelligence artificielle tirent la sonnette d’alarme après qu’une conférence de l’ONU ne soit pas parvenue à un accord sur l’interdiction de l’utilisation de soi-disant robots d’abattage lors d’une récente réunion à Genève.

Slaughterbots est le nom qui a été donné aux armes qui peuvent sélectionner et appliquer la force sur des cibles sans utiliser aucune intervention humaine.

Ces armes prennent leurs décisions à l’ aide d’une série d’algorithmes dans un logiciel d’intelligence artificielle.

Capables de chasser et de frapper des cibles sans aucune intervention des contrôleurs, leur technologie se développe si rapidement que de nombreuses sociétés craignent et que les gouvernements n’ont pas pris le temps d’évaluer pleinement les dangers.

Cette année, pour la première fois, la plupart des 125 nations de la Convention des Nations Unies sur certaines armes classiques ont appelé à de nouvelles lois régissant les robots tueurs.

Cependant, certains pays se sont opposés à la mesure , comme les États-Unis et la Russie, qui sont tous deux connus pour travailler au développement de telles armes. L’Inde, l’Australie et le Royaume-Uni étaient parmi les autres pays qui se sont opposés, certains affirmant que la poursuite du développement de ces robots tueurs est vitale pour éviter d’avoir un désavantage stratégique.

La responsable du programme de plaidoyer du Future of Life Institute sur les armes autonomes, Emilia Javorsky, a qualifié l’échec du groupe à parvenir à un accord « un échec épique ».

Elle a ajouté : « Il est maintenant manifestement clair que ce forum – dont l’exigence d’unanimité le rend facilement déraillé par tout État ayant un intérêt direct – est tout à fait incapable de prendre au sérieux, et encore moins d’aborder de manière significative, les menaces urgentes posées par les technologies émergentes telles que l’intelligence artificielle. . « 

Malheureusement, le temps semble manquer car des robots d’abattage sont déjà utilisés à certains endroits sur le champ de bataille. Par exemple, un rapport de l’ONU publié ce printemps a montré que des drones STM Kargu ont été utilisés dans la guerre civile libyenne. Ces petits drones d’attaque portables à voilure tournante ont des capacités de frappe de précision et ont été utilisés pour traquer les soldats qui battaient en retraite.

Les entreprises qui développent les drones travaillent sur des systèmes d’IA capables de trouver la signature thermique d’une cible humaine ou même d’identifier les visages des personnes à l’aide d’une caméra.

Cependant, ils semblent manquer de la précision nécessaire pour faire la distinction entre un combattant et un non-combattant.

Ces armes pourraient être faciles à obtenir pour n’importe qui

Les drones STM sont parmi les plus inquiétants pour de nombreux responsables, notamment en raison de leur ressemblance avec un drone grand public normal. Ils sont assez bon marché, faciles à produire en masse et peuvent être équipés de canons. Certains experts ont averti que cette accessibilité signifie que les gangs et autres criminels pourraient essayer de les utiliser.

Le professeur Max Tegmark du Massachusetts Institute of Technology pense que nous nous dirigeons vers le «pire résultat possible».

Il a déclaré: «Ce sera l’arme de choix pour quiconque veut tuer quelqu’un. Un robot d’abattage serait essentiellement capable d’assassiner anonymement n’importe qui qui a énervé n’importe qui.

Tegmark a expliqué au Sun certaines des façons dont cette technologie pourrait être utilisée. Par exemple, il a souligné que si les robots d’abattage coûtaient le même prix que les AK-47, les cartels de la drogue utiliseraient les robots pour éviter de se faire prendre lorsqu’ils tuent des gens. Il a également déclaré qu’un juge avec de nombreux gardes du corps pourrait toujours être tué par l’un d’entre eux s’il était projeté par la fenêtre de leur chambre pendant qu’ils dormaient.

Le professeur James Dawes du Macalester College a déclaré : « C’est un monde où le genre d’erreurs algorithmiques inévitables qui affligent même les géants de la technologie comme Amazon et Google peuvent désormais conduire à l’élimination de villes entières. »

« Le monde ne devrait pas répéter les erreurs catastrophiques de la course aux armements nucléaires. Il ne devrait pas entrer en somnambulisme dans la dystopie », a-t-il ajouté.

Il n’y a aucune chance que cela se termine bien lorsque vous laissez des machines sujettes à des erreurs imprévisibles prendre leurs propres décisions quant à qui tuer. Si ces armes d’intelligence artificielle devaient être équipées d’ogives chimiques, biologiques ou nucléaires, elles pourraient même anéantir l’humanité.

Les sources de cet article incluent :
Le-Sun.com
CNBC.com


Que pensez-vous de cet article ? Partagez autant que possible. L'info doit circuler.

Veuillez aider à soutenir les médias alternatifs. Nous suivons la vérité, où qu'elle mène. Votre aide est importante... Merci


1scandal.com pour une info libre... © elishean/2009-2022

Adblock détecté

Merci de désactiver votre bloqueur de publicité pour naviguer sur le site.