Découvrez « Lavender » : l’intelligence artificielle utilisée dans la guerre à Gaza qui ne distingue pas les civils

La technologie avance à une vitesse considérable, et son utilisation dans divers secteurs est devenue courante.

Présentation de « Lavender » #

Dans l’armée, par exemple, l’intelligence artificielle a été utilisée pour faciliter certaines opérations. Une de ces applications est « Lavender », une technologie développée par l’armée israélienne.

« Lavender » est une intelligence artificielle qui a été utilisée pour identifier et frapper des cibles pendant la guerre à Gaza. Son utilisation a cependant soulevé des questions sur le nombre élevé de victimes civiles.

Comment fonctionne « Lavender » ? #

« Lavender » est conçu pour identifier les cibles potentielles pour l’aviation israélienne en utilisant une série de caractéristiques. Ces caractéristiques peuvent inclure l’appartenance à des groupes WhatsApp, le changement fréquent d’adresse ou de téléphone, les photos enregistrées, et les contacts sur le téléphone ou les réseaux sociaux.

À lire Les Pellissard face à la justice : découvrez leur combat intense contre le propriétaire de leur villa de rêve

Le système attribue des notes aux Palestiniens de Gaza en fonction de la probabilité qu’ils appartiennent au Hamas ou au Djihad islamique. Cela conduit à la désignation de cibles qui ne sont pas seulement des combattants, mais aussi des homonymes, des Palestiniens avec un téléphone ayant appartenu à un membre du Hamas, des membres de la famille, des policiers ou des secouristes.

Les conséquences de l’utilisation de « Lavender » #

L’utilisation de « Lavender » a conduit à un nombre élevé de victimes civiles. Pendant les premières semaines de la guerre, jusqu’à 37 000 Palestiniens et leurs maisons ont été désignés comme des cibles potentielles pour les frappes aériennes.

En outre, une autre technologie d’intelligence artificielle appelée « Where’s Daddy ? » a été utilisée pour suivre les personnes ciblées et effectuer des bombardements sur leur domicile familial, souvent la nuit, afin de maximiser les chances de les tuer.

Les problèmes soulevés par l’utilisation de « Lavender » #

L’utilisation de « Lavender » a soulevé plusieurs questions. L’une d’elles concerne la marge d’erreur du système, qui est de 10 %. Cela signifie que pour chaque 10 cibles identifiées par « Lavender », une pourrait être incorrecte.

À lire Perte de poids : cet aliment pour diminuer les ballonnements et avoir un ventre plat avant l’été

De plus, le système ne distingue pas entre les combattants et les civils, ce qui a conduit à un nombre élevé de victimes civiles. Selon un rapport, les femmes et les enfants représentent environ 70 % de ces victimes.

  • Présence d’une marge d’erreur de 10 % dans l’identification des cibles.
  • Manque de distinction entre les combattants et les civils.
  • Utilisation d’autres technologies d’intelligence artificielle pour suivre les personnes ciblées.
  • Nombre élevé de victimes civiles.

Pour finir, bien que l’intelligence artificielle ait le potentiel d’apporter de nombreuses améliorations dans divers domaines, son utilisation dans les conflits armés soulève des questions éthiques importantes. La situation à Gaza illustre clairement ces préoccupations. L’application de l’IA dans les opérations militaires doit être guidée par des principes éthiques stricts pour éviter des conséquences indésirables telles que celles observées avec l’utilisation de « Lavender ». Il est essentiel de garder à l’esprit que l’objectif ultime doit toujours être la protection des civils et la réduction des victimes innocentes.

Partagez votre avis