「イスラエル軍の監視気球だ。高解像度のカメラを通じて、私たち住民の動きを一日中、観察、記録している」
傍らにいたパレスチナ人の大学教授が教えてくれた。
1本の記事を読み、その気球のことを思い出した。先月3日に配信されたイスラエルのネットメディア「+972マガジン」と「ローカルコール」の合同調査報道である。
読んでみると、約3万5千人ものガザ住民の犠牲者のうち、約7割を女性と子どもが占める理由がよく分かる。
記事によると、イスラエル軍は「ラベンダー」と「パパはどこ?」という二つのシステムを組み合わせている。
既知の戦闘員のデータを基に行動の相似性や交流関係、通話歴などを点数化し、上位を戦闘員(標的)にした。
だが、これはあくまで推定に過ぎない。誤差も10%程度ある。あだ名が同じというだけで誤認された例もある。
標的に選んだ人物は後者の行動監視システムに登録される。帰宅した時点で爆撃のゴーサインが出る仕組みだ。
自宅を爆撃対象にしたのは捕捉が確実なためだ。当然、家族は巻き添えになる。爆撃前に標的の人物が再び外出すれば、家族だけが殺される。
今回、イスラエル軍は敵の下級戦闘員への攻撃についても民間人(家族)の巻き添えを許した。戦闘員1人につき15人から20人という。無論、国際法違反だ。ちなみに標的の人物が旅団長など大物であれば、100人以上という。
さらに戦費削減のため、誘導装置のない精度の低い大型爆弾を使った。建物全体を破壊することになり、周辺の民間人の犠牲を増やした。
AI兵器はおぞましい。ただ、それを使うと決めたのは人間だ。その関係は無差別爆撃や原爆と変わらない。
その決断の底に差別思想が透ける。アラブ人を対等な人間と思えば躊躇(ちゅうちょ)しそうだが、そうは考えない言説がこの国には日常的にあふれている。