AI戦争、人間の介入の限界
イランとの現在の紛争において、人工知能(AI)がリアルタイムでの目標生成やミサイル迎撃管制に深く関与する中、「人間の介在(humans in the loop)」が不可欠であるという見解は、AIの不透明な内部動作原理により幻想に過ぎないという分析が出ています。AIが自ら目標を探索し、ミサイルを発射したり、ドローン編隊を指揮したりするなど、複雑な決定を下すようになり、人間がそのプロセスを完全に理解し制御することは困難になっています。これは、AI兵器の決定に対する人間の最終的な介入という方式が、現実で機能しにくい可能性を示唆しています。AIの不透明な動作方式と人間の理解力の限界により、「人間参加」という概念は戦場で実効性を失いつつあります。AIの決定プロセスを人間が十分に理解できない状況では、人間の介入は手続き的な形式に留まり、予測不可能な結果を招くリスクを伴う可能性があります。
AI基盤の自律型殺傷兵器の使用に関する議論は、主に人間の「参加」レベルに焦点が当てられています。ペンタゴンの現行指針は、人間による監督が責任、文脈、ニュアンスを提供し、ハッキングのリスクを低減するという前提に基づいています。最先端のAIシステムは本質的に「ブラックボックス」であり、入力と出力は分かっても、その処理過程は不透明です。開発者でさえ、AIシステムを完全に解釈したり、その動作原理を理解したりできない場合が多くあります。AIが提示する理由も、常に信頼できるとは限りません。
人間による監督がAIシステムの動作原理を十分に理解していない状況は、AI技術の軍事応用に関する法的な議論を深化させます。例えば、AIの計算には、近隣の児童病院への損傷の可能性といった隠れた要因が含まれる可能性があり、これは人間にとっては民間人の生命規則に違反する戦争犯罪となり得ます。このような「意図の乖離」は、高度なブラックボックスAIを、民間の医療や航空交通管制のように高いレベルの安全が要求される分野に配備することを躊躇させる理由でもあります。
それにもかかわらず、戦場でのAI技術の統合は急ピッチで進んでおり、一方の陣営が完全に自律的な兵器を配備した場合、相手方にも同様の技術導入を強いる状況が発生し得ます。
AI兵器システム(アームズシステム)の発展と、それに伴う倫理的・法的な諸問題について、より根本的な議論が必要です。
쿠팡 파트너스 활동의 일환으로 일정 수수료를 제공받습니다