防衛省はAI(人工知能)を使った装備品の研究開発を管理するため、人間の関与が確保できているかなどの審査基準を定めた指針を策定しました。
指針では「AIは学習データの偏りなどによって誤判断が生じるなどのリスクが存在する」と指摘しています。
AIを使用した無人機やミサイルなどの研究開発を管理するため、まず、攻撃や破壊の実施にAIがどの程度関与しているかなど危険性の高さで装備品を分類します。
危険性が高い装備品は国際法に違反していないか、人間の関与なしでAIのみが攻撃を判断していないかなどを審査します。
そのうえで、有識者会議が技術的基準を満たしているか最終的に判断することにしています。