AI規制の法整備 高まるリスクへ対策急務(2024年6月3日『毎日新聞』-「社説」)

キャプチャ
人工知能(AI)のリスクを抑える仕組みが求められている=AP
 急速に進化する人工知能(AI)によって、社会が悪影響を受けるリスクが増大している。実効性のある対策を講じるべきだ。
 政府がAIを規制する法整備の検討を始める。偽情報による世論操作や犯罪への悪用、人権侵害などの懸念に対処するのが狙いだ。早ければ来年の通常国会に法案を提出する。
 これまでは事業者の自主性を尊重し、法的拘束力や罰則のない指針にとどめていた。時間がかかる法規制では、技術の変化に追いつかないという判断だ。事業者が講じるべき安全対策を盛り込んだ指針を4月に策定した。
 だが、膨大なデータから文章や画像を自在に作成できる生成AIの登場で、リスクに対処する必要性が高まってきた。従来の方針を軌道修正したのは、このためだ。
 欧米は対策を強化している。
 法整備で先行したのは欧州連合EU)である。差別やプライバシー侵害などの危険性が高い分野を中心に、AIの利用禁止や学習に使うデータの開示などを定めた規制法が、5月に成立した。
 米国は昨年10月の大統領令で、軍事利用可能なAIの開発企業に政府との情報共有を求めた。巨大IT企業の自主的な取り組みに委ねることを基本としながらも、安全保障に関わる技術では関与を強めている。
 人の思考や働き方、産業構造から軍事まで、社会や経済に多様な影響を与える技術である。国家の過度な介入は技術革新の停滞や監視社会化を招きかねない。一方で、利益を追求するIT企業に任せるのも危うい。
 チャットGPTを開発した米オープンAIでは、安全確保と事業拡大のどちらを優先するかを巡って経営陣が対立し、内紛に発展した。開発を適正に進めるためにも、経営を律する仕組みが必要だ。
 利用と安全を両立させるには、規制を戦略的に活用する視点が欠かせない。政府には、専門人材の登用などリスク管理体制の強化が求められる。さまざまな分野の研究者や産業界、民間団体が議論する場を設けることも一案だろう。
 技術の進化に応じ、政策も変える必要がある。負の側面を抑え、安心して利用するための環境整備を急がなければならない。