日本、AI開発者規制の検討

1 min read

日本が国内外の大型人工知能(AI)開発業者に対する規制を検討している。 によると 日経この動きは、誤った情報の流布や犯罪活動の関与など、社会への潜在的なリスクを減らすことを目的としています。 今回の決定は、すでに同様の措置を施した米国と欧州連合の後に続くことです。

歴史的に、日本は、AI分野の成長を促進するために政府が発表したAI指令に基づいて、企業の独自の規制システムに頼ってきました。 しかし、AI技術の誤用に対する懸念により、政府AI戦略協議会では法的枠組みの準備に関する議論が始まった。 5月から始まる予定であるこの議論では、AI開発に対する規制賦課の妥当性と意味を探求する予定だ。

当局は、AIの潜在的な利点を認めながら、AIの誤用を警戒しています。 特に懸念されるのは、誤った情報を広げ、犯罪活動を助長するために生成AIを使用することです。

今後の審議では、米国とヨーロッパで確立された規制フレームワークから洞察を得て、AI開発に関する法律および規制施行の長所と短所を評価します。 こうした議論の中心には、2月に日本の執権自民党が提出した提案草案があります。

LDPの提案は、主にChatGPT開発者であるOpenAIなどの組織を含む大規模なAI開発者を対象としています。 計画の重要な規定には、高リスクAI開発のための安全プロトコルの第三者検証の義務化とリスク関連情報を政府と義務的に共有することが含まれます。 さらに、開発者は違反が発生した場合に罰則が課される定期的なコンプライアンスレポートを提出する必要があります。

しかし、自民党はまだ「大規模」開発者の定義やそのような指定を一方的に決定すべきかどうかについて合意に達していません。 さらに、この提案は、規制と競争力の育成との間の微妙なバランスを強調しながら、民間部門が特定の詳細を整理することを残しました。

もっと読む: MetaおよびOpenAI CEO、EU AIコンプライアンス

予想される規制は、6月に策定される政府の全体的な経済と改革政策に含まれる予定です。 以後、規制体系を概括的に説明する法案が2025年定期国会で提出されることが予想されます。

それにもかかわらず、政府の一部では現行企業の自律規制政策から抜け出すことを警戒する立場だ。 Googleなどの企業は、過度の規制措置がイノベーションを抑制し、生成AI技術の採用を妨げる可能性があるという懸念を表明しました。

国際的に、欧州連合(EU)は去る3月、リスク評価に基づくモニタリングおよび透明性措置を義務化し、違反時に罰金を課す包括的な法案を通過させ、AI規制のリーダーとして浮上しました。 米国では、2023年の行政命令を通じて同様の計画が導入され、選別されたAI開発者の安全性評価を義務付けました。 一方、中国は国家安全保障を脅かすと認識される生成AIの開発を禁止するなど、厳しい措置を講じています。

源泉: アジア日経

Hayakawa Hideo

コーヒーの達人。問題解決者。ライター。認定ソーシャルメディア支持者。

You May Also Like

More From Author

+ There are no comments

Add yours