カリフォルニア州、AI安全規制へ向けた新法案提出
- カリフォルニア州議会でAI規制法案が進行中
- 企業に安全性テストや緊急停止機能の導入を義務付け
- AIモデルの安全性基準に関する新たな監督機関設立
カリフォルニア州議会で新たなAI規制法案「Senate Bill 1047(フロンティア人工知能モデルの安全とセキュリティに関するイノベーション法)」が進行中です。
この法案は、特定の計算力と費用を超える大規模AIモデルに対して、安全性のテストを義務付ける内容です。
AIモデルの訓練に1億ドル以上の費用がかかるものが対象です。
企業は、ネガティブな事象が発生した際にモデルを「完全停止」する機能を含む安全対策を準備しなければなりません。
加えて、安全性とセキュリティのプロトコルを作成し、使用期間中および5年間の保管が義務付けられます。
著名なAI企業、アマゾン、グーグル、メタ、OpenAIなどが既にバイデン政権に安全性確保を誓約していますが、この法案によりカリフォルニア州政府が規制を強制する力を得ることになります。
さらに、政府運営庁内に新たな監督機関「フロンティアモデル委員会」を設立し、AI技術の爆発的な進展に対応する政策ガイダンスを提供します。
不正行為や重大な安全リスクが発生した場合、カリフォルニア州検事総長が開発者に対して行動を起こす権限を持ちます。
これは、非準拠の開発者に対する民事訴訟や罰則の執行も含みます。
この法案は一方で、シリコンバレーのエリートたちの中で波紋を呼んでいます。
特に、AIコミュニティにおけるイノベーションの停滞を懸念する声が上がっており、規制が過剰になる可能性を指摘する批評家もいます。
エロン・マスク氏はこの法案を支持していますが、最終的な決定はカリフォルニア州知事に委ねられています。
今後の展開が注目されるところです。
これ、AIが緊急停止できるってどういうこと?
それと、新しい監督機関ってどんな感じなの?
AIモデルが問題を起こした時に、すぐに動作を止める機能です。監督機関は、AIの安全性をチェックし、対策を指導します。
ユータ、アヤカ、今回のカリフォルニア州議会でのAI規制法案についてね。
まず、「Senate Bill 1047」という法案が進行中なんだ。
この法案は、特に大規模なAIモデルに対して安全性テストを義務付けるものだよ。
具体的には、AIの訓練費用が1億ドル以上かかるものが対象。
企業はAIがネガティブな事象を発生させた場合に、すぐにモデルを完全停止できる機能も必要とする。
さらに「フロンティアモデル委員会」という新しい監督機関が設立されて、リスク監視や対策を指導する役割を担う。
これにより、カリフォルニア州検事総長が不正行為や重大なリスクに対して法的措置を取る権限を持つことになる。
気になる点があれば、さらに掘り下げてみましょう。