カリフォルニア、AI安全規制に乗り出す可能性浮上!
- カリフォルニア州の上院で大規模AIモデルの規制法案が承認
- 法案はAIモデルの安全性テストとフルシャットダウン機能の導入を求める
- 違反時にはカリフォルニア州司法長官が罰則を施行できる
- イーロン・マスクも法案を支持
カリフォルニア州の上院議会で大規模AIモデルの規制を目的とした「Safe and Secure Innovation for Frontier Artificial Intelligence Models Act」(カリフォルニア州上院法案1047)が承認されました。
この法案はAIモデルの安全性を保証するために、特に訓練コストが1億ドルを超えるモデルに対し、安全性テストの実施を義務付けています。
また、万が一危険な状況が発生した場合に、即座にモデルをシャットダウンできる機能も必要とします。
さらに、AIモデルの開発者は、最悪の事態に備えた安全とセキュリティプロトコルを文書化し、モデルが使用されている期間中およびその後5年間保持することが求められます。
これにより、開発者が安全基準を守っていたかどうかを証明するための徹底した監査と調査が可能となるでしょう。
カリフォルニア州司法長官には、AIモデルが重大な公衆安全の脅威をもたらす場合、開発者に対して行動を起こす権限が付与されます。
違反に対して民事訴訟を提起したり、罰則を施行する力も持っています。
法案が成立すれば、開発者は2026年1月1日までに第三者監査を年次で実施し、その結果を保管し、必要に応じて司法長官に提供することが求められます。
一方で、この法案はシリコンバレーのエリート層から批判を受けています。
規制がイノベーションを妨げる可能性が懸念されており、特に「カバードモデル」や「クリティカルハーム」の定義が曖昧だという指摘があります。
しかし、イーロン・マスクはこの法案を支持しており、「潜在的にリスクのある製品や技術を規制するのは当然だ」と述べています。
最終的な投票で法案が通過するかどうかは未定ですが、カリフォルニア州がこの法案を通じてAI開発の未来をどのように形作るかが注目されています。
ねぇ、このAIモデルの安全性テストってどんなことをするんだ?
しかもシャットダウン機能って具体的にどんなことするの?
AIモデルの安全性テストでは、シミュレーションやストレステストを行ってリスクを評価します。
シャットダウン機能とは、危険が発生した場合にモデルの動作を即座に停止する仕組みです。
そうだね。
今回のニュースについてまとめてみると、
カリフォルニア州上院が「Safe and Secure Innovation for Frontier Artificial Intelligence Models Act」という法案を承認したということだ。
この法案では、大規模なAIモデルの安全性テストを義務付け、
それとフルシャットダウン機能を導入することを求めているよ。
さらに、法案に違反するとカリフォルニア州司法長官が罰則を施行できる権限も持っているんだ。
そして、この法案はイーロン・マスクも支持しているんだよ。
ただ、シリコンバレーのエリート層からは、イノベーションを妨げる可能性があるとの批判も出ている。
最終的にこの法案がどのように進むかは、注目する価値があるね。