要約
- Anthropicは、カリフォルニアのSenate Bill 1047(SB 1047)を修正したバージョンを支持し、改訂に影響を与えたことからその支持を表明したが、いくつかの懸念も持っている。
- SB 1047は、AIモデルの安全テストを義務付け、AIモデルが狂った場合にオフにする方法を開発者にアウトラインすることを求める。
- AnthropicのCEOは、SB 1047の利点として、SSPの開発とその公開、潜在的なリスクの抑止、AIリスク低減の促進を挙げている。
- 一方、懸念点としては、監査とGovOpsによる事前被害執行、差止命令の取り扱い、その他の問題が挙げられている。
- 一部の企業や団体は、SB 1047の閾値や責任規定がイノベーションを阻害し、小規模開発者に不公平な負担をかけるとして反対している。
感想
SB 1047はAIモデルの安全性に焦点を当てた重要な法案であり、潜在的なリスクを最小限に抑えるための規制が盛り込まれています。Anthropicなどの企業が安全プロトコルの採用を推進し、リスク低減のための取り組みを奨励するのは好ましいです。ただし、一部の懸念点が残っており、事前執行や差止命令の取り扱いについては注意が必要です。イノベーションを妨げずに、適切な規制と透明性を確保することが重要です。