メモ

Anthropicが「最大規模のAI」に対象を絞った透明性フレームワークを提案、過度な規範化を避けてイノベーションを促進


AIチャットボットの「Claude」を開発するAnthropicが、AI企業が安全かつ責任を持ってAIを開発するための、新たな透明性フレームワークを提案しました。このフレームワークは「最大規模のAIシステムとその開発者」にのみ適用され、過度に規範的になることを避けることで、AIのイノベーションを阻害しないよう配慮されているとのことです。


A Framework for AI Development Transparency \ Anthropic
https://www.anthropic.com/news/the-need-for-transparency-in-frontier-ai

Anthropicは2025年7月8日の公式ブログで、「最先端のAI開発には公共の安全を確保し、AIという強力な技術を開発する企業の説明責任を果たすため、より高度な透明性が必要です。AIは急速に進歩しています。産業界・政府・学会などが合意された安全基準と包括的な評価手法の策定に取り組んでいますが、このプロセスには数カ月~数年かかる可能性があります」と述べ、透明性と安全性を確保しつつAI開発を進めるには暫定的な措置が必要だと主張しています。

そこでAnthropicは、「最大規模のAIシステムとその開発者」のみに適用される、連邦・州・国レベルで運用可能なAI開発の透明性フレームワークを提案しました。新たなフレームワークは、過度に規範的になるのを意図的に避けたものだとのこと。規範が厳しすぎるとAIのイノベーションが阻害され、人々の命を救う創薬事業や公共の利益の実現、重要な国家安全保障の確保といったAIの恩恵が得られにくくなってしまうとAnthropicは述べています。


AnthropicがAI開発の透明性フレームワークの指針としている中核的な原則は以下の通り。

◆適用を最大規模のモデル開発者に限定する
AI透明性フレームワークが適用されるのは、コンピューティング能力およびコスト・パフォーマンス・年間収益・研究開発費といった基準を組み合わせて分類された、「最大規模の最先端モデル開発者」のみにとどめることが望ましいとAnthropicは考えています。これは国家安全保障リスクや壊滅的な被害をもたらす可能性が低い、小規模な開発者に負担をかけないことが目的です。Anthropicの社内では、「年間収益が1億ドル(約146億円)」「研究開発および設備投資費が年間10億ドル(約1460億円)」といった基準値が検討されているとのこと。

◆セキュア開発フレームワークの構築
最先端モデルの開発者には、モデルの不合理なリスクをどのように評価し、軽減するのかを規定したセキュア開発フレームワークの構築が義務づけられます。これらのリスクには化学的・生物学的・放射線学的・核的な危害に加え、AIモデルの自律性の問題によって引き起こされる危害も含まれます。

◆セキュア開発フレームワークの公開
セキュア開発フレームワークは機密情報を編集した上で、AI開発企業が登録・管理する一般向けウェブサイトで公開する必要があります。これにより、研究者・政府・一般の人々が、公開されているAIモデルに関する情報を常に把握できるようになります。


◆システムカードの公開
システムカードとはAIシステムの内部動作や意思決定プロセスを説明するドキュメントのことで、透明性フレームワークの対象となる企業や開発者は、AIモデルのテストや評価手順、必要な緩和策を要約してシステムカードに記載する必要があります。AIモデルが大幅に改訂された場合、システムカードも更新しなくてはなりません。

◆虚偽陳述の禁止および内部告発者の保護
AI開発企業や開発者がフレームワークの順守について虚偽の陳述をすることを明示的に法律違反と定め、不正を明らかにした内部告発者を法的に保護できるようにします。

◆透明性基準
実用的なAI透明性フレームワークには、AI開発の進化に対応しつつセキュリティと公共の安全を確保できるような、最低限の基準が設けられる必要があります。AIの安全性とセキュリティの実践はまだ初期段階であるため、合意されたベストプラクティスに応じて適応できる柔軟な要件を基準とすることが大事だとのことです。


Anthropicは、「AIモデルが進化するにつれて、私たちは科学的な発見や医療、経済成長を加速させる前例のない機会を得ています。安全で責任あるAI開発が行われない場合、単一の重大な失敗により、その後数十年にわたる進歩が阻害される可能性があります。私たちが提案する透明性フレームワークは、実践的な第一歩を提供するものです」と述べました。

この記事のタイトルとURLをコピーする

・関連記事
Anthropicが「Claude 4」ファミリーの2モデルをリリース、コーディング性能と推論能力が前世代から強化 - GIGAZINE

「隠された目的を持つAI」を正しく監査するための手法をAnthropicが開発 - GIGAZINE

Anthropicが防衛・情報機関向けのAIモデル「Claude Gov」を発表 - GIGAZINE

AIでホワイトカラーの初級職の半分がなくなり今後5年以内に失業率が20%まで跳ね上がる可能性があるとAnthropicのCEOが見解を公表 - GIGAZINE

AppleはSiriの刷新に向け社内AI開発を放棄してOpenAIやAnthropicのAIを採用する可能性 - GIGAZINE

「AI企業が合法的に取得した書籍でAIをトレーニングするのに著者の許可は必要ない」という判決が下される - GIGAZINE

AnthropicがチャットAIの悪用事例と対策手法をまとめたレポートを公開、100人以上のSNSアカウントをAIで動かして政治的思想を扇動するサービスが報告される - GIGAZINE

大学生はAIを何に使っているのか?Anthropicが調査結果を公開 - GIGAZINE

AI企業のAnthropicが「安全で信頼できるAIを促進する宣言」を公式サイトからひっそりと削除 - GIGAZINE

・関連コンテンツ

in メモ, Posted by log1h_ik

You can read the machine translated English article Anthropic proposes targeted transparency….