オープンソース · Apache 2.0

AIエージェントは意思決定をしています。
誰がそれを統治しますか?

構造化されたボードルーム討議、必須のレッドチームレビュー、そして実際に機能するガバナンスガードレール。助言ではありません。強制です。

17
AIエージェント
6
討議フェーズ
5
判定レベル
32
テスト通過

AIエージェントが監視なしで
重要な意思決定を行っています

すべてのマルチエージェントフレームワークは、AIエージェントが行動することを支援します。しかし、それを行うべきかどうかを確認するものはありません。

説明責任の欠如

エージェントは、誰が何を決定したのか、なぜそうしたのか、どのような代替案が検討されたのかの記録なしにアクションを実行しています。問題が発生した際、監査証跡がありません。

敵対的レビューの欠如

集団思考がデフォルトです。仮説に異議を唱え、提案をストレステストする構造化されたレッドチームがなければ、エージェントはお互いのアウトプットを盲目的に承認します。

ガードレールの欠如

深夜3時に本番環境へデプロイしたり、自分のコードを自分で承認したり、予算を全額使い切ることを止めるものが何もありません。ポリシーは紙の上にあるだけで、コードにはありません。

ガバナンスされたAIへの4ステップ

無統制のエージェントから、構造化された監査可能な意思決定へ。わずか数分で導入できます。

1

エージェントを定義する

評議会を構成します:経営幹部、ドメインスペシャリスト、そして必須のレッドチーム。業界に合わせたカスタムエージェントの追加も可能です。

2

ボードルームを召集する

任意の意思決定トピックを提出します。17のエージェントが6つの構造化されたフェーズで討議します:開会、執行評議会、諮問、批判的レビュー、公開討論、総括。

3

レッドチームが挑む

DevilsAdvocateが前提に異議を唱え、証拠を要求します。Skepticが代替案を探り、集団思考を検出します。どちらも無効化できません。これはコアに組み込まれた交渉不可能な敵対的レビューです。

4

ルールエンジンが強制する

5段階の判定:PASS、FLAG、BLOCK、ESCALATE_TO_HUMAN、HALT。ルールはコードであり、提案ではありません。PythonまたはYAMLでカスタムルールを追加できます。

5行で
ガバナンスされた意思決定を

パッケージをインストールし、API キーを設定して、最初のボードルーム会議を召集します。すべてのレスポンスには、構造化された総括、投票集計、信頼度スコア、アクションアイテムが含まれます。

Anthropic OpenAI Ollama
quick_start.py
from aegis_gov import Boardroom

boardroom = Boardroom()
result = boardroom.convene(
    topic="Should we deploy the new ML model to production?",
    category="STRATEGIC",
)

print(result.synthesis)       # CEOの最終判断
print(result.vote_summary)    # {"approve": 7, "conditional": 2, ...}
print(result.confidence)      # 0.85

AIガバナンス
必要なすべてが揃っています

本番環境対応のガバナンスプリミティブ。おもちゃでもデモでもありません。実際の強制です。

6フェーズ・ボードルーム

異なる役割を持つ17のAIエージェントが、CEO開会、執行評議会、諮問意見、批判的レビュー、公開討論、CEO総括の6フェーズであらゆる意思決定を討議します。

必須レッドチーム

DevilsAdvocateが前提に異議を唱え、証拠を要求します。Skepticが代替案を探り、集団思考を検出します。どちらも無効化できません。

ルールエンジン

5つの組み込みガバナンスルールと5段階の判定レベル:PASS、FLAG、BLOCK、ESCALATE_TO_HUMAN、HALT。PythonまたはYAML設定でカスタムルールを追加できます。

憲法マニフェスト

バージョン管理されたガバナンス文書で、人間の主権、意思決定カテゴリ、役割分離、信頼度スコアリング要件を定義します。

GitHub Action

CI/CDパイプラインのプルリクエストにガバナンスレビューを追加できます。BLOCK判定でビルドを失敗させます。YAMLファイル1つで、設定のドリフトはゼロです。

LLM非依存

Anthropic Claude、OpenAI GPT、Ollama経由のローカルモデルに対応しています。パラメータ1つでプロバイダーを切り替えられます。ベンダーロックインはありません。

他のフレームワークに欠けている
ガバナンスレイヤー

AEGISはタスクフレームワークの代替ではありません。その上に追加するガバナンスレイヤーです。

機能AEGISCrewAIAutoGenLangGraphMetaGPT
ガバナンスルールエンジン対応非対応非対応非対応非対応
必須レッドチームレビュー対応非対応非対応非対応非対応
憲法マニフェスト対応非対応非対応非対応非対応
意思決定の監査証跡対応一部非対応非対応一部
判定強制(BLOCK/HALT)対応非対応非対応非対応非対応
人間エスカレーションゲート対応手動手動手動手動
LLM非依存対応対応対応対応非対応

規制産業向けに設計

監査証跡、意思決定の分類、人間エスカレーションゲートが、主要なAIガバナンス基準に直接マッピングされます。

EU AI Act

第14条は高リスクAIシステムの人間による監視を義務付けています。AEGISは構造化されたHuman-in-the-Loopエスカレーションゲートと完全な意思決定監査証跡を提供します。

Article 14: Human Oversight

NIST AI RMF

AIリスク管理フレームワークは、ガバナンスメカニズム、リスク特定、継続的モニタリングを要求しています。AEGISはGovern機能とManage機能にマッピングされます。

AI RMF 1.0: Govern + Manage

ISO/IEC 42001

AI管理システム認証は、文書化されたAIポリシー、リスク評価、パフォーマンス評価を要求しています。AEGISはその技術的実装レイヤーを提供します。

ISO/IEC 42001: AI Management

数秒でインストール

AIエージェントシステムにガバナンスを追加する3つの方法。

pip

推奨
# お好みのLLMプロバイダーでインストール
pip install aegis-gov[anthropic]
pip install aegis-gov[openai]
pip install aegis-gov[all]

# スターター設定を生成
aegis init

# 最初のレビューを実行
aegis convene "Your decision topic"

Docker

git clone https://github.com/pyonkichi369/aegis-oss.git
cd aegis-oss
cp .env.example .env
# .envにANTHROPIC_API_KEYを追加

docker compose up

# API: http://localhost:8000/docs

GitHub Action

# .github/workflows/aegis-review.yml
name: AEGIS Governance Review
on:
  pull_request:
    types: [opened, synchronize]
jobs:
  review:
    runs-on: ubuntu-latest
    steps:
      - uses: pyonkichi369/aegis-oss@v1
        with:
          api-key: ${{ secrets.ANTHROPIC_API_KEY }}
          category: TACTICAL
          fail-on: BLOCK

今日からAIエージェントのガバナンスを始めましょう

Apache 2.0ライセンス。本番環境対応。ベンダーロックインなし。

GitHubでスターする