構造化されたボードルーム討議、必須のレッドチームレビュー、そして実際に機能するガバナンスガードレール。助言ではありません。強制です。
課題
すべてのマルチエージェントフレームワークは、AIエージェントが行動することを支援します。しかし、それを行うべきかどうかを確認するものはありません。
エージェントは、誰が何を決定したのか、なぜそうしたのか、どのような代替案が検討されたのかの記録なしにアクションを実行しています。問題が発生した際、監査証跡がありません。
集団思考がデフォルトです。仮説に異議を唱え、提案をストレステストする構造化されたレッドチームがなければ、エージェントはお互いのアウトプットを盲目的に承認します。
深夜3時に本番環境へデプロイしたり、自分のコードを自分で承認したり、予算を全額使い切ることを止めるものが何もありません。ポリシーは紙の上にあるだけで、コードにはありません。
仕組み
無統制のエージェントから、構造化された監査可能な意思決定へ。わずか数分で導入できます。
評議会を構成します:経営幹部、ドメインスペシャリスト、そして必須のレッドチーム。業界に合わせたカスタムエージェントの追加も可能です。
任意の意思決定トピックを提出します。17のエージェントが6つの構造化されたフェーズで討議します:開会、執行評議会、諮問、批判的レビュー、公開討論、総括。
DevilsAdvocateが前提に異議を唱え、証拠を要求します。Skepticが代替案を探り、集団思考を検出します。どちらも無効化できません。これはコアに組み込まれた交渉不可能な敵対的レビューです。
5段階の判定:PASS、FLAG、BLOCK、ESCALATE_TO_HUMAN、HALT。ルールはコードであり、提案ではありません。PythonまたはYAMLでカスタムルールを追加できます。
クイックスタート
パッケージをインストールし、API キーを設定して、最初のボードルーム会議を召集します。すべてのレスポンスには、構造化された総括、投票集計、信頼度スコア、アクションアイテムが含まれます。
from aegis_gov import Boardroom boardroom = Boardroom() result = boardroom.convene( topic="Should we deploy the new ML model to production?", category="STRATEGIC", ) print(result.synthesis) # CEOの最終判断 print(result.vote_summary) # {"approve": 7, "conditional": 2, ...} print(result.confidence) # 0.85
機能
本番環境対応のガバナンスプリミティブ。おもちゃでもデモでもありません。実際の強制です。
異なる役割を持つ17のAIエージェントが、CEO開会、執行評議会、諮問意見、批判的レビュー、公開討論、CEO総括の6フェーズであらゆる意思決定を討議します。
DevilsAdvocateが前提に異議を唱え、証拠を要求します。Skepticが代替案を探り、集団思考を検出します。どちらも無効化できません。
5つの組み込みガバナンスルールと5段階の判定レベル:PASS、FLAG、BLOCK、ESCALATE_TO_HUMAN、HALT。PythonまたはYAML設定でカスタムルールを追加できます。
バージョン管理されたガバナンス文書で、人間の主権、意思決定カテゴリ、役割分離、信頼度スコアリング要件を定義します。
CI/CDパイプラインのプルリクエストにガバナンスレビューを追加できます。BLOCK判定でビルドを失敗させます。YAMLファイル1つで、設定のドリフトはゼロです。
Anthropic Claude、OpenAI GPT、Ollama経由のローカルモデルに対応しています。パラメータ1つでプロバイダーを切り替えられます。ベンダーロックインはありません。
なぜAEGISなのか
AEGISはタスクフレームワークの代替ではありません。その上に追加するガバナンスレイヤーです。
| 機能 | AEGIS | CrewAI | AutoGen | LangGraph | MetaGPT |
|---|---|---|---|---|---|
| ガバナンスルールエンジン | 対応 | 非対応 | 非対応 | 非対応 | 非対応 |
| 必須レッドチームレビュー | 対応 | 非対応 | 非対応 | 非対応 | 非対応 |
| 憲法マニフェスト | 対応 | 非対応 | 非対応 | 非対応 | 非対応 |
| 意思決定の監査証跡 | 対応 | 一部 | 非対応 | 非対応 | 一部 |
| 判定強制(BLOCK/HALT) | 対応 | 非対応 | 非対応 | 非対応 | 非対応 |
| 人間エスカレーションゲート | 対応 | 手動 | 手動 | 手動 | 手動 |
| LLM非依存 | 対応 | 対応 | 対応 | 対応 | 非対応 |
コンプライアンス対応
監査証跡、意思決定の分類、人間エスカレーションゲートが、主要なAIガバナンス基準に直接マッピングされます。
第14条は高リスクAIシステムの人間による監視を義務付けています。AEGISは構造化されたHuman-in-the-Loopエスカレーションゲートと完全な意思決定監査証跡を提供します。
Article 14: Human OversightAIリスク管理フレームワークは、ガバナンスメカニズム、リスク特定、継続的モニタリングを要求しています。AEGISはGovern機能とManage機能にマッピングされます。
AI RMF 1.0: Govern + ManageAI管理システム認証は、文書化されたAIポリシー、リスク評価、パフォーマンス評価を要求しています。AEGISはその技術的実装レイヤーを提供します。
ISO/IEC 42001: AI Managementはじめる
AIエージェントシステムにガバナンスを追加する3つの方法。
# お好みのLLMプロバイダーでインストール pip install aegis-gov[anthropic] pip install aegis-gov[openai] pip install aegis-gov[all] # スターター設定を生成 aegis init # 最初のレビューを実行 aegis convene "Your decision topic"
git clone https://github.com/pyonkichi369/aegis-oss.git cd aegis-oss cp .env.example .env # .envにANTHROPIC_API_KEYを追加 docker compose up # API: http://localhost:8000/docs
# .github/workflows/aegis-review.yml name: AEGIS Governance Review on: pull_request: types: [opened, synchronize] jobs: review: runs-on: ubuntu-latest steps: - uses: pyonkichi369/aegis-oss@v1 with: api-key: ${{ secrets.ANTHROPIC_API_KEY }} category: TACTICAL fail-on: BLOCK
オープンソース
Apache 2.0ライセンス。本番環境対応。ベンダーロックインなし。
実績
トップが認めたアプローチ