オープンソースで検証可能なAI推論を実現——OpenPCCがプライバシー保護型AIインフェンスの新基準に
GitHub上で公開されているOpenPCCは、プロvably private(証明可能なプライバシー保証)なAI推論を実現するオープンソースフレームワークであり、AppleのPrivate Cloud Computeをインスピレーションにしながら、完全にオープンで監査可能、かつ自社インフラ上で展開可能な仕組みを採用している。このフレームワークは、プロンプト、出力、ログといったすべてのデータを外部に露出することなく、暗号化ストリーミング、ハードウェア認証、およびリンク不可能なリクエストを活用してプライバシーを強固に確保する。開発者や企業は、オープンモデルやカスタムモデルを安全に実行できるほか、透明性とコミュニティガバナンスを重視したAIデータプライバシーの標準化を目指している。 OpenPCCのクライアント実装はGo言語で提供されており、C言語ライブラリを基盤としてPythonやJavaScript用のクライアントも構築可能。開発用の例として、cmd/test-client/main.goにローカル開発用の使用例が示されており、本番環境に接続する際はAPIエンドポイントとAPIキーを設定して、openpcc.NewFromConfigでクライアントを初期化する。リクエストには、特定のモデルを実行するためのタグ(X-Confsec-Node-Tags)を付与し、認証ポリシー(OIDCのサブジェクト・イシューの正規表現)を設定することで、信頼できるノードにリクエストをルーティングできる。 開発環境では、mage runMemServicesで仮想のすべてのサービスを起動し、mage runClientでテストリクエストを送信して動作を検証できる。詳細な仕様は、GitHubのwhitepaper/openpcc.pdfに掲載されており、AIのプライバシー保護の新たな基準として注目されている。OpenPCCは、AIの利用に伴うデータ漏洩リスクを根本から抑えるための実用的で信頼性の高いソリューションとして、開発者コミュニティの注目を集めている。
