「AIプロキシって何?そこに脆弱性があると何が危険なの?」
「LLMを社内で使っているけど、プロキシ経由の攻撃に対策できてる?」
ボス!
liteLLMっていうAIプロキシに脆弱性が出たでしゅ!
認証済みユーザーがRCEできるって、内部犯行もありえるでしゅか!?
liteLLMは複数のLLMを統合管理するためのプロキシツールだ。
認証をバイパスして設定を書き換え、リモートコード実行やアカウント乗っ取りが可能になる脆弱性だ。
しかも3月にはサプライチェーン攻撃まで発生している。
AIモデルの統合管理ツール「liteLLM」に複数の重大脆弱性が発見されました。
LLMを業務利用している企業にとって見過ごせないリスクです。
この記事では脆弱性の内容と、AI基盤のセキュリティ対策について解説します。
- liteLLMに認証バイパス、権限昇格、RCEを含む複数の重大脆弱性が発見された
- 認証済みユーザーがプロキシ設定の改ざんやアカウント乗っ取りを実行できる
- v1.83.0で修正済み、さらに3月のサプライチェーン攻撃にも注意が必要
liteLLMを利用している方は、バージョンとインストール元の安全性を確認してください。
目次
liteLLMに発見された脆弱性の仕組みとリスク
liteLLMはOpenAI、Anthropic、Google等のLLMを統一インターフェースで管理するオープンソースのプロキシツールです。
設定変更APIの認可不備がRCEにつながる
2026年4月3日に公開されたCVE-2026-35029は、/config/updateエンドポイントに管理者権限のチェックがないという脆弱性です。
有効なAPIキーを持つ認証済みユーザーが、以下の操作を実行できてしまいます。
- プロキシ設定や環境変数を自由に変更する
- カスタムエンドポイントに攻撃者のPythonコードを登録し、RCEを実現する
- UI_LOGO_PATHの設定を悪用してサーバー上の任意ファイルを読み取る
- UI_USERNAME/UI_PASSWORDの環境変数を書き換えて管理者アカウントを乗っ取る
さらに深刻なのは、2026年3月にliteLLMのPyPIパッケージ(v1.82.7、v1.82.8)にマルウェアが混入するサプライチェーン攻撃が発生していた点です。
クラウド認証情報や暗号通貨ウォレットのキーを窃取する多段階のクレデンシャルスティーラーが仕込まれていました。
脆弱性だけじゃなくて、マルウェア入りのパッケージまで…。
AI系ツールのサプライチェーン、本当に狙われてるんでしゅね。
AI基盤を守るために企業が取るべき対策
liteLLMのような AI プロキシツールは、社内のLLM利用を統合管理する重要なコンポーネントです。
ここが侵害されると、全てのAI関連通信が傍受・改ざんされるリスクがあります。
バージョン更新とアクセス管理の徹底
以下の対策を実施してください。
- liteLLMをv1.83.0以上にアップデートする
- 3月にv1.82.7またはv1.82.8をインストールした場合は、環境全体の侵害チェックを実施する
- AIプロキシの管理APIへのアクセスを管理者に限定する
- APIキーの権限を最小限に設定し、定期的にローテーションする
AI関連ツールの脆弱性やサプライチェーン攻撃は今後も増加が見込まれます。
「AI基盤のセキュリティ」という新しい領域を、既存のセキュリティ運用に組み込んでいく必要があります。
LLMの利用が広がるほど、AIプロキシやAPIゲートウェイの重要性は増す。
そこが攻撃の起点になれば、AIの出力そのものが信頼できなくなる。
AI基盤のセキュリティは、今後の最重要テーマだな。
まとめ
AI時代のセキュリティは、モデルだけでなく周辺のインフラも守らなければならない。
liteLLMの事例は、その現実を突きつけているな。
AIプロキシのバージョン確認とAPIキーの管理、すぐやるでしゅ!
サプライチェーンの安全もチェックするでしゅ!
liteLLMの脆弱性とサプライチェーン攻撃は、AI基盤のセキュリティが新たな課題であることを明確に示しています。
v1.83.0へのアップデートと、過去バージョン利用者の侵害チェックを速やかに実施してください。
詳細はliteLLM公式ブログで確認できます。