【活用ガイド】

JVNDB-2026-013896

ggml.aiのllama.cppにおける複数の脆弱性

概要

llama.cppはC/C++で複数の大規模言語モデル(LLM)の推論を行うソフトウェアです。b7824以前のバージョンでは、`ggml_nbytes`関数に整数オーバーフローの脆弱性が存在し、攻撃者が特定のテンソルの次元を持つGGUFファイルを作成することでメモリ検証を回避できます。これにより`ggml_nbytes`は必要なサイズよりもはるかに小さい値(例えばエクサバイト単位の代わりに4MB)を返し、その後アプリケーションがテンソルを処理するとヒープベースのバッファオーバーフローが発生します。この脆弱性により、メモリ破損を介したリモートコード実行(RCE)が可能となります。b7824でこの問題は修正されています。
CVSS による深刻度 (CVSS とは?)

CVSS v3 による深刻度
基本値: 7.8 (重要) [その他]
  • 攻撃元区分: ローカル
  • 攻撃条件の複雑さ: 低
  • 攻撃に必要な特権レベル: 不要
  • 利用者の関与: 要
  • 影響の想定範囲: 変更なし
  • 機密性への影響(C): 高
  • 完全性への影響(I): 高
  • 可用性への影響(A): 高
影響を受けるシステム


ggml.ai
  • llama.cpp b7824 未満

本脆弱性の影響を受ける製品の詳細については、ベンダ情報および参考情報をご確認ください。
想定される影響

当該ソフトウェアが扱う全ての情報が外部に漏れる可能性があります。
また、当該ソフトウェアが扱う全ての情報が書き換えられる可能性があります。
さらに、当該ソフトウェアが完全に停止する可能性があります。
そして、この脆弱性を悪用した攻撃の影響は、他のソフトウェアには及びません。
対策

正式な対策が公開されています。ベンダ情報を参照して適切な対策を実施してください。
ベンダ情報

GitHub
CWEによる脆弱性タイプ一覧  CWEとは?

  1. ヒープベースのバッファオーバーフロー(CWE-122) [その他]
  2. 整数オーバーフローまたはラップアラウンド(CWE-190) [その他]
共通脆弱性識別子(CVE)  CVEとは?

  1. CVE-2026-33298
参考情報

  1. National Vulnerability Database (NVD) : CVE-2026-33298
  2. 関連文書 : Release b7824  ggml-org/llama.cpp  GitHub
更新履歴

  • [2026年05月01日]
      掲載