JVNDB-2026-013896 | |
ggml.aiのllama.cppにおける複数の脆弱性 | |
| 概要 | |
llama.cppはC/C++で複数の大規模言語モデル(LLM)の推論を行うソフトウェアです。b7824以前のバージョンでは、`ggml_nbytes`関数に整数オーバーフローの脆弱性が存在し、攻撃者が特定のテンソルの次元を持つGGUFファイルを作成することでメモリ検証を回避できます。これにより`ggml_nbytes`は必要なサイズよりもはるかに小さい値(例えばエクサバイト単位の代わりに4MB)を返し、その後アプリケーションがテンソルを処理するとヒープベースのバッファオーバーフローが発生します。この脆弱性により、メモリ破損を介したリモートコード実行(RCE)が可能となります。b7824でこの問題は修正されています。 | |
| CVSS による深刻度 (CVSS とは?) | |
|
CVSS v3 による深刻度
基本値: 7.8 (重要) [その他]
| |
| 影響を受けるシステム | |
|
| |
ggml.ai | |
本脆弱性の影響を受ける製品の詳細については、ベンダ情報および参考情報をご確認ください。 | |
| 想定される影響 | |
当該ソフトウェアが扱う全ての情報が外部に漏れる可能性があります。 | |
| 対策 | |
正式な対策が公開されています。ベンダ情報を参照して適切な対策を実施してください。 | |
| ベンダ情報 | |
GitHub | |
| CWEによる脆弱性タイプ一覧 CWEとは? | |
|
| |
| 共通脆弱性識別子(CVE) CVEとは? | |
|
| |
| 参考情報 | |
| |
| 更新履歴 | |
|
| 公表日 | 2026/03/24 |
| 登録日 | 2026/05/01 |
| 最終更新日 | 2026/05/01 |



