<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Llama.cpp on Text Matrix</title><link>https://155a386f.text-matrix.pages.dev/tags/llama.cpp/</link><description>Recent content in Llama.cpp on Text Matrix</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Wed, 08 Apr 2026 23:16:10 +0800</lastBuildDate><atom:link href="https://155a386f.text-matrix.pages.dev/tags/llama.cpp/index.xml" rel="self" type="application/rss+xml"/><item><title>llama.cpp：68.9k Stars 纯C/C++实现的高效LLM推理框架</title><link>https://155a386f.text-matrix.pages.dev/posts/tech/llama-cpp-gogu-gpu-llm-inference-guide/</link><pubDate>Mon, 06 Apr 2026 22:45:00 +0800</pubDate><guid>https://155a386f.text-matrix.pages.dev/posts/tech/llama-cpp-gogu-gpu-llm-inference-guide/</guid><description>&lt;h2 id="学习目标">学习目标&lt;/h2>
&lt;p>通过本文，你将全面掌握以下核心能力：&lt;/p>
&lt;ul>
&lt;li>深入理解 llama.cpp 的项目定位和技术架构&lt;/li>
&lt;li>学会在各种硬件上运行 LLM（CPU、GPU、Apple Silicon）&lt;/li>
&lt;li>掌握 GGUF 格式模型的下载和使用&lt;/li>
&lt;li>理解量化技术原理和不同量化级别的选择&lt;/li>
&lt;li>学会构建 llama.cpp Server 并通过 API 调用&lt;/li>
&lt;li>掌握性能优化技巧和内存管理&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="1-项目概述">1. 项目概述&lt;/h2>
&lt;h3 id="11-是什么">1.1 是什么&lt;/h3>
&lt;p>&lt;strong>llama.cpp&lt;/strong> 是 Facebook LLaMA 架构的纯 C/C++ 移植版本，专门用于在 CPU 和 GPU 上高效推理 GGUF 格式的大语言模型（LLM）。它的核心特点是&lt;strong>无需 GPU 即可运行 LLM&lt;/strong>，支持多种硬件架构。&lt;/p></description></item><item><title>BitNet：微软 1-bit LLM 推理框架完全指南</title><link>https://155a386f.text-matrix.pages.dev/posts/tech/bitnet-microsoft-1bit-llm-inference-guide/</link><pubDate>Mon, 06 Apr 2026 21:21:00 +0800</pubDate><guid>https://155a386f.text-matrix.pages.dev/posts/tech/bitnet-microsoft-1bit-llm-inference-guide/</guid><description>&lt;h2 id="学习目标">学习目标&lt;/h2>
&lt;p>通过本文，你将全面掌握以下核心能力：&lt;/p>
&lt;ul>
&lt;li>深入理解 BitNet 的项目定位、1-bit LLM 原理和技术架构&lt;/li>
&lt;li>掌握在 CPU 和 GPU 上构建和运行 BitNet 的方法&lt;/li>
&lt;li>学会使用官方预训练模型和量化工具&lt;/li>
&lt;li>理解 I2_S、TL1、TL2 等量化内核的技术细节&lt;/li>
&lt;li>掌握性能基准测试和优化技巧&lt;/li>
&lt;li>理解与 llama.cpp 的关系和差异化定位&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="1-项目概述">1. 项目概述&lt;/h2>
&lt;h3 id="11-是什么">1.1 是什么&lt;/h3>
&lt;p>BitNet 是微软官方发布的 &lt;strong>1-bit LLM 推理框架&lt;/strong>，核心理念是让 1-bit 大语言模型（如 BitNet b1.58）能够在 CPU 和 GPU 上实现&lt;strong>快速、无损&lt;/strong>的推理。&lt;/p></description></item><item><title>Quantization 量化技术完全指南：从原理到 LLM 实战</title><link>https://155a386f.text-matrix.pages.dev/posts/tech/llm/quantization-llm-model-compression-guide/</link><pubDate>Sun, 29 Mar 2026 23:28:00 +0800</pubDate><guid>https://155a386f.text-matrix.pages.dev/posts/tech/llm/quantization-llm-model-compression-guide/</guid><description>&lt;h1 id="quantization-量化技术完全指南从原理到-llm-实战">Quantization 量化技术完全指南：从原理到 LLM 实战&lt;/h1>
&lt;blockquote>
&lt;p>&lt;strong>目标读者&lt;/strong>：想深入理解量化技术、压缩大模型体积的开发者
&lt;strong>核心问题&lt;/strong>：如何将 159GB 的大模型压缩到能在笔记本运行，同时只损失 5-10% 精度？&lt;/p></description></item></channel></rss>