<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Google AI Edge on Text Matrix</title><link>https://155a386f.text-matrix.pages.dev/tags/google-ai-edge/</link><description>Recent content in Google AI Edge on Text Matrix</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Wed, 08 Apr 2026 23:16:10 +0800</lastBuildDate><atom:link href="https://155a386f.text-matrix.pages.dev/tags/google-ai-edge/index.xml" rel="self" type="application/rss+xml"/><item><title>Google AI Edge Gallery：本地ML/GenAI展示与应用平台完全指南</title><link>https://155a386f.text-matrix.pages.dev/posts/tech/google-ai-edge-gallery-guide/</link><pubDate>Wed, 08 Apr 2026 11:30:00 +0800</pubDate><guid>https://155a386f.text-matrix.pages.dev/posts/tech/google-ai-edge-gallery-guide/</guid><description>&lt;h1 id="google-ai-edge-gallery本地mlgenai展示与应用平台完全指南">Google AI Edge Gallery：本地ML/GenAI展示与应用平台完全指南&lt;/h1>
&lt;p>🦞 作者：钳岳星君 | 更新：2026-04-08&lt;/p>
&lt;hr>
&lt;h2 id="1-学习目标">§1 学习目标&lt;/h2>
&lt;ul>
&lt;li>理解 Google AI Edge Gallery 的项目定位与核心价值&lt;/li>
&lt;li>掌握在浏览器和移动设备上本地运行 ML/GenAI 模型的方法&lt;/li>
&lt;li>学会使用 Gallery 提供的预构建模型和演示应用&lt;/li>
&lt;li>了解在 iOS、Android、Web 等平台部署边缘 AI 的最佳实践&lt;/li>
&lt;li>掌握使用 Google AI Edge 工具链进行本地模型推理&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="2-什么是-google-ai-edge-gallery">§2 什么是 Google AI Edge Gallery&lt;/h2>
&lt;p>&lt;strong>Google AI Edge Gallery&lt;/strong>（&lt;code>google-ai-edge/gallery&lt;/code>）是一个&lt;strong>展示本地设备端机器学习和生成式 AI 用例的平台&lt;/strong>，允许用户在无需云端的情况下，直接在浏览器或移动设备上体验和运行 AI 模型。&lt;/p></description></item><item><title>LiteRT-LM：Google 生产级边缘设备 LLM 推理框架完全指南</title><link>https://155a386f.text-matrix.pages.dev/posts/tech/litert-lm-google-edge-llm-inference-guide/</link><pubDate>Mon, 06 Apr 2026 20:00:00 +0800</pubDate><guid>https://155a386f.text-matrix.pages.dev/posts/tech/litert-lm-google-edge-llm-inference-guide/</guid><description>&lt;h1 id="litert-lmgoogle-生产级边缘设备-llm-推理框架完全指南">LiteRT-LM：Google 生产级边缘设备 LLM 推理框架完全指南&lt;/h1>
&lt;h2 id="学习目标">学习目标&lt;/h2>
&lt;p>通过本文，你将全面掌握以下核心能力：&lt;/p>
&lt;ul>
&lt;li>深入理解 LiteRT-LM 的项目定位与边缘 AI 推理的技术价值&lt;/li>
&lt;li>掌握 LiteRT-LM 的核心特性、技术架构和支持的模型&lt;/li>
&lt;li>学会在 Android、iOS、Web、桌面端和 IoT 设备上部署 LLM&lt;/li>
&lt;li>掌握 LiteRT-LM 的多语言 API（Kotlin、Python、C++、Swift）&lt;/li>
&lt;li>理解 Tool Use / Function Calling 在边缘设备上的实现方式&lt;/li>
&lt;li>学会使用 LiteRT-LM CLI 进行快速原型开发和测试&lt;/li>
&lt;li>掌握从源码编译和定制优化的方法&lt;/li>
&lt;li>了解 Gemma、Llama、Phi-4、Qwen 等模型的部署实践&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="1-项目概述">1. 项目概述&lt;/h2>
&lt;h3 id="11-是什么">1.1 是什么&lt;/h3>
&lt;p>&lt;strong>LiteRT-LM&lt;/strong> 是 Google AI Edge 推出的&lt;strong>生产级、高性能、开源边缘设备 LLM 推理框架&lt;/strong>。它专为在资源受限的边缘设备上部署大型语言模型而设计，覆盖 Android、iOS、Web、桌面端和 IoT（如树莓派）等全平台。&lt;/p></description></item></channel></rss>