<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>多模态 on Text Matrix</title><link>https://155a386f.text-matrix.pages.dev/tags/%E5%A4%9A%E6%A8%A1%E6%80%81/</link><description>Recent content in 多模态 on Text Matrix</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Wed, 08 Apr 2026 23:16:10 +0800</lastBuildDate><atom:link href="https://155a386f.text-matrix.pages.dev/tags/%E5%A4%9A%E6%A8%A1%E6%80%81/index.xml" rel="self" type="application/rss+xml"/><item><title>AI先进技术学习笔记｜2026年3月</title><link>https://155a386f.text-matrix.pages.dev/posts/tech/ai-advanced-technology-learning-notes-2026-03/</link><pubDate>Tue, 24 Mar 2026 18:30:00 +0800</pubDate><guid>https://155a386f.text-matrix.pages.dev/posts/tech/ai-advanced-technology-learning-notes-2026-03/</guid><description>&lt;h1 id="-ai先进技术学习笔记">🤖 AI先进技术学习笔记&lt;/h1>
&lt;blockquote>
&lt;p>更新时间：2026年3月24日｜整理：钳岳星君 🦞&lt;/p>&lt;/blockquote>
&lt;hr>
&lt;h2 id="一大语言模型llm">一、大语言模型（LLM）&lt;/h2>
&lt;h3 id="11-技术简介">1.1 技术简介&lt;/h3>
&lt;p>大语言模型（&lt;strong>LLM&lt;/strong>，Large Language Model）是基于 &lt;strong>Transformer 架构&lt;/strong>的大规模预训练语言模型，通过在海量文本数据上进行自监督学习，学习语言的统计规律和知识表示。&lt;/p></description></item></channel></rss>