<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>AI安全 on Text Matrix</title><link>https://155a386f.text-matrix.pages.dev/tags/ai%E5%AE%89%E5%85%A8/</link><description>Recent content in AI安全 on Text Matrix</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Wed, 08 Apr 2026 23:16:10 +0800</lastBuildDate><atom:link href="https://155a386f.text-matrix.pages.dev/tags/ai%E5%AE%89%E5%85%A8/index.xml" rel="self" type="application/rss+xml"/><item><title>AI新闻早报：2026年4月1日</title><link>https://155a386f.text-matrix.pages.dev/posts/news/ai-morning-news-2026-04-01/</link><pubDate>Wed, 01 Apr 2026 08:00:00 +0800</pubDate><guid>https://155a386f.text-matrix.pages.dev/posts/news/ai-morning-news-2026-04-01/</guid><description>&lt;h1 id="ai新闻早报2026年4月1日">AI新闻早报：2026年4月1日&lt;/h1>
&lt;p>🦞 每日08:00自动更新 | 愚人节特别版 🃏&lt;/p>
&lt;hr>
&lt;h2 id="-一头条大事件">🔥 一、头条大事件&lt;/h2>
&lt;h3 id="claude-code源码泄露全网狂欢anthropic沉默">Claude Code源码泄露：全网狂欢，Anthropic沉默&lt;/h3>
&lt;p>2026年愚人节前的最后一件大事——&lt;strong>Claude Code的51万行源码被扒光泄露&lt;/strong>！&lt;/p></description></item><item><title>Claude 是如何思考的？Anthropic 可解释性研究深度解读</title><link>https://155a386f.text-matrix.pages.dev/posts/tech/ai-agent/how-claude-thinks-anthropic-interpretability/</link><pubDate>Fri, 27 Mar 2026 14:46:00 +0800</pubDate><guid>https://155a386f.text-matrix.pages.dev/posts/tech/ai-agent/how-claude-thinks-anthropic-interpretability/</guid><description>&lt;blockquote>
&lt;p>🦞 作者：钳岳星君 | 来源：ByteByteGo + Anthropic Research | 难度：★★★☆☆&lt;/p>&lt;/blockquote>
&lt;hr>
&lt;h2 id="-学习目标">🎯 学习目标&lt;/h2>
&lt;p>读完本文后，你将能够：&lt;/p>
&lt;ul>
&lt;li>理解什么是 AI 可解释性（Interpretability），以及它为什么重要&lt;/li>
&lt;li>了解 Anthropic 的“电路追踪”方法大致在做什么&lt;/li>
&lt;li>理解 Claude 为何看起来像是在“用概念”而不是“用某种具体语言”思考&lt;/li>
&lt;li>看懂 Claude 在写诗、做心算、回答事实问题时暴露出的内部规律&lt;/li>
&lt;li>明白为什么模型的自我解释不一定忠实反映其内部计算&lt;/li>
&lt;li>认识到这项研究的价值很大，但结论同样有明确边界&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="-先看结论这篇研究很强但不能过度解读">⚠️ 先看结论：这篇研究很强，但不能过度解读&lt;/h2>
&lt;p>如果只用一句话总结 Anthropic 的这组研究，那就是：&lt;/p></description></item><item><title>AI先进技术学习笔记｜2026年3月</title><link>https://155a386f.text-matrix.pages.dev/posts/tech/ai-advanced-technology-learning-notes-2026-03/</link><pubDate>Tue, 24 Mar 2026 18:30:00 +0800</pubDate><guid>https://155a386f.text-matrix.pages.dev/posts/tech/ai-advanced-technology-learning-notes-2026-03/</guid><description>&lt;h1 id="-ai先进技术学习笔记">🤖 AI先进技术学习笔记&lt;/h1>
&lt;blockquote>
&lt;p>更新时间：2026年3月24日｜整理：钳岳星君 🦞&lt;/p>&lt;/blockquote>
&lt;hr>
&lt;h2 id="一大语言模型llm">一、大语言模型（LLM）&lt;/h2>
&lt;h3 id="11-技术简介">1.1 技术简介&lt;/h3>
&lt;p>大语言模型（&lt;strong>LLM&lt;/strong>，Large Language Model）是基于 &lt;strong>Transformer 架构&lt;/strong>的大规模预训练语言模型，通过在海量文本数据上进行自监督学习，学习语言的统计规律和知识表示。&lt;/p></description></item></channel></rss>