<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>LLM on Note100.com</title>
    <link>http://www.note100.com:80/tags/llm/</link>
    <description>Recent content in LLM on Note100.com</description>
    <generator>Hugo</generator>
    <language>zh-CN</language>
    <managingEditor>liuyang@qianlima.com (刘洋)</managingEditor>
    <webMaster>liuyang@qianlima.com (刘洋)</webMaster>
    <lastBuildDate>Tue, 23 Sep 2025 07:49:34 +0000</lastBuildDate>
    <atom:link href="http://www.note100.com:80/tags/llm/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>LLM as A Judge[译]</title>
      <link>http://www.note100.com:80/posts/llmasajudge%E8%AF%91/</link>
      <pubDate>Tue, 23 Sep 2025 07:49:34 +0000</pubDate><author>liuyang@qianlima.com (刘洋)</author>
      <guid>http://www.note100.com:80/posts/llmasajudge%E8%AF%91/</guid>
      <description>&lt;p&gt;目前，大语言模型（LLM）的大规模质量评估方式其实存在根本问题。传统的评估方法，比如 BLEU 和 ROUGE 指标，原本是为了翻译任务设计的，根本不适合处理自由开放、无明确标准答案的生成任务。&lt;/p&gt;</description>
    </item>
    <item>
      <title>Prompt工程即需求工程[译]</title>
      <link>http://www.note100.com:80/posts/prompt%E5%B7%A5%E7%A8%8B%E5%8D%B3%E9%9C%80%E6%B1%82%E5%B7%A5%E7%A8%8B1/</link>
      <pubDate>Mon, 22 Sep 2025 08:46:43 +0000</pubDate><author>liuyang@qianlima.com (刘洋)</author>
      <guid>http://www.note100.com:80/posts/prompt%E5%B7%A5%E7%A8%8B%E5%8D%B3%E9%9C%80%E6%B1%82%E5%B7%A5%E7%A8%8B1/</guid>
      <description>&lt;p&gt;人们争相从 AI 工具中榨取最大价值，提示词工程（Prompt Engineering）——也就是编写清晰、结构化的输入来引导 AI 输出的实践——随之站上了舞台中央。但对软件工程师来说，这门手艺不算新。几十年来，我们一直在做类似的事，只是叫法不同罢了。我们今天编写 AI 提示词所面临的挑战，和软件团队几代人以来一直在努力解决的难题，并无二致。今天我们谈论提示词工程，其实只是在延续一个更古老的话题：开发者如何清晰地说明他们需要构建什么、在什么条件下构建、基于什么假设，以及如何将这些信息传达给整个团队。&lt;/p&gt;</description>
    </item>
    <item>
      <title>在大模型推理中击败不确定性[译]</title>
      <link>http://www.note100.com:80/posts/%E5%9C%A8%E5%A4%A7%E6%A8%A1%E5%9E%8B%E6%8E%A8%E7%90%86%E4%B8%AD%E5%87%BB%E8%B4%A5%E4%B8%8D%E7%A1%AE%E5%AE%9A%E6%80%A7/</link>
      <pubDate>Thu, 18 Sep 2025 09:12:02 +0000</pubDate><author>liuyang@qianlima.com (刘洋)</author>
      <guid>http://www.note100.com:80/posts/%E5%9C%A8%E5%A4%A7%E6%A8%A1%E5%9E%8B%E6%8E%A8%E7%90%86%E4%B8%AD%E5%87%BB%E8%B4%A5%E4%B8%8D%E7%A1%AE%E5%AE%9A%E6%80%A7/</guid>
      <description>&lt;blockquote&gt;&#xA;&lt;p&gt;前OpenAI核心人物解释LLMs不确定性来源&#xA;可复现性，是科学进步的基石。然而，想让大语言模型（LLM）给出可复现的结果，却出奇地难。&lt;/p&gt;&#xA;&lt;/blockquote&gt;&#xA;&lt;p&gt;举个例子，你可能会发现，多次向 ChatGPT 问同一个问题，会得到不同的答案。这本身不奇怪，因为从语言模型获得结果涉及一个“采样”过程，也就是将模型的输出转换成一个概率分布，然后依概率选择一个词元（token）。&lt;/p&gt;</description>
    </item>
    <item>
      <title>2025年9月回顾-2024年一篇LLMs构建产品总结观察AI进化过程</title>
      <link>http://www.note100.com:80/posts/2025%E5%B9%B4%E5%9B%9E%E9%A1%BE%E4%BD%BF%E7%94%A8%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B-llms-%E6%9E%84%E5%BB%BA%E4%BA%A7%E5%93%81../</link>
      <pubDate>Wed, 17 Sep 2025 12:01:14 +0000</pubDate><author>liuyang@qianlima.com (刘洋)</author>
      <guid>http://www.note100.com:80/posts/2025%E5%B9%B4%E5%9B%9E%E9%A1%BE%E4%BD%BF%E7%94%A8%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B-llms-%E6%9E%84%E5%BB%BA%E4%BA%A7%E5%93%81../</guid>
      <description>&lt;blockquote&gt;&#xA;&lt;p&gt;原文：使用大语言模型 (LLMs) 构建产品一年后的经验总结 (第一部分)&#xA;&lt;a href=&#34;https://www.oreilly.com/radar/what-we-learned-from-a-year-of-building-with-llms-part-i/&#34; target=&#34;_blank&#34; rel=&#34;noopener noreffer &#34;&gt;https://www.oreilly.com/radar/what-we-learned-from-a-year-of-building-with-llms-part-i/&lt;/a&gt;&#xA;2025年回头看这篇2024年5月发布的文章，原作者 Eugene Yan, Bryan Bischof, Charles Frye, Hamel Husain, Jason Liu and Shreya Shankar，有些内容已经过时，有些仍有实践价值&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
