<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>确定性 on Note100.com</title>
    <link>http://www.note100.com:80/tags/%E7%A1%AE%E5%AE%9A%E6%80%A7/</link>
    <description>Recent content in 确定性 on Note100.com</description>
    <generator>Hugo</generator>
    <language>zh-CN</language>
    <managingEditor>liuyang@qianlima.com (刘洋)</managingEditor>
    <webMaster>liuyang@qianlima.com (刘洋)</webMaster>
    <lastBuildDate>Thu, 18 Sep 2025 09:12:02 +0000</lastBuildDate>
    <atom:link href="http://www.note100.com:80/tags/%E7%A1%AE%E5%AE%9A%E6%80%A7/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>在大模型推理中击败不确定性[译]</title>
      <link>http://www.note100.com:80/posts/%E5%9C%A8%E5%A4%A7%E6%A8%A1%E5%9E%8B%E6%8E%A8%E7%90%86%E4%B8%AD%E5%87%BB%E8%B4%A5%E4%B8%8D%E7%A1%AE%E5%AE%9A%E6%80%A7/</link>
      <pubDate>Thu, 18 Sep 2025 09:12:02 +0000</pubDate><author>liuyang@qianlima.com (刘洋)</author>
      <guid>http://www.note100.com:80/posts/%E5%9C%A8%E5%A4%A7%E6%A8%A1%E5%9E%8B%E6%8E%A8%E7%90%86%E4%B8%AD%E5%87%BB%E8%B4%A5%E4%B8%8D%E7%A1%AE%E5%AE%9A%E6%80%A7/</guid>
      <description>&lt;blockquote&gt;&#xA;&lt;p&gt;前OpenAI核心人物解释LLMs不确定性来源&#xA;可复现性，是科学进步的基石。然而，想让大语言模型（LLM）给出可复现的结果，却出奇地难。&lt;/p&gt;&#xA;&lt;/blockquote&gt;&#xA;&lt;p&gt;举个例子，你可能会发现，多次向 ChatGPT 问同一个问题，会得到不同的答案。这本身不奇怪，因为从语言模型获得结果涉及一个“采样”过程，也就是将模型的输出转换成一个概率分布，然后依概率选择一个词元（token）。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
