lin的独り言

会不会有一天,我们不能再看懂 AI 的推理过程?

/ 0评

Gemini 3 刚出来,就去 AI Studio 试了一下。留意到侧边参数栏里的 temperature 参数有一个提示:降低 temperature 会影响 Gemini 3 的推理能力。

这让我想起刚接触 AI 的时候就有的疑问:temperature 能够影响输出下一个词的随机性,调低这个值会让 AI 的输出更加的稳定和确定。但问题是,答案不一定在可能性最高的下一个词中啊?调低了会不会反而影响 AI 的智力和发挥呢?

甚至的,我们有任何理由相信我们人类的思维方式是最优的吗?为什么要让 AI 按图索骥般的模仿人类的推理方式呢?

想象一下这样的场景:

问:[一个极难的问题] AI 推理过程:3490jf09j3489ugehg8934g <- 人类无法阅读的随机字符 AI 答:[完全正确]

人类智力是否存在一个“生理极限”?我们人类再也不能理解 AI 的思维?


然后,我把上面的问题给了 Gemini 3 。

释然了。😂

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注