@
coefuqin #25
你根本就不了解机器人这块的进展吧?机器人训练为什么不如文本和视频训练,这是明摆着的事实,因为数据量不够!你看过相关的报道,就会知道,现在机器人训练有 2 种方法,1 是通过实际的机器人训练,然后收集数据,2 是通过使用虚拟仿真的物理世界,在这个世界里面训练然后移植到真实世界,然而是有些差别的。
@
catazshadow 看来看去,你的推理逻辑,始终是:
1. 因为 LLM 有概率输出,所以它是统计模型,所以它无法做到人类能做的事,不具备真正的智能;
2. 因为 LLM 神经元没有人类的多,所以它无法做到人类能做的事;
说实话,这种逻辑思维,就连 ChatGPT3.5 也比你强啊。能不能来点真才实料?
1. 杨立昆说,因为 LLM 的输出 token 是一个接一个的,又因为每个 token 都有一定的概率出错,所以最后出错的概率是指数级别上升的,比如每个 token 的可靠性是 0.99 ,那么输出 1000 个 token 正确的概率就要到 0 了。为什么这种情况没有发生?怎么用统计学解释?
2. 为什么通过列出步骤,可以显著增强模型的推理能力?
3. 为什么训练时间和推理时间,有替代作用?也就是说一个使用更大数据训练的大模型的立即响应能力,可以通过与一个小模型经过较长时间的推理而得到?
你不去搞清楚这些问题,而是专门在这里招摇撞骗,使用连 LLM 都不屑于使用的推理逻辑去你那宣传可笑的观点。