总是有人从 AI 怎么工作反推大脑就是如何如何,人类就是如何如何

2 天前
 catazshadow
https://edition.cnn.com/2025/04/15/science/3d-brain-map-mouse-mammal-breakthrough/index.html

这一立方毫米的老鼠脑组织里找到了 5 亿个神经连接,人类大脑大概 1300 立方厘米,就是 1300000 立方毫米,按这个老鼠的脑子算,就是 6500000 亿个连接。这要多少“参数”才能完整模拟。600B 的大模型的参数量也就这个数字的千分之一。

所以说现在这种被称作 AI 的东西,根本没有智能,几十年内也不会有智能。它给的只是智能的错觉而已,因为它记录“一个字之后出现另一个字”记录的太完整了。
5728 次点击
所在节点    分享发现
175 条回复
catazshadow
1 天前
@icyalala 老鼠不能理解文字,真的要比只能比在现实世界中完成任务的情况,比如觅食,躲避捕食者,交配

多大的 LLM 能够完成这些?
coefuqin
1 天前
@trungdieu031 我过过脑子,当前 LLM reason 的能力怎么来的?不是 RL 后训练得到的? COT 真要有提升的话,还关参数量什么事情? 9B 的 LLM 带上 COT 能和 671B 的不带 reason 的比?
catazshadow
1 天前
@trungdieu031 业内现在喷老黄喷的是他 GPU 单元的利用率其实是及其底下的,原因之一就是内存墙,数据供不上
coefuqin
1 天前
@icyalala 你对智能的理解量,决定了是不是不如老鼠咯,你和我都不在一个频道上,有什么可讲的,不要艾特我了。
icyalala
1 天前
@catazshadow 那你是说在世界中有些人连觅食交配还不如老鼠,所以这些人连老鼠的智能都不如?
catazshadow
1 天前
@icyalala 你要比应该在相同的基准上来比,多大的 LLM 能够分别完成所有老鼠和人的功能?然后比较 LLM 的大小你也许能获得老鼠和人哪个更具有智能

我希望你能获得你想要的答案
coefuqin
1 天前
@catazshadow llm 的本质就是下一个字的概率预测,自己多看点入门的书就知道了,比如从零开始训练一个大模型。
catazshadow
1 天前
@coefuqin 英文世界有人把 LLM 叫做 stochastic parrot ,很贴切了。上面那人就是因为我把这个说法搬过来叫做概率鹦鹉跑来追着我咬的
trungdieu031
1 天前
@catazshadow 我们说现在“摩尔定律失效“ 一般都在说晶体管尺寸(制成工艺)快要达到物理极限了,显存读取带宽目前还没有达到物理极限。
目前的超大模型都是在集群/分布式训练的, 单卡很少能容纳一个完整的超大参数模型,单卡的 DRM 读取速度不是主要瓶颈,因为卡与卡之间的通信比这个要久,所以未来比这个更大的模型也会采用同样的思路。而且还有其他手段来解决这些问题!
catazshadow
1 天前
@trungdieu031 集群的话,就会撞上功耗问题了。上面说了,一个 openAI 已经让美国电力短缺了,假设算力扩展是线性的(现实世界通常不是),要来几千个吗?
HENQIGUAI
1 天前
5 年前能预判到 AI 发展到今天这种程度嘛,还预判起几十年来了.....
trungdieu031
1 天前
@coefuqin 他那文章说的是,同样的 671B 的模型,用同样的数据训练,他们模型的能力范围是一样大的,比如数据集里没有法文的数据,那你后训练 RL 再怎么跑,也没法回答法文的问题。
那么为什么 COT 会对模型能力尤其是推理能力有提升呢,因为 COT 的训练其实是在强化思考过程,就像对数学里的加法运算一样,这里的 COT 其实就是加法,只不过作用在在不同的名词/实事上,使模型推理能力提升!
catazshadow
1 天前
@HENQIGUAI 别忘了 AI 浪潮之前 7 、80 年代已经死过一次了
pkoukk
1 天前
LLM 模拟的不是人脑,而是人类文明的逻辑学,语言学,符号学,这些东西可以不在人脑上运行
trungdieu031
1 天前
@catazshadow 目前来说功耗确实是问题。但在实现 AGI 这个目标面前,功耗带来的成本增加会显得不值一提!
icyalala
1 天前
@catazshadow “你要比应该在相同的基准上来比” 那我就再重复一遍:
并不是所有神经元的连接都是有作用的。神经元的数量也无法对应智能的水平。LLM 的参数也无法对应神经元的连接。
catazshadow
1 天前
@icyalala 那你怎么证明这 6500000 亿个连接里,只有 600B 是有用的?或者只有 6000B 是有用的?或者到底哪些是有用的?
catazshadow
1 天前
@icyalala 或者什么是你所说的“有用”的?
ddoyou
1 天前
跑一下题:造物主因为硅基构建智能体太难了,所以才用碳基构建了智能体,先是构建了一些低端智能体,再迭代构建了人类。
icyalala
1 天前
@catazshadow 有用就是说能够对应智力水平。神经元的连接能够对应智能的水平吗?你怎么证明?
LLM 的参数能对应应神经元的连接数量吗?你怎么证明?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://yangjunhui.monster/t/1131868

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX