总是有人从 AI 怎么工作反推大脑就是如何如何,人类就是如何如何

2 天前
 catazshadow
https://edition.cnn.com/2025/04/15/science/3d-brain-map-mouse-mammal-breakthrough/index.html

这一立方毫米的老鼠脑组织里找到了 5 亿个神经连接,人类大脑大概 1300 立方厘米,就是 1300000 立方毫米,按这个老鼠的脑子算,就是 6500000 亿个连接。这要多少“参数”才能完整模拟。600B 的大模型的参数量也就这个数字的千分之一。

所以说现在这种被称作 AI 的东西,根本没有智能,几十年内也不会有智能。它给的只是智能的错觉而已,因为它记录“一个字之后出现另一个字”记录的太完整了。
5764 次点击
所在节点    分享发现
175 条回复
icyalala
2 天前
@catazshadow 你再仔细读读你的帖子主题,
”600B 的大模型的参数量也就这个数字的千分之一“,大模型的参数量和神经元连接是一回事儿吗?能够类比吗?
chairuosen
2 天前
午休了一下,没想到楼盖这么高了。反正我看来看去没想明白 LZ 在表达什么。有瓶颈,有限制,你们说的有点道理,我们也提了可能的解决方案但你们说不对,所以呢,放弃不继续研究么? AI 届的失败主义?现阶段 LLM 不就是这个星球上最接近“智能”定义的东西么,不就是最有希望实现 AGI 的么,你还有什么别的好方案?
coefuqin
2 天前
@trungdieu031 COT 只是让一个小学生对他思考模式更缜密,再怎么强化思考过程,也独立思考不出来微积分。并没有提升模型的能力。就像知识树,只是在现有的树里攘括更多的分支和节点而已,树本身没有拓展。那提升了什么能力呢?那些知识或许本身就有,但只是没想到而已。
qieqie
2 天前
基本概念有误,神经元的数量和神经连接的数量不是一个概念。如果要和 LLM 比,一个 N 输入 M 输出的线性(全连接)层是 N * M ,而不是 N+M
coefuqin
2 天前
@trungdieu031 在 COT 这个问题上,你和我不在一个频道,你理解的能力和我理解的能力不是一个概念,可以就此打住。至于我是不是听风就是雨,我比你更清楚。我能对你回复,已经算是出于好意了。不必再艾特我了。
coefuqin
2 天前
@coefuqin 英文世界有人把 LLM 叫做 stochastic parrot ,很贴切了。上面那人就是因为我把这个说法搬过来叫做概率鹦鹉跑来追着我咬的

属实难绷。这个话题,我打算打住了,其实上次我看到这个报道的时候,我也是生出了和你一样的想法,没想到还会有人能拿出来讨论,我觉得英雄所见略同,甚是欣慰,我道不孤也,老铁,后会有期。
trungdieu031
2 天前
@coefuqin COT 的确是让思考过程更精确。你这里说的又是另一个问题,LLM 能否做出原创性的思考?
归根到底,看你是不是认为人脑的智能的过程都是可计算的。
智能的表现形式里,COT 是一种,但它只能在既有的知识范围内推理,像数学里的演绎。COT 能被 LLM 学习到,转化为 LLM 隐式空间里的向量。
直觉也是智能的一种形式,如果它是可计算,那它必然也能转化为隐式空间的向量。
所以这个问题就变成,你是不是相信大脑有超越图灵机的能力,如果没有,那它必然是可计算的。
至少目前世界上还没有发现能超越图灵机计算能力的实际模型。
实际上没有什么东西是完全无中生有的创造,都是在既有范围内的创新,但范围本身要不断扩大。
smlcgx
2 天前
@chairuosen 所以说实话,我觉得这才是诺贝尔奖给辛顿的最大理由吧,可能他不一定是正确的,但是他推广了这方面的研究,激励了后人去开拓。乔姆斯基就很让人绝望,他提到:心灵的内部运作是意识不可接近的,这他吗让人怎么研究啊😄,虽然我觉得后者可能是对的
coefuqin
2 天前
@trungdieu031 刚才关于知识树的比喻,我好像错了,就这样了吧,后续再去学习。这个话题,我不打算继续讨论了,不必再艾特我。
sillydaddy
2 天前
@catazshadow 楼主,你口口声声说 LLM 没有智能,只是统计学鹦鹉。那什么才是你的标准呢?

口说无凭,我最喜欢的就是用真金白银说话,这么着,我划一个道儿,看你敢不敢接:

我跟你赌 10 万块钱,如果你是一个程序员,3 年内,基于 LLM 的编程能力能达到或超过你的水平。

这个也很容易验证,给定任何一个软件的实现需求,双方(LLM 和 OP)作为程序员,去接受需求、并提出关于需求的疑问、然后开发、测试、部署。可以查询 Google 等资料,但是不允许问其他的 AI 。需求提出方、疑问解答方、验收方,都是相同的人类。

这样的水平你觉得算是有智能吗?我敢跟你赌 10 万块!!你敢吗?
catazshadow
2 天前
@icyalala 神经元的连接能够对应智能的水平吗?你怎么证明?

我不能在科学意义上证明,而且像我顶楼说的,我也不觉得在几十年内有人能够在科学意义上证明。

但是,狗比老鼠聪明,狗脑子比老鼠脑子大,这点相关性是存在的。

至于为什么大模型参数量和神经连接对应,你去给自己科普下这些神经网络的结构不就知道了?

前一层到后一层的每一根线不就对应一个参数?这不就是神经连接?
catazshadow
2 天前
@coefuqin 后会有期
LevineChen
2 天前
@hewitt29 #31 `本来就是,现在所谓的 AI ,连真正的 AI 的门槛都没有摸到`
现在刚刚好, 对于程序员来说属于蜜月期既没有取代大家的工作, 又可以实实在在提高了工作效率 好让我有空摸鱼一层一层看你们的讨论.😂
catazshadow
2 天前
@sillydaddy 看来我出来说这个是挡了你财路咯

那不好意思,不是我挡了你,是这个世界挡了你,不服那你也只能憋着。

嘻嘻
summerLast
2 天前
只要函数可以用来解决外部问题,并且可以根据外部反馈自我调整自己的参数,从而更好的解决问题,改进自己,那么我们就认为它是智能的,llm 目前正在逼近这个

智能即预测
sillydaddy
2 天前
@catazshadow 我问你敢不敢赌?别顾左右而言他啊。敢就赌,不敢就承认自己对自己的话都没有信心。
而且标准很明确,而且赌注的金额你可以自己定!

不敢赌,以后就别大放厥词!人要对自己的言行负责!
InkStone
2 天前
我并不认为现在的 LLM 是在模仿人脑结构。这种仿生学论断不具备实际意义……

另外我也不觉得“LLM 没有智能”之类的论断不能平移到人类身上。人类也只是统计学鹦鹉,有太多的心理学实验支持这一点了。
catazshadow
2 天前
@sillydaddy 我不赌,不代表我说的没有道理

我上面问你的话是很难理解吗?你在崇拜一个人造现象,我告诉你这现象只是人造的离真的差得远。

你感到智商受到了侮辱吗?
catazshadow
2 天前
@InkStone 神经网络这个数据结构之所以叫神经网络,就是因为它是在模仿人脑的神经结构
InkStone
2 天前
@catazshadow 神经网络这个词的年龄比你大得多,现在 LLM 的结构已经跟它最初的设计相去甚远了。这种生搬硬套的望文生义有点太民科了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://yangjunhui.monster/t/1131868

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX