总是有人从 AI 怎么工作反推大脑就是如何如何,人类就是如何如何

1 天前
 catazshadow
https://edition.cnn.com/2025/04/15/science/3d-brain-map-mouse-mammal-breakthrough/index.html

这一立方毫米的老鼠脑组织里找到了 5 亿个神经连接,人类大脑大概 1300 立方厘米,就是 1300000 立方毫米,按这个老鼠的脑子算,就是 6500000 亿个连接。这要多少“参数”才能完整模拟。600B 的大模型的参数量也就这个数字的千分之一。

所以说现在这种被称作 AI 的东西,根本没有智能,几十年内也不会有智能。它给的只是智能的错觉而已,因为它记录“一个字之后出现另一个字”记录的太完整了。
5498 次点击
所在节点    分享发现
175 条回复
chairuosen
1 天前
@catazshadow 那你来解释解释为什么做不到,不要装懂哥。
cxe2v
1 天前
@coefuqin #32 我也比较赞同你这个观点,多次信号叠加这个,就算当前 LLM 造出来的玩意儿有逻辑了,也模仿不来这个,所以也就没法与人脑类比
mxT52CRuqR6o5
1 天前
你要是深究下去你就会发现你根本没法证明人类是有智能的,现阶段人们根本不知道智能到底是啥,根本没法证明一个东西有智能或没有智能,你的观点「这种被称作 AI 的东西,根本没有智能」相比认为「 AI 一定有智能」并没好到哪儿去
而且对于乐观者,没法证明 AI 有没有智能已经是很满意了
me1onsoda
1 天前
不是从 ai 反推大脑,现代的人工智能就是应用了脑科学的研究成果,去模拟人脑。
coefuqin
1 天前
@chairuosen 就是方向错误。就算是毫无这个方向的知识储备的 B 站老色批们,看到了春水堂的人偶之后,都想让春水堂和双足机器人合作接入 LLM ,看起来好像三位一体很美好。但是为什么没做,这个市场的价值从 pornhub 的流量就能感知到。因为做不到啊,就算是多模态 LLM ,也无法真正的做到人对世界的认知。三位一体之后,你让结合的机器人,告诉他让它从上海去到纽约,做不到的。打车,买票,上飞机,下飞机。。。。。。这其中的每一个行为都要出各种岔子。
catazshadow
1 天前
@chairuosen 最简单的,内存墙。

其次是各种架构设计的数据通路的宽度提升和带来的效率提升不是线性的。半导体已经到极限了,几千倍的提升几十年内不可能的
catazshadow
1 天前
@chairuosen 这还没提能耗问题,上面说了,一个 open AI 已经让美国面临电力短缺了,你要来几千个
coefuqin
1 天前
@cxe2v 不是我的观点,多次信号叠加的神经网络是 snn 脉冲神经网络,脉冲神经网络是最有可能能很好的解决视频这个方向的基础技术。只是目前,原生支持 snn 的芯片也不成熟,需要重新设计,走的是存算一体的路线。和当前的冯诺依曼体系完全不同。
coefuqin
1 天前
@catazshadow 是的,因为冯诺依曼体系架构的问题,用现在芯片几乎不可能做到人脑级别的类脑。
fregie
1 天前
你想证明 AI 不“智能”,首先你要定义下什么是智能的吧?
你想通过生物“智能”的实现基础和大模型的实现基础完全不同 来证明大模型不“智能”也是不符合逻辑的吧?
除非你能先证明“智能”的实现方式只有一种
Jerry02
1 天前
人总是相信他们选择相信的东西,就像楼主选择相信“这种被称作 AI 的东西,根本没有智能”,别人选择相信“ AI 一定有智能”,没有定论的东西最终只是一张辩论。
但是我看出来有些人不仅相信他们选择相信的东西,还希望别人也相信他们相信的东西,不仅仅是楼主(
当然我上面这段话也是没什么意义的陈述,不过我也建议不用继续争辩了,毕竟不会有人能听进去异端的发言( doge )
chairuosen
1 天前
@catazshadow 1. 你提到的问题都只是现阶段没有解决的,并不代表未来不会解决。30 年前的人还想象不到几十亿晶体管怎么塞进口袋里呢。
2. 你提到的各种举例,都是三维物理世界单体结构遇到的由于物理限制导致的瓶颈,它确实是存在的。但是它和你说的神经元数量和模型参数量之间的区别不一样。
a) 大脑不一定是单体的,大脑已知也是分功能区域的,坏了一部分它还可以正常工作,未来智能模型也可以模仿它是多 agent 模式,就没有了单体结构的理论限制。
b) 神经元和参数量可以做相似类比,但不是对等的,并不是说要参数量赶上神经元数量才可以干嘛干嘛,所以你这个 1000 倍也是站不住脚的,没人知道差距是多少倍。
coefuqin
1 天前
最早的时候 沃伦·麦克卢洛奇和沃尔特·皮茨 的论文开创这个领域之后,就分成了 2 派,现在的 LLM 派系是罗森布拉特感知机发展起来的,并不代表这一派系就是完全正确,另外一派就是错误。只是,当前这个派系明显到了发展瓶颈(无法真正有效高效地处理视频数据)。
cmdOptionKana
1 天前
OP 提出:“现在这种被称作 AI 的东西,根本没有智能,几十年内也不会有智能。它给的只是智能的错觉而已”

我认为这里的重点之一是,什么是“智能”?

要谈一个东西“有没有”,总得先定义清除这个东西“是什么”吧?

你说的智能,究竟是指什么呢?
coefuqin
1 天前
@chairuosen 目前用于训练 LLM 的数据就是极限了,唯一没有极限的就是每个人每天眼睛里看到的画面和耳朵里听到的声音,手的触觉,嘴的味觉,这些数据是无限的,只要有人,就会有新鲜的不同的。需要一个类脑的系统来接受和处理这些数据,但肯定不是当前的 LLM ,也不是当前的 ANN 流派能解决的。
catazshadow
1 天前
@chairuosen 1 ,三十年前的人可以想到缩减线宽来塞几十亿晶体管。现在是连怎么扩展几千倍的算力根本没头绪

2 ,物理限制导致做不出来跟脑子特别像的模型。连模型都没有怎么研究智能是什么?既然没有手段搞清楚智能是什么那怎么号称做出来了人工智能?
coefuqin
1 天前
@cmdOptionKana 你所掌握的知识和技能,包括但不限于学校学习到的,工作积累到的,为人处世的,以及从你家到公司,你的行为等等等。
unused
1 天前
这不就是强弱人工智能的问题?
milkpuff
1 天前
“因为人脑神经连接数量比大模型大得多,所以说现在这种被称作 AI 的东西,根本没有智能”
你的“因为-所以”逻辑不成立。
sillydaddy
1 天前
@coefuqin #25
你根本就不了解机器人这块的进展吧?机器人训练为什么不如文本和视频训练,这是明摆着的事实,因为数据量不够!你看过相关的报道,就会知道,现在机器人训练有 2 种方法,1 是通过实际的机器人训练,然后收集数据,2 是通过使用虚拟仿真的物理世界,在这个世界里面训练然后移植到真实世界,然而是有些差别的。


@catazshadow
看来看去,你的推理逻辑,始终是:
1. 因为 LLM 有概率输出,所以它是统计模型,所以它无法做到人类能做的事,不具备真正的智能;
2. 因为 LLM 神经元没有人类的多,所以它无法做到人类能做的事;

说实话,这种逻辑思维,就连 ChatGPT3.5 也比你强啊。能不能来点真才实料?

1. 杨立昆说,因为 LLM 的输出 token 是一个接一个的,又因为每个 token 都有一定的概率出错,所以最后出错的概率是指数级别上升的,比如每个 token 的可靠性是 0.99 ,那么输出 1000 个 token 正确的概率就要到 0 了。为什么这种情况没有发生?怎么用统计学解释?
2. 为什么通过列出步骤,可以显著增强模型的推理能力?
3. 为什么训练时间和推理时间,有替代作用?也就是说一个使用更大数据训练的大模型的立即响应能力,可以通过与一个小模型经过较长时间的推理而得到?

你不去搞清楚这些问题,而是专门在这里招摇撞骗,使用连 LLM 都不屑于使用的推理逻辑去你那宣传可笑的观点。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://yangjunhui.monster/t/1131868

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX