总是有人从 AI 怎么工作反推大脑就是如何如何,人类就是如何如何

1 天前
 catazshadow
https://edition.cnn.com/2025/04/15/science/3d-brain-map-mouse-mammal-breakthrough/index.html

这一立方毫米的老鼠脑组织里找到了 5 亿个神经连接,人类大脑大概 1300 立方厘米,就是 1300000 立方毫米,按这个老鼠的脑子算,就是 6500000 亿个连接。这要多少“参数”才能完整模拟。600B 的大模型的参数量也就这个数字的千分之一。

所以说现在这种被称作 AI 的东西,根本没有智能,几十年内也不会有智能。它给的只是智能的错觉而已,因为它记录“一个字之后出现另一个字”记录的太完整了。
5386 次点击
所在节点    分享发现
175 条回复
catazshadow
1 天前
@Nzelites 太简单了,大模型不懂我的专业知识,随便就问倒了
coefuqin
1 天前
你也看到了这个新闻啊,最早刚发出来的时候,我就看到了。以目前的技术,完全模拟人脑需要的资源是需要巨量的,而且算法也不一定能够搞定。我对你说的几十年,表示赞同。在基础技术没有突破之前,目前的 ANN ,只是看起来像而已。
Nzelites
1 天前
@catazshadow 我也不懂啊 坏了 我真是大模型)
catazshadow
1 天前
@Nzelites 逆否命题才是真
coefuqin
1 天前
@sillydaddy LLM 真行的话,早就和双足人形机器人双剑合璧了。另外,你怎么知道人家就没有任何知识储备?
catazshadow
1 天前
@coefuqin 可是你看,数字摆出来了这里也有这么多人还是宁愿相信“主流思路”的

世界还是一如既往的可悲
coefuqin
1 天前
@Nzelites 因为你没有那个技术能力来做到读回复和再回帖。就算是缝合 vllm ,你也没有那个水平。
chairuosen
1 天前
@catazshadow 所以呢?不正好证明这种现象是正常的么。有一群人信,另一群人不信,两边都觉得自己是对的。
大模型怎么工作的,现在都没研究明白,现在这个阶段,各种假说飞起,不正是个科研百花齐放的好时代么。你非得跳出来说你看看这些人,没研究明白就把自己当真理。有意义么
catazshadow
1 天前
@chairuosen 来来来,灵魂拷问,什么是意义?
windghoul
1 天前
我是比较同意楼主的观点,现阶段的 LLM 只是统计学的扩展。只是把已经存在的打散拼接,个人观点它还不具有创造的能力。
hewitt29
1 天前
本来就是,现在所谓的 AI ,连真正的 AI 的门槛都没有摸到
coefuqin
1 天前
ANN 里的神经元激活是线性的一次性激活,但是真正的生物神经元是脉冲多次信号值叠加刺激激活,生物神经元的种类繁多,不同的功能对应了不同形态的神经元(具体见洛利群著的神经生物学原理)。远不是 ANN 里的感知器就能攘括的。
neteroster
1 天前
看起来这里的讨论还是有点意思的,我来抛几个砖:

> 原帖:就是 6500000 亿个连接。这要多少“参数”才能完整模拟。600B 的大模型的参数量也就这个数字的千分之一。所以...

这个论证并不明确。这些连接(条件)能达到某种效果不意味着达到某种效果需要这些条件。你当然大可以拿出所谓进化论去说一些道理,不过我仍然不认为这个论证是明确的。

> 所以说现在这种被称作 AI 的东西,根本没有智能

你可以说一下至少你自己对智能的定义吗?在没有共识的情况下讨论一个概念是没有任何建设性的。

进一步的,在明确了智能定义的情况下,你能比较严格的证明一个统计学模型(或者更准确地,一个由神经网络表示的语言模型( LM ))为什么永远不可能拥有“智能”吗?

---

个人观点:人类目前对意识、智能的概念了解甚少,以至于现阶段无法对大语言模型和类似人工智能系统的“本质”和“智能性”做任何形式的断言。
zhangsimon
1 天前
“这一立方毫米的老鼠脑组织里找到了 5 亿个神经连接,人类大脑大概 1300 立方厘米,就是 1300000 立方毫米,按这个老鼠的脑子算,就是 6500000 亿个连接。”

为啥不直接计算一立方毫米的人脑组织里找到多少神经连接?
JoeDH
1 天前
现在数据量翻倍几十万亿,巨量算力,但是每次整出来的迭代模型对比上代感觉并没有突飞猛进
scaling law 已经放缓
chairuosen
1 天前
@chairuosen 意义就是对确定它到底是不是真理做出进一步实质性的帮助。规模不够,并不代表方向错误,你在这帖子用用规模还不够大反驳它,是没有说服力的,所以是没有意义的。
coefuqin
1 天前
另外,LLM 这种监督学习的产物,只是机器学习里的一个分支。我觉得 RL+snn 才是最有希望接近类脑智能的。目前的 ANN 对于时间序列的视频是无能为力的,不然为什么没见几个牛逼的视频处理的 LLM ?因为基础架构就搞不定。不管是人还是动物,都是对于视频画面的理解来感知世界的,不是文字,也不是语音。
catazshadow
1 天前
@coefuqin 至少时间维度上的行为现在这些神经网络就是完全忽视的
mwuxlcanrh
1 天前
之前 gpt 这种超大模型只有 openai 一家研究根本卖不出去,是 gpt 进化到 3.5 能力涌现价值也跟着涌现,才出圈的。而且这玩意本身就是个语言模型,做的事情就是已知 A 预测 A 后面跟着的是 SS 。

至于人脑的研究与模拟,和这个根本就不是一条路子。
catazshadow
1 天前
@chairuosen 规模不够大的意思是做不到人脑的规模,你要是懂体系结构就知道我在说什么

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://yangjunhui.monster/t/1131868

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX