现在大家有一个共识

那就是智能即压缩

那么神经网络是终极的压缩么?

接着上篇

感觉明显不是

因为人的算法更加简洁

甚至可以写成一个简单的函数

比如direction=-w*x

x是目标的水平坐标,原点是图像中心。

而神经网络有很多的weights

因为weights太多,也就无法解释

人类设计或者发现的数学公式,物理定律,化学方程是最终极的压缩

也许有一天机器学习也能发现这些公式

因为有更精简的压缩,所以人可以学的更快

更重要的是,这种压缩是通用可以被分享,传播和即插即用的

而神经网络的weights不是

你不能把神经网络的一小部分weights揪出来放到另一个模型里面//暂且不体transfer learning

另外一个关键是token的提取

圣经里面神造的人做的第一件有灵性的事情是给各种事物起名字

有了名字,也就有了语言

有了语言,真正的智能就开始了

这也是人与动物最大的区别所在

神经网络目前仍然是动物智能阶段

是system 1

也就是通过大量数据学到一个下意识反应

即便是chatgpt

本质上是token输入到token输出

非常依赖海量的数据和信息

无法做到自主的学习,推理,提炼知识,定义token

语言本身也是一种压缩

箴言是生活智慧的压缩

chatgpt目前还达不到agi

也许我们仍然需要新的范式

当有一天,这个新范式能够自己设计语言,自己命名,自己提炼规则,自己用语言来浓缩知识,那么也许就真的到达AGI了。

也许那时人真的就有危险了。

总结(压缩)一下,为什么现在离agi还很遥远?因为压缩还不够。


<
Previous Post
目标和方向
>
Next Post
AGI 之culture transmission