chatgpt、deepseek的原理是什么?

· 碎碎念

LLM,这是核心。本质上是猜词,根本不是会动“脑子”想。

LLM的底层算法确实是在“猜词”,但在足够复杂的训练下,猜词的功力越发强大,有可能涌现出了一点点智慧。要我说,人类的本质不也是一堆神经细胞在放电吗?只不过这个系统足够复杂,产生了意识,这才从0质变到了1。不然人和一只青蛙有什么区别呢?青蛙腿被拔下来,抹点酸也能被神经触发跳动呢。

再往后算力,算法不断提升,直到某一天质变,机器人产生智慧,不是没可能。

现在的模型上千亿参数,那如果上万亿,万万亿级别的参数呢,假设算力足够,模型的效果会怎么样 谁又知道呢? 而且训练模型的数据都是文本图片,这和现实世界的物理量差了无数个纬度,没法比。

另外从侧面证明下,目前的弱AI都是基于符号系统运作,并不能触及到象征界,也就是说此类符号系统需要人类当媒介来影响世界,这恰恰证明了符号系统的缺陷-低维性。