Contents

AI和人脑的区别

Contents

规模

按照简单的假设每个突触≈1个可训练参数,人脑的参数总量大约是10^14 ~ 10^15 个参数。100万亿到1000万亿。 现阶段最大的大模型在1万亿级别,这中间还差了100~1000倍

能耗

现有的AI模型能耗比人类大脑高得多,从人脑的能耗和LLM的能耗来看,人脑的功耗约20W左右,就是一只LED灯泡的功率,而且功耗比较稳定,无论是发呆还是解决复杂问题,功耗变化幅度不大。 同等的LLM模型,GPT-4 级别(估计 ~1.8T 参数),推理功耗是数万W,每秒输出几百token。

思考媒介

LLM依赖语言来实现各种功能、推理等能力。但是人类执行很多任务的时候并不是完全依赖语言来工作。婴儿在没有学会复杂的语言时也会有一些基本的行动和行为反馈能力。所以至少大脑中还存在一些比语言更加底层的思考工具。人类的条件反射,如果有人突然挥拳迎面打过来,正常人类都会有下意识的躲避工作,这部分的逻辑目前是不依赖语言的。

学习

大模型不会持续学习。人类是一个持续学习的系统。但是机器现在无法做到持续地进化。

人类是和环境交互的过程中会持续成长的。

大模型一旦训练完成,目前看不会继续完善自己,每次对话都是全新的开始。模型的基础能力提升依赖训练,而不是须持的使用以及和环境的交互。