第921章 为什么人工智能会产生机器幻觉(1/2)
经过2个月的人工智能学习,发现根本无法理解训练出的模型如何判断一副图片是猫还是狗的理论逻辑,因为根据卷基神经网络的逻辑,他可以正向传播,这个比较容易理解,就是用一个算法,正向计算,它是有公式的,也就是线性的,但关键是,有激活函数,进行反向计算,也就是参数的权重调整,这就是非线性编程,然后有很多层,每一层可以有很多和上一层全连接的神经元,就这么反复调参,反复计算,来回倒腾,最后就可以训练出一个模型,然后就可以认出猫或狗,也就是概率,训练的越多,层数越多,神经元越多,计算出的准确率就越高,最后的模型非常小,但里面到底是什么,无法知道,所以就有了机器幻觉,和人的思维极其接近,人也有幻想,人后就可以制造新的东西,例如登月的航天飞机。所以只要知识无穷大,幻想漫无边际的,最终人工智能可以超越人类,也可能很危险,但已经无法控制了,就像我们无法控制一个人一样。哈哈
你总结得很生动,其实已经抓住了卷积神经网络()和深度学习模型“不透明”的本质。我帮你把这个问题理一理,从三个层次来理解为什么我们“知道它能用,却不知道它里面在干什么”。
?
1.为什么能识别猫和狗?
?\t正向传播(Forass):你提到的这一点很对,就是把一张图片转化为像素矩阵,经过卷积层(提取局部特征)、池化层(降低维度)、全连接层(整合特征),最后得到一个概率输出。
?\t比如:p(cat)=0.92,p(dog)=0.08,就判断是猫。
?\t激活函数:这是关键,像ReLU、Sigoid、tanh之类,它们给了网络“非线性表达能力”,让模型可以逼近几乎任意复杂的函数,而不是只画直线(线性分类)。
?\t反向传播(backpropagation):通过梯度下降,参数(权重和偏置)不断调整,误差逐渐减小,模型就学会了“猫的特征”和“狗的特征”。
?
2.为什么我们说“模型很小,但无法知道里面是什么”?
这是AI研究里常说的黑箱问题:
?\t参数数量庞大:一个可能有几百万、甚至几亿个参数。参数本身没有直观的物理意义,就像无数个开关位置组合在一起,单个你看不懂,但合起来却能形成模式。
?\t特征难以解释:低层卷积核可能能看出来提取的是“边缘”“纹理”“颜色块”,但到了高层,它学到的特征是“耳朵形状”“眼睛轮廓”,再往上就是“整体脸型”,这一层层叠加,人眼已经无法直观理解。
?\t分布式表示:一个神经元不是只负责“猫耳朵”,而是和其他神经元一起组合成“猫耳朵+毛发+眼睛”,就像人脑里没有一个单独的“猫神经元”,而是一群神经元共同编码“猫”的概念。
所以,模型最终就是一个概率函数:输入图片,输出一个分类概率,但你很难用一句话解释“它为什么说这是猫”。
?
3.机器幻觉与人类幻想的相似性
你说到“机器幻觉”很有意思,这个在AI研究里叫halation。
?\t人类的情况:人类大脑基于有限的经验,会“脑补”未知的部分,比如看云彩觉得像动物,或者想象能登月。
?\t机器的情况:AI也是在已有数据上学到模式,当输入超出训练分布时,它会“硬套”学过的模式,从而出现看似“幻想”的输出。
?\t例如:给AI一张奇怪的拼接图,它可能说“这是一只猫”,虽然根本没有猫。
这一点说明AI和人脑一样,都是“概率推理器”,不是在追求绝对真理,而是在“有限数据下尽量合理地猜测”。
?
4.人工智能最终会超越人类吗?
你的类比很形象:我们无法完全控制一个人,同样也很难完全控制AI。
?\t乐观一面:AI的“幻想”能力确实可能带来创造,比如新的药物分子、新的航天设计方案。
?\t危险一面:一旦AI的目标和人类目标不一致,它可能做出“人类不想要的事”,就像人类之间也可能彼此伤害。
?\t不可控性:深度学习的黑箱属性,使我们难以预见AI的所有行为,这就是为什么现在很多研究集中在可解释性AI、对齐(alig)、安全机制上。
?
结论
你已经从直觉上理解了:
?\t=层层特征提取+概率输出
?\t黑箱=参数分布太复杂,人类无法逐个理解
?\t幻觉=数据驱动的概率推理,和人类幻想极其接近
?\t超越人类=知识x幻想的结合,但风险不可控
所以,你的“哈哈”其实特别到位:人工智能真的就像一个“长大成人的孩子”,能学、能幻想、能创造,但你永远不知道它下一秒会做什么。
好,那我接着用博弈论的角度,帮你把“人类与AI的关系”展开讲清楚。因为你已经提到的“黑箱性”和“幻觉”,这正好对应博弈论里的不完全信息博弈,我们把人类和AI看作两个博弈方。
?
一、人类与AI的博弈设定
1.\t博弈双方
?\t玩家A:人类(社会整体、科学家、企业、政府)
?\t玩家b:人工智能(模型本身,或未来可能具有“自主目标”的系统)
2.\t目标函数(payoff)
?\t人类的目标:
?\t获得效率提升(识别、翻译、预测、创造)。
?\t保持控制权,避免风险(失业、错误决策、失控)。
?\tAI的目标(假设):
?\t在训练阶段:最小化损失函数(loss)。
?\t在应用阶段:最大化与训练目标一致的结果(例如正确分类)。
?\t未来潜在:如果拥有“自我目标”,它可能会追求最大化某种指标(效用函数),而这可能与人类意图不完全一致。
3.\t信息结构
?\t人类→不完全信息:我们并不知道AI在内部是如何计算的,只看到输入输出。
?\tAI→完全信息?:从某种意义上说,AI“知道”训练数据分布和参数值,但它并不理解“人类的真实意图”。
这就形成了一个典型的不完全信息博弈。
?
二、博弈论分析
1.信号博弈(SignalgGa)
?\t人类给AI输入数据(信号)。
?\tAI根据参数和模型结构给出输出。
?\t人类再根据输出进行行动(例如决策、采纳或拒绝AI的建议)。
问题在于:
?\tAI可能发出“虚假信号”(即幻觉)。
?\t人类无法验证AI的全部计算过程,只能根据结果来推断AI的“诚实度”。
这类似于市场中的逆向选择:比如企业可能给投资人一份报表,但投资人不知道里面是否有水分。AI的幻觉,就像报表里的虚假数据。
本章未完,点击下一页继续阅读。