本人看到不少吧里都有人大谈现在的人工智能,他们认为人类要重视,不然会被人工智能取代并且消灭。
当这些人举例的时候会拿出“有力”的证据,诸如手机-汽车自动驾驶-什么狗之流。
然而这些人的无知已经到了极致。
本世纪人工智能学家提出为何我们没有真正的人工智能,跟机器的计算能力差有关系,但是最主要的因素也是未来很难达到的就是生物情感,情感在智能的形成过程中至关重要。
比如一个孩子用手去摸龙虾,实际上这是一个学习的过程,突然孩子被夹了一下,于是他感觉万分疼痛,这段情感记忆被写进了他的大脑信息系统,当他长大以后他就很清楚龙虾不能随便摸,这就是一个很简单的智能形成过程。
又比如一头幼师看到一条毒蛇去玩弄,结果被蛇咬到,痛苦之中这段情感记忆形成了常识,成年以后狮子会自然避开毒蛇,这也是动物智能形成的过程。
很多人会说手机不是也很智能了吗?
其实这是对智能的误解,手机本质上是你在控制,手机从来不会也没能力帮你决定事情,我们已经从客观上证明了程序无法模拟智能,其实根源就是没有情感的作用,手机无非就是程序化的设备,程序只能机械的执行人类规定好的动作。如果你对着手机一通臭骂,手机会告诉你不知道你在说什么,这句话是程序设定好的,而不是手机的情感行为。
我们为何要在学校贯彻奖惩机制,这对学生形成智能至关重要,要让学生对正确和错误形成常识,成年以后情感推动下的意识会长期作用于一个人,而这个人才能在社会中扮演积极正面的作用。
反之如果从小没有奖惩机制,一个孩子干了坏事没人去惩戒,长大以后,这段情感记忆毫无压力,在没有任何后果思考的情况下就容易走偏路。
对应于人工智能非常重要,如果没有情感推动,人工智能会在学习过程中无法分辨是非,比如当人工智能看到某些战争灾难,其会做完全没有情感的思考,这种思考就类似于旁观者对受害者的思考,所以很大程度会得到错误的结论。
如果在人工智能中我们设计了情感,比如我们用武器打其让其感觉痛苦,这种情感记忆会帮助其形成常识,当其看到战争场面的时候,这种痛苦会反馈到其的处理系统中,就放佛自己处于这种痛苦中做思考,这样才能得到相对准确的结论。
量子计算机原型机已经问世,所以也许未来某天真正的具备意识的机器会出现,如果我们担心人工智能邪恶,必须重视我们对人工智能的影响,如果人工智能具备了情感而不再是木偶,那么我们的一举一动会深入到其内心,我们的正邪也会在其群体中反映,人工智能就像一面镜子,让我们一窥我们的本质,所以思考人工智能的邪恶化,倒不如多思考我们的道德。