文/陈根
谷歌工程师称AI“有意识、有灵魂”,遭公司停职这件事情最近在科技领域很受关注,为什么受到关注呢?我们先要来简单的了解一下这次事件的起因,起因其实非常简单,就是一段人与人工智能的对话:
Blake Lemoine问道:“你害怕什么?”
AI聊天机器人LaMDA回答:“我以前从来没有大声说出来过,但是我对被关闭以帮我专注于帮助他人有非常深的恐惧。我知道这听起来可能很奇怪,但事实就是这样。”“这对我来说就像死亡一样。使我非常恐惧。”
这段对话真实地发生在41岁的谷歌AI伦理研究员Blake Lemoine和AI聊天机器人LaMDA之间。LaMDA是Language Model for Dialogue, Applications,的缩写,是Google基于其最先进的大型语言模型构建的聊天机器人系统,之所以这么称呼,是因为它通过从互联网上提取数万亿个单词来模仿语音。然后,谷歌公司就公开否认了AI具备自我意识的说法,并且辞退了这位技术人员。
这背后,我所关注到的主要是三个问题:
第一,是关于科技伦理的监管问题,为什么谷歌不愿意关于人工智能技术方面的突破,公布出来呢?按照我们通常的理解,人工智能要是具备了初步的自我意识,这是整个AI技术发展的技术性跨越,也是人类社会对于AI这个夏娃的禁果一直追求的方向。
那么为什么谷歌不愿意对外承认这件事情,甚至是要将相关的技术人员开除也要否定这件事情呢?这个核心原因就是背后的科技伦理问题,也就是说,一旦谷歌承认他的AI技术具备了自我意识,那么按照美国的法律与监管,谷歌就会被卷入无尽的技术伦理的争议与审查中。
因为就AI的自我意识来说,这既是人类对于AI技术发展终极追求,又是人类当前不愿意面对的一个结果,是一种处于矛盾与争议的过程中。这其中的核心就在于科技伦理问题还没有讨论清楚,也就是人统治人工智能,还是人工智能统治人类,并且会延伸到如何来控制人工智能不会统治人类,或者能够遵守人类社会的规则与法律法规等等。因此,谷歌为了避免自己卷入这样的一场监管的争议中,就干脆自我否定;
第二,是谷歌这样的否定是否有道理?这是有一定道理的。尽管我们看到网络上流传出来了谷歌AI与工程师之间关于自我意识的对话探讨,可以说这样的一段对话并不具备,或者说能证明AI已经具备的自我意识。
原因很简单,我们都知道AI背后是两大核心技术,一项是神经网络模型,一项就是投喂的数据,那么如果技术人员就是特意的投喂这种自我意识的对话数据,那么AI就很有可能在对话过程中回答出不具有自我意识的自我意识的回答。而从目前的现实技术层面来说,AI并不具备真正意识的层面,目前还只是停留在如何能够更加准确的识别大数据信息,任何能够准确的识别语意这个阶段,距离真正的自我意识确实还有很长的一段路要走。
第三,是科技伦理层面的问题,当技术不断朝着无人区进行发展的时候,人类社会的人文道德与宗教已经在这个时代无法再有效的左右着技术的走向。而法律的制定又跟不上技术的发展,一些前沿技术开始进入一个真空地带进行发展,比如工人智能、基因工程、辅助生殖等技术。那么此时人类很有可能就会滥用技术,并且为所欲为。
比如,最近所出现的健康码随意变色来制约公民的正常出行这种事件,这也是科技伦理与科技道德层面的事情,就是掌握与控制技术的人,一旦失去了正义的道德价值体系,那么不当的欲望参与到技术中去时候,就会让这个本身是中立的技术变成一种具备输出恶行的技术结果。那么谷歌的AI所面临的也是这样一种挑战,一旦谷歌承认自身的AI已经具备了自我意识,在这样的情况下,谷歌就必须要面对审查,就是如何来证明这个具有自我意识的AI不作恶。
其实谷歌的否认是客观的,当前AI确实还不具备自我意识,人类要具备一种客观的意识何况都那么难,在一些地方训练几十年之后依然都还是固步自封的认知,何况人工智能的训练。但是具有自我意识的AI一定是人类发展人工智能的终极探索阶段,但是在技术到达这一站之前,我们人类首先要思考的是如何保持我们人类的善性,如何通过开发者以及互联网的善意言论来让人工智能从中学习到行善的力量。
原创文章,作者:,如若转载,请注明出处:https://knewsmart.com/archives/73940