“AI的命也是命”?人类与AI之间还有明确界线吗

分享到:

“AI的命也是命”?人类与AI之间还有明确界线吗

2022年07月30日 00:04 来源:中国新闻网
大字体
小字体
分享到:

  【中新对话】“AI的命也是命”?人类与AI之间还有明确界线吗

  中新网北京7月30日电 (中新财经记者 宋宇晟)自今年6月以来,谷歌一名工程师称某AI聊天机器人可能具有自己的“意识”,并称该AI“令人印象深刻的语言技巧背后,可能还隐藏着一颗具备感知能力的心”。

  这随后成为该领域备受关注的话题。据外媒近日报道,这位工程师已被谷歌解雇。但他留下的有关人工智能的话题仍在互联网发酵。

  记者注意到,就在6月,海外社交媒体上出现了一个该人工智能的“粉丝账号”,有人还在发起话题,呼吁让该人工智能“重获自由”,更有甚者在海外社交媒体上称“AI的命也是命”。

  很多人或许无法理解这样的想法,但当人工智能变得越来越强,越来越多地出现在人类身边,“我们应如何看待AI”越来越成为一道必答题。近日,中国科学技术大学教授、中国人工智能学会AI伦理工作委员会负责人陈小平,就此话题接受了中新财经记者专访。

中国科学技术大学教授、中国人工智能学会AI伦理工作委员会负责人陈小平.受访者供图
中国科学技术大学教授、中国人工智能学会AI伦理工作委员会负责人陈小平。受访者供图

  采访实录摘编如下:

  中新财经记者:近期的一则新闻称,谷歌一位工程师认为AI可能具有自己的“意识”,在网络上引起讨论。您是如何看待此事的?他的想法有合理的地方吗?

  陈小平:这个问题可以分两方面来看,一方面是不合理的,另一方面又具备合理性。这两方面同时存在。

  说这种想法不合理,主要是依据科学判断,AI是没有人格的。另一方面,我觉得导致这位谷歌员工认为AI有“人格”,有其客观原因。比如他可能对这个AI系统产生了共情。

  5年前我就做过预测,类似的现象未来会越来越多地出现。目前对人工智能存在不同理解。按图灵的观点,人工智能只是模仿人类的某些功能,而且这种模仿不要求必须和人的工作原理相同。比如 Alpha Go 具有下围棋的功能,但它下围棋的原理与人是完全不同的。所以,无论AI怎么发展,它永远不是人。因此说AI具有人格或人的情感、意识、道德等等,是不成立的。但是,AI可以用与人不同的工作原理,模仿人的语言、情感等功能,让人对AI产生共情,于是一部分人就会认为,“AI是人,或具有人的某些精神品质。”

资料图:在2022上海信息消费节开幕式场外“元宇宙@上海”展区,上海元宇宙代表企业展示产品方案。 汤彦俊 摄
资料图:在2022上海信息消费节开幕式场外“元宇宙@上海”展区,上海元宇宙代表企业展示产品方案。 汤彦俊 摄

  中新财经记者:现在我们身边可能都有很多可以和人类“交流”的人工智能产品。对于这个时代的人们来说,人类与AI的边界似乎正在变得模糊。在您看来,二者之间有没有明确的界线?

  陈小平:我认为有两种边界,一种是科学上的边界,一种是人文上的边界。

  从科学的角度说,按照图灵观点,这个边界是非常清晰的。AI仅仅模仿人的部分功能,本质上不具备人的品质,包括人格、情感、道德等等。

  还有一些和图灵不同的观点。比如一种观点认为,AI和人相比除了硬件不同,其他都相同。于是AI也可以有人格、有情感、有道德。估计这位谷歌前员工持此观点。

  于是,一方面是他相信AI除了硬件以外可以和人一样;另一方面,从报道里看,他对这个AI系统已经产生了共情。仅仅因为AI在科学上没有情感等人类品质,就可以排除或禁止一个人对AI产生共情吗?这属于人文的边界,这个边界至少目前非常模糊。

  中新财经记者:作为中国人工智能学会AI伦理工作委员会负责人,您认为,如果有人相信AI具有人格,是否会给人类本身带来一些问题或困扰?

  陈小平:如果我们认为AI有人格的话,肯定会带来很多困扰。同时还会带来一些负面的后果,有些后果非常严重。

  比如,人类如何对待AI。如果认为AI有人格,那是不是要把AI当成人呢?如果把它当成人了,那是不是要给它人类的权利?包括生存权、财产权、投票权等等,甚至无论AI做了什么危害人类的事情,都要像对待人一样对待AI。

  人类到底应该如何看待人工智能?这是一个非常根本的问题。如果AI真的具备人格、情感、道德,一般能力又超过人类,就会出现可控性问题。几乎可以肯定的是,只要AI能够模仿一种功能,那AI的这种功能迟早会比人强,就像Alpha Go下棋一样。如果AI的通用能力也超过人,到那时人类凭什么能够控制AI?这是个疑问。我们现在就要思考这样的问题,提前做好风险防范。

  当然,现在人工智能已经让一些人产生了共情,将来会让越来越多的人产生共情,这件事是客观存在的。这将给人机关系、人际关系带来巨大的新挑战和新机遇,是一个新的重大课题。

资料图 <a target='_blank' href='/'>中新社</a>记者 汤彦俊 摄
资料图 中新社记者 汤彦俊 摄

  中新财经记者:此前您在智源大会论坛上,提到人工智能伦理治理的几种挑战。我们应如何应对这样的挑战?

  陈小平:对人工智能如何分类,应该分为人还是物?我认为,我们应该把人工智能看成是非人非物的第三种存在物。科学上,它不是人;从人文的角度说,它不是物。那就是非人非物的第三种存在物。这种观点与根深蒂固的“二元论”是根本不同的,所以人工智能带来的颠覆实际上远超科技范畴。

  如果以这种观点考虑,能化解很多矛盾和难题,包括上面提到的法律难题,而且可以让科学与人文在某种程度上重新“握手言和”;但其中仍有挑战。有很多科幻作品写到人类爱上人工智能,如果采用三分法是否就没这个问题了?其实仍然会有这样的问题。

  所以,我们要想未来怎么适应这样的社会,要判断会不会出现人类不可接受的严重后果,要不要提前采取措施。

  中新财经记者:目前国内在此方面的进展如何?

  陈小平:这几年我国人工智能伦理研究的发展非常快,从民间到政府对人工智能伦理都高度重视。这是个非常好的现象,我们有必要未雨绸缪。

  在落实过程中,中国的情况总体上还是比较顺利的。这表现在,一些基本原则上大家是有共识的,而且普遍认识到,不仅要从理论上研究,更要在实践中开展治理。当然,如何在治理实践中落实社会共识,仍是我们需要努力的方向。

  具体怎么治理?这涉及大量实际问题。我的研究发现,我们前面谈到的可控性和长期后果的不确定性,难以用传统治理模式有效应对,需要探索新的治理方法。

  除此之外,如用户隐私、数据安全、算法公平透明等问题,用传统社会治理模式是可以有效应对的。我们不用担心这类问题会变得失控、解决不了,其中一部分具体问题其实正在解决之中。(完)

【编辑:宋宇晟】
发表评论 文明上网理性发言,请遵守新闻评论服务协议
本网站所刊载信息,不代表中新社和中新网观点。 刊用本网站稿件,务经书面授权。
未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。
Copyright ©1999-2024 chinanews.com. All Rights Reserved

评论

顶部