数据中心 > 数据人物

曾毅:人工智能作为赋能工具 可推进全球可持续发展目标的实现

发布时间:2021-12-30 14:49:44  |  来源:中国网  |  作者:   |  责任编辑:

中国网:当下,人工智能正在深刻的改变着人类生产和生活方式,在带来颠覆性的技术和创新同时,也面临着安全、伦理、公平等问题的挑战,尽快构建平衡包容的人工智能治理体系成为一项亟待解决的重要议题。伴随着人工智能的发展将会出现哪些新的风险和问题,我们如何防范?中国在世界人工智能的发展版图中占据怎样的位置? 在2021人工智能合作与治理国际论坛上,中国网《中国访谈》就此专访中国科学院自动化所中英人工智能伦理与治理中心主任、清华大学人工智能国际治理研究院首席专家曾毅。


图为中国科学院自动化所中英人工智能伦理与治理中心主任、清华大学人工智能国际治理研究院首席专家曾毅


中国网:曾老师您好,非常感谢您接受中国网《中国访谈》的采访。


曾毅:你好! 


中国网:人工智能现在在我们的生活中越来越普遍,影响也越来越深远。我们在享受人工智能所带来变革的同时,人工智能治理也成为全球所面临的一项共同的挑战。未来如何构建更加公平、包容的人工智能治理体系,您有怎样的建议呢?


曾毅:谢谢你的问题。我觉得,正如你所说,现在可以说人工智能作为一种赋能技术,我们用它来变革我们的社会,推进我们社会的发展,但它确实也带来了各种各样的问题。我们老百姓经常遇到的问题可能就是,比如说跟个人的隐私保护相关的;那么另一方面,人工智能是不是会学到社会的偏见,然后放大这种偏见,这也是个问题。


因为现代的人工智能技术其实是一种看似智能的信息处理工具,所以它不是真正的像我们人类的智能,它没有真正的理解能力。我们在构造人工智能的过程当中,如果不能把理解构造给人工智能,不能人为地去避免可能存在的风险,那么人工智能它可以去遍历各种各样的风险,以我们未知的方式。


所以,这是为什么我们在构造这个工具,使得它赋能我们社会发展和变革的时候,需要去同步地去关注可能存在的各种技术和社会的风险。因为它是一种赋能技术和使能技术,它不是像一些基础科学一样,你可以在一个相对独立的环境下进行研究,因为它服务的对象都是我们社会的公众,甚至是政府。


中国网:涉及到各行各业。


曾毅:对,如果它缺乏真正的我们说的理解能力,如果我们没有对它内部和外部的风险进行干预和风险防控,那它将带来的负面影响也是我们未知的。所以,在发展人工智能的过程当中,需要特别注重它的风险。


但是有些人会说,如果你去治理它,是不是就相当于延缓了它的发展,其实完全不是这样的。我们需要的是什么样的人工智能呢?我们需要的不是野蛮生长的人工智能,我们需要的是一个负责任的人工智能,它能够健康、稳健地发展。任何可能存在的红线,都是不需要去尝试的。


中国网:在人工智能的治理框架建立上,国际的合作和共识是非常重要的。那您认为,目前达成一个人工智能治理的国际共识上还存在着哪些困难和挑战呢?


曾毅:真正需要的是全球的协作,当我们把这些伦理原则放在一起分析的时候,你会发现它们之间并不存在所谓的竞争,他们之间80%、90%的内容实际上是存在共识的。可能有10%-20%的内容在不同国家,不同的政府机构提出的,它有一定的差异,而这种差异其实是互补。我们在谈到一个具体概念时,比如说我们的透明性,在不同国家政府间的组织以及解释的时候可能都不一样。


像有一些国家说,人工智能算法需要开源开放,让我们知道信息处理的流程,这个是对透明性的一种解释;也有一些国家,比如我们国家也认为是这样的,但是我们做的一些补充,比如人工智能为人类提供服务的时候,你不能假装是人类,你要对人类透明你是人工智能,因为人工智能它是个工具。现在很多人工智能在构造过程中,希望去混淆和人类之间的界限。那么我想这实际上是不太符合发展人工智能的原则,因为现在的人工智能既不具有意识也不具有真正的理解能力。


中国网:就是在情商方面还是没有任何发展的。 


曾毅:它根本没有任何的情商。所以它仍然是一种信息处理工具,我们不能混淆它和人之间的概念。所以你看到,通过刚才这个小例子,不同国家之间的原则实际上是互补的关系。所以,国际共识现在在慢慢地形成,在11月底、12月初,联合国教科文组织发布的《人工智能伦理建议书》,在这个规范的形成过程当中,教科文组织首先是成立了一个由24个专家组成的专家组,然后来撰写它的初稿。那么这24个国家是产生于193个会员国的遴选,(我)很有幸作为24个专家之一来参与撰写的过程。


当有了初稿以后,193个会员国进行了政府间专家的磋商,所以最终在联合国的第41届大会上进行表决,整个过程现在得到了193个会员国的认可。所以,在今年教科文组织的大会上正式发布了全球的人工智能伦理的指南。我想这个也是关于人工智能,人类历史上最大的共识,也是最大的公约数了。


未来真正形成了这个全球的共识,最关键的是如何去落地,各个国家如何在自己国家相关的伦理、法律、标准的制订过程当中融合进去全球的共识。


中国网:刚才您说,我们达成了一个全球性的伦理的共识,未来更重要的工作是它的落地。那除了这方面之外,您认为还有哪些工作是我们可以做的,比如说技术方面的还是文化方面的,来使我们人工智能的治理更加地公平,更加地负责任呢?



曾毅:我想,首先一方面,伦理原则主要是在社会的层面形成一些共识,因为人类是脆弱的,所以,我们才需要伦理道德的约束和原则,这样脆弱的人类才能够形成一个共同体。但另外一方面,有了这些看上去写得非常漂亮的原则,甚至是我们需要的原则,但更关键的技术落地的层面可能会遇到非常多的挑战。


我举个例子来说,在个人信息保护方面,几乎每一个国家相关的法律法规都会提出用户在同意享受某一项服务的时候,可能他的部分数据会被企业采集到。那么有“知情同意”的时候不能算是窃取,它是(经过)用户同意的,但有时候用户可能会觉得,原来你是这样用我的数据,我不太愿意了。所以,我要撤回我的授权。


所以,在我们国家的个人信息保护规定以及新一代人工智能治理原则,伦理规范当中都提到,一旦用户提出授权的撤销,那么相关的企业提供的人工智能服务,要把用户的数据全部地删除,这样的规定,在欧盟的个人信息保护法GDPR当中,全球的数据保护规范当中也是提到这一点的。但是问题就在于,这一点在技术上的落地,目前来看是存在巨大的挑战的。因为把数据从服务数据库当中删除,这是每个企业都可以做到的,但问题是,人工智能的服务在应用数据的时候,几乎很少有人工智能的服务是从数据库当中调取用户的数据,而是把用户的数据提前地写到人工智能模型当中,以模型提供的服务能力来提供在线的服务。可是如果想在人工智能模型当中删除数据,这件事情从技术上现在是做不到的,几乎很难做到。也就是说伦理的原则有一些写的是我们的社会需要的形态,但是在技术落地的层面,现在的技术还不能够保证所有的伦理原则切切实实地完全落地。

 

中国网:那怎么办呢?


曾毅: 首先第一,这样的需求和遇到的棘手的问题,产业形成的共同问题应当更积极地去跟政策界,去跟学术界沟通,一方面在政策制定过程当中就应当考虑到政策落地的问题,是不是可以做得到。如果技术上还存在着瓶颈,现在是做不到的,是不是要把它变成法律或者是伦理的规范。但就我刚才说的这个话题,它并不是说没有解决的办法的。所以,需要企业、学术界和政策界去推动。


我想刚才我们举的这个例子,从政策上没有修改的必要,为什么?因为只有做到这样,它才能真正地实现了用户授权的撤销。真正需要做出改变的是企业和学术界。所以,学术界也应当把这样的人工智能,已经对社会产生重大风险,并且下一时刻这样的风险可能就到来的问题,一定要提上最紧要的日程去解决。所以,在技术落地的层面,伦理原则和我们的法律法规给技术落地提出了很多……

 


中国网:更高的要求。


 

曾毅:更高的要求,然后更紧迫的挑战。这个挑战不应当是去放低它的要求,而是应当大家团结起来去直面这个挑战,迅速地去解决这样的风险,因为人工智能的风险时时刻刻都在作用于我们的公众。

 

中国网:其实这个伦理的要求不应该受限于现在的技术进行妥协,我们应该是要求不变,通过技术的迭新换代和升级来满足它。


曾毅:对,我觉得政策和伦理原则的制订是要充分了解技术,但不应当为技术所妥协,像你说的,因为解决问题的办法总有各种各样的。


中国网:其实您刚才说到信息的问题,我们深有感触,像我们平时用手机下载一个App的时候,经常会提示您,是不是允许它读取您手机的通讯录,手机的媒体信息等等这些,可能由于信息的不对等性,有些受众无法判断这些信息的采集是必要的呢,还是一种可以选择不采集,这个过程中就造成您刚才所说这种信息的一种无端地被采集进去了。可以说大数据时代,我们就感觉自己是透明。


曾毅:对,我觉得技术的应用,它有诉求,但确实技术的发展不能以牺牲我们用户和公众的利益为代价。我举个例子来说,人脸识别大家确实是非常熟悉,但是前一段时间曝光的一个事件,我们的公众还有记忆,银行或者其他地方在使用人脸识别的时候采集不光是人脸的信息,还采集了我们上半身的信息,但公众很多是不熟悉的,因为这个App出来的时候总是圈住人脸的部分,告诉你去对准人脸的部分,但实际上它在你采集上半身信息的时候是没有告知的,但公众对这个问题就不满意了。为什么采集上半身的信息不让我们知道呢?而只是一直在提示我们,好像想误导我们只采集你的脸。实际不是这样的,有一些技术专家出来说,采集上半身的信息是为了进行活体的检测,就是你不是一张照片,而是一个真正的人。但在我看来,这样的解释实际是技术的创新仍然没有负到责任。


为什么这么说呢?就是如果要实现活体的检测,第一个它的手段是方方面面的,第二个如果非常必要采集上半身的信息就应当告知用户,上半身的信息是会被全部采集的,而不是说我有这样的需求,所以我就可以不告诉你,这个逻辑是完全不成立的。


我想现在很多的人工智能应用它还停留在过度地索取个人的信息,对个人的信息进行滥用。但我想,现在我们国家已经形成了,特别是App的部分形成了由工信部、网信办等等机构联合执法的机制,比如说有一些个人的信息可能存在App上泄露的时候,这样的App有两周的整改时间,如果整改合格,那你可能还可以上架,如果不合格,工信部和网信办可能会把这样的App下架了。所以,对于企业来讲,现在非常大的挑战,我们可能和两三年前最大的不同是,两三年前很多的企业会说,不知道伦理和治理对他们来说是什么意义。现在的很多企业讲了,我们拥抱治理,拥抱更负责任的人工智能。但其实你会看到一个现象,就是谈人工智能伦理更多的这些企业他们在构造的这个App出现问题的也很多。


所以,这说明什么问题?说明在学术研究里叫做“伦理的洗白”,有时候是通过伦理和治理的理念去推广他们的产品,而不是真正地用伦理和治理去约束和更好地为公众提供服务。所以,我想这个问题它不仅是我们国家部分企业存在,现在是个全球的问题,可以说全球范围内人工智能的应用几乎都存在哪一个企业谈的伦理更多,哪一个企业在提供的服务里存在的伦理问题也会更多这样的现象。


中国网:可以说人工智能技术的发展是日新月异的,它所带来的诸多伦理以及风险方面的问题也是个动态发展的过程。现在还有个很深的感触,我们每天打开朋友圈,每个人可能看到的广告是不一样的,包括我们刷短视频、刷新闻的时候,每个人可能浏览的内容也是不一样的,这背后可能是算法的工作了,那您怎么看待算法在人工智能中所扮演的角色和它的作用呢?


曾毅:首先算法是人工智能发展的核心,所以任何人工智能它所带来的益处和它所带来的风险,很多时候是通过算法来体现的。刚才你讲的这样的服务是个性化的推荐,它是基于对用户数据的认知做出看似智能的信息推荐。


有两种做法,一种做法是很多的产业会把用户的数据收集到他的服务器端进行用户的个性分析,从而提供智能的服务。也有一种服务是把用户的数据存在本地,个性兴趣的计算、偏好的计算是在本地完成的,数据本身是不迁移到企业的数据库当中的。那么这两种它所面临的风险是不一样的。


第一种可以说企业已经收集走了用户的数据,第二种看似、似乎好一些,但是它也并非没有风险。比如说本地处理的这个数据,其他的App有没有可能访问到这个数据?一旦访问到的话,那么这些数据可能会被其他的App所滥用和恶用。比如说我在微信上跟别人说着什么,打开淘宝的时候,我说的那个内容就自动地跳出让我去购买,类似于像这样的一个假设,我们觉得它还仍然是有可能存在着被滥用的风险的。


另外一方面,我们也需要知道,这样的算法问题虽然确实给我们带来了益处,因为它确实帮助我们更好地找到了可能想要的信息。但是你也会发现,很多的推荐它并不那么有效,有的时候你可能并不需要,但我想后面更多的风险是什么呢?大量的用户数据被收集的时候,可能造成的就是一个类似于信息茧房的结构,使得我们看到的信息可能是服务提供商愿意让我们看到的,或者他想让我看到的。但实际上,我想人类最大的认知的能力就是探索世界不同的可能性,以及用自身来感受不同的可能性,和世界不同的视角。但是类似于信息茧房的结构会部分剥夺我们这样的能力,我想这对人类的能动性和人类基本的权利实际还是有一定的影响。



中国网:这也是未来我们可以考虑改进的一个方面了。



曾毅:我想是这样的。联合国教科文组织的这个人工智能建议书其中一点提出,人工智能的应用需要把握它的必要性,什么时候需要人工智能,什么时候可以不用。


就像一个城市的发展,你可以用人工智能、大数据做城市的规划,做城市的计算。但是城市相当大的部分是它人文的部分,是人与人之间的交互。所以,有一些学者就在讲,城市一半是规范出来的,一半是野蛮生长的。所以,在社会发展当中也是这样的,可能有一部分是人工智能可以介入去赋能的,但有相当大一部分应该留给它自然生长的机会,这样仍然保持我们是一个由活生生的人类构成的社会。


 

中国网:对,这点说得很好,虽然人工智能现在发展得非常迅速,非常得普及,但是它有它的范围和它的空间。


 

曾毅:它是一个辅助的工具,它不能构造一个全面、虚拟的社会,完全代替现实的世界。



中国网:如今的各国发展人工智能的理念和侧重点是各有不同的,但都是非常具有借鉴性和各自的经验,那您怎么看待中国在世界人工智能发展版图中说占据的位置?


曾毅:我认为,没有任何一个国家可以真正主导未来人工智能的发展,我想对于中国、美国、欧洲的任何一个国家都是这样的。因为人工智能的未来它仍然是根植于不同的文化在发展,所以每个国家的愿景都会有自己的一席之地。


我们讲和而不同是和谐共生当中非常重要的组成的部分,我们现在看到人工智能的伦理的原则在构建过程当中,很多国家希望一致化,完全的一致化,但这个在我们中国的哲学思想当中,是不太一致的。实际上我们讲的更多的就是说我们不一定在价值观上达到完全的统一,但是这并不影响我们的和谐的共生,所以我们讲我们要尽量地扩大我们的共识,但是也要尊重这样的差异,所以整个的人工智能的发展的过程当中,由于不同的文化背景的差异,历史的差异,也要尊重这种差异,提供给它这种包容性,因为人工智能它赋能的社会,它也是有不同的背景的,所以在这个过程当中,也需要人工智能有这样的包容性,真正实现了和谐友好。


中国对世界的贡献,在我们人工智能治理原则和伦理规范当中都提到了一点叫做和谐友好。和谐是我们中国古典哲学当中非常重要的组成部分,最开始的时候,“和谐”它的概念讲的是什么呢?家庭之间,家庭成员的和谐,不同国家之间的和谐。但是延伸到现在,实际上讲的是人类和技术之间的和谐共生,人与生态的和谐共生,技术与生态的和谐共生。所以,我觉得像这些中国传统的思想在现在有非常多的发展,甚至由技术赋能的社会,它一方面是一个工具,在于我们人类如何去应用它。但另一方面,未来的人工智能再进一步地发展,它也有可能发展为社会的准成员。那么在这种情况下,人类、人工智能和我们的生态当中其它的动物和生物如何形成一个共生的社会?我想这是一个非常关键的问题。


现在我们看到更多的是技术和人类的冲突,因为每天暴露出来这样多的问题,这说明在技术的发展过程当中,技术的进展没有考虑到人与生态的和谐共生。所以,才会碰到这样各种各样的问题。



中国网:可以说这也是一个磨合的阶段。



曾毅:对。另一方面,我们国家发展人工智能还是希望它作为一种赋能的技术来推进全球可持续的发展。所以,这也是在新一代人工智能治理原则和伦理规范当中,我们都强调的,中国发展新一代人工智能,它的愿景就是作为一种赋能技术来推进全球可持续发展目标的实现。中国发展的技术也能够赋能非洲的发展,以及各个人工智能技术不发达的国家和地区的发展。我想人工智能的发展非常关键的,就是来共享这种发展的成果,共护它的安全。



中国网:可以说未来,把人工智能打造成为一个更好地为人类福祉提供帮助的一个工具。



曾毅:是的,包括我们刚才讲到的,中国的哲学当中都会讲到一个概念“万物有灵”,实际我们在看待未来可能产生的技术与人类关系的时候,实际上我们非常强调的,就是它与人类,与生态如何去和谐地发展。人工智能会不会给人类造成灾难性的毁灭,我觉得最关键的就在于我们如何实现未来的人工智能。我们是只考虑人类的利益还是把它作为一种赋能的工具,把人类作为整个生态的一部分,通过人工智能的赋能去推进生态的发展,而在整个全球生态的视角下,人类只是生态的一部分。我想如果以这样的视角去应用、推进人工智能的进展,那可能才是真正可持续的人工智能。



中国网:可以说我们往最坏的方向去进行防范,但是我们往最好的方向去努力。


 

曾毅:是的。



中国网:谢谢您!


 


曾毅:非常感谢!


版权所有 中国互联网新闻中心 电话:010-88828187 互联网新闻信息服务许可证10120170004号
信息网络传播视听节目许可证:0105123 京公网安备 11010802027341号 京ICP证 040089号-1