中科院自动化所研究员曾毅::多方人工智能伦理准则须做好协同
4月,欧盟委员会发布人工智能伦理准则,并宣布同时启动该准则的试行阶段,并邀请企业、研究机构等对这一准则进行测试。
人工智能发展的数十年间,经历了多次起起伏伏。到今天,人们对深度学习、大数据、通用人工智能带来的成果期许有加。
“但仍然需要有人察觉,这些技术中黑暗的一面”,在4月20日由中国社会科学院科学技术和社会研究中心举办的人工智能的社会、伦理与未来研究研讨会上,美国技术哲学家卡尔·米切姆引用了莎士比亚在《威尼斯商人》中的一句话:闪光之物,未必是金。以提醒人们发展人工智能技术时,可能面对的伦理挑战。
值得庆幸的是,人工智能的研究者已经开始与人文领域深度融合。
“2018年开始,我们在中国科学院大学就面向人工智能和计算机科学的研究生开设了《人工智能哲学与伦理》课程。据我了解,今年北京大学、浙江大学、西安交通大学等高校也将逐步开始设置人工智能伦理相关的课程。”中国科学院自动化研究所研究员曾毅在报告时指出。
曾毅还指出,迄今为止,目前由国家地区的政府、非政府组织及研究机构和产业颁布的人工智能伦理准则提案已经超过40个。
但不同的准则涉及到的议题视角各不相同。曾毅告诉《中国科学报》,其研究团队对这些提案进行梳理,但“没有任何一个提案可以覆盖其他提案超过65%的议题”。
曾毅研究团队主要从事类脑人工智能的研究。对人工智能研究长远发展的思考让他感到对人工智能风险、安全与伦理的思考急需进行算法化、模型化落地,从而确保人工智能向对社会有益的方向发展。
“技术发展会对伦理准则提出新的要求。由于文化、地域、领域的差异,“大一统”的准则提案不但很难做到,而且没有必要。因此,不同国家、组织之间伦理准则如何协同很重要”,曾毅还指出,“这些准则如何进行技术落地、经受社会检验,再不断迭代完善,是未来要面临的更有意义的问题”。
在当前对人工智能伦理的讨论中,还有一些问题亟待解决。
曾毅在报告中提到,“由于设计缺陷,现阶段的很多人工智能模型,更关心如何获得最大的计算奖励,但忽略了对环境和社会造成的潜在隐患”。
以强化学习模型为例,模型中会设计一个奖励函数,以帮助模型在与环境交互过程中通过获得尽可能多的奖赏进行学习,但如果奖励函数设置不合理,为了完成任务,很可能会忽略掉对周围环境和其他智能体的影响,并产生不可逆的后果。
“目前绝大多数的人工智能没有自我的核心,不能够区分自我和他人。而人类的涉身经验、对外部事物的揣测,是建立在自我经验的基础之上的。”曾毅告诉记者。对自我的计算建模也是当前人工智能领域的一个关键研究问题,“具有一定程度自我感知能力的人工智能模型将从本质上更利于自主学习、理解人类的价值观”。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。