本篇文章2268字,读完约6分钟
15日,2018世界机器人(300024,诊断单元)大会在北京国际展览中心开幕,展示了世界机器人产业的最新成就。在为期三天的论坛中,由机器人发展引起的人工智能的伦理和法律话题是其中的一个话题。
应该建立一个法律框架来规范机器人及其使用行为
在国际人工智能领域,许多人认为人工智能将对人类构成巨大威胁,呼吁不要开发“人工智能自主武器”,警惕人工智能的潜在风险。他们所讨论的人工智能通常指的是“强人工智能”,它能够独立进化并在未来具有类人意识,而目前的应用大多是“弱人工智能”,它擅长单一任务和完成人类指令。尽管如此,人工智能的快速发展所带来的挑战已经逐渐显现。
为了保护隐私,当人们发布照片或视频时,他们会用马赛克遮住脸。然而,美国的一个研究小组已经开发了一套机器学习算法。通过训练,神经网络可以识别图像或视频中隐藏的信息。
现在,一些机器人被用来陪伴儿童和老人。中国社会科学院哲学研究所的研究员段卫文认为,机器人回答孩子和喂老人的行为似乎很简单。长期生活在一起可能会使人类对机器产生感情,并变得依赖它们。有必要确立防止过度依赖机器人的原则。此外,如何界定无人驾驶汽车交通事故的责任,以及如何处理医疗手术机器人的事故...随着智能机器人深入参与人类生活,专家认为,如何建立一个法律框架来规范机器人及其使用行为已经成为人工智能和机器人产业发展中不可回避的重要问题。
清华大学人工智能研究所所长、中国科学院院士张谦曾经说过,当前的人工智能与人类智能有着本质的不同。与人类相比,人工智能系统抗干扰能力差,普及能力弱,甚至可能犯大错误。因此,在使用这种人工智能系统时必须小心。
思考与智能机器相处的方式,并控制负面影响
人工智能的发展经历了许多波折,并且在不断发展。
人工智能及其智能自动化系统的普遍应用,不仅是一项成果不明的科技创新,也是人类文明史上一次意义深远的社会伦理实验段卫文说道。
北京师范大学哲学系教授田说,机器深度学习和算法系统使智能体具有准人格或准主体的特征。目前,“阿尔法狗”(Alpha Dog)、医疗机器人“沃森”(Watson)和智能伴侣虚拟机器人“萧冰”()仍属于“弱人工智能”,与真正的智能学科相去甚远。尽管如此,他们还是展示了改变人类形态的发展趋势。在未来,如果“强大的人工智能”出现并深入到人类事务中,那么“我们必须提前思考人类如何与它相处并控制它的负面影响。”田平海说:“人工智能是否以及如何为自己的行为负责仍然是一个技术问题。”
近年来,国际人工智能界越来越重视人工智能中的伦理和法律问题,推动了相关技术标准和社会规范的讨论和制定。2017年1月,一次国际学术会议制定并公布了23条人工智能伦理原则,包括人工智能研究的目标应该是建立有益的智能,而不是无向智能;人工智能系统的设计和运行应符合人类尊严、权利、自由和文化多样性的概念。电气与电子工程师协会(ieee)也颁布了《人工智能设计伦理准则》,试图从工程设计和生产的角度提出人工智能的伦理标准。
我国人工智能的研究和实践走在世界前列,但在相关的机器伦理、立法研究和安全标准等方面起步较晚。
有专家表示,人工智能的伦理和法律涉及科学、商业、哲学、法律等多个领域,因此有必要成立一个联盟组织来应对人工智能的发展,吸收各方力量,共同推动相关研究。
利用该算法,人类道德标准系统被嵌入到智能机器中
段卫文说,人工智能系统的“伪主体性”使其行为被视为类似人类伦理行为的伪伦理行为。因此,人工智能社区正在讨论智能算法是否可以用于将人类价值观和道德规范嵌入智能机器。一些专家认为,这不仅是人工智能的未来愿景,也是目前最大的挑战。
田说,将道德准则嵌入机器是人工智能发展的必然趋势。没有这一步,诸如自动驾驶、无人驾驶飞行器和辅助机器人等智能体就不可能进入人类生活。当机器达到人类的自主水平后,它在做决定时只能通过遵循道德算法来开发各种功能。
段卫文介绍说,要使机器符合人类伦理,学术界一般有三种观点:一是自上而下,即在代理人身上预设一套伦理规范。例如,自动驾驶汽车应该尽量减少碰撞对他人造成的损害;二是自下而上,即机器是由数据驱动来学习人类的伦理规范;第三是人机交互,即允许代理人用自然语言解释他们的决定,这样人类就可以掌握他们复杂的逻辑并及时纠正可能出现的问题。
“目前在人工智能伦理的研究中还没有一套通用的原则,所以我们可以从应用中遇到的例子入手,找出价值冲突点,并讨论需要做出哪些伦理考虑。”例如,段卫文说,对于偏见,有必要追溯机器学习的数据,改进数据信息,并改进算法,以便人工智能的判断能够尽可能客观公正,符合人类的价值观。
尽管人工智能的发展存在许多潜在的问题,但更多的人对技术应用的前景持乐观态度。他们相信人工智能可以提供更安全、更智能的生活体验,不会因为技术的潜在短缺而被浪费掉。在预先部署以防范可能的挑战的同时,还应该使用新技术来应对风险。
以隐私为例,人工智能不是隐私的天敌。eecs教授郭耀表示,使用人工智能技术可以解决一些传统方法难以解决的安全问题。例如,基于行为分析的人工智能可以快速检测出恶意软件,通过机器学习,可以及时检测出异常的网络流量行为并警告黑客,从而提高网络安全防御水平。
张倩说,不管人工智能如何发展,基本的想法不应该是用智能机器代替人,而是帮助人们做好工作。人和机器各有优势,只有相互理解才能实现人机合作,但人仍然是人机关系的领导者。这样,就有可能将人工智能引向人机合作的发展道路。
《人民日报》(2018年8月17日,第11版)
标题:机器与人 怎样当好“合伙人”
地址:http://www.njflxhb.com.cn//nxxw/8406.html