这一结果不仅挫伤了部分私家车主利用闲暇时间提供约租车服务的积极性,同时也可能对互联网+交通这一新兴的共享经济模式的发展带来不利的影响。
国家发展战略应是关于人工智能问题的整体性谋略和全局性安排,它是一个涉及战略目标、战略任务、战略措施的政策制度体系。例如,专利法具有激励科技创新的制度功能,其授权客体的扩充及其权益保护,即是激励人工智能发展机制的法律表现。
在投资规模方面,2015年为484亿元,预计到2020年,投资总量将达到1190亿元。所谓和谐发展,是一种配合适当、协调有序的理想动态,这是一种涵盖周延的目标系统,包括人的和谐、社会的和谐、自然的和谐,以及人与社会、自然的和平共存与进步。为推动智能驾驶产业的发展,美、德、日等国都在探索,甚至出台了有关交通责任分配的法律规范和安全检测市场准入的监管政策。这就是说,人工智能生成之内容,只要由机器人独立完成,即构成受著作权保护的作品,至于其用途、价值和社会评价则在所不问换言之,随着无人驾驶中驾驶人概念的消失,法律规制的对象不再是车辆的驾驶人员,而将是智能驾驶系统的开发者、制造者。
上述判断依赖于以下两点事实: 第一,人工智能技术在造福人类的同时也加大了人类危害自身的可能性,这即是技术的负面性与风险的不确定性的联系。这就是说,人工智能生成之内容,只要由机器人独立完成,即构成受著作权保护的作品,至于其用途、价值和社会评价则在所不问。以交通安全为目标,以往交通管理部门监管的重点是汽车装置的安全性能和驾驶人安全驾驶技能。
关于人工智能的生成作品,著作权法有两个问题需要解决,即机器人设计的作品是否享有权利?该项权利应归属于机器还是创制机器的人?据专家研究,人工智能生成的作品,目前还处于在特定的格式和写作模板下传达信息、表达意思的阶段,尚不能无限定格式地写作内容。总得说来,国家通过战略指引、法律规范和政策安排,将创新这一行为上升为规划理性的法价值,体现了人在价值发现中的能动性干预和控制。在整体性、全局性的政策层面,对人工智能技术和相关社会变革作出相应的战略部署。现代社会中的风险是被制造出来的风险,是由我们不断发展的知识对这个世界的影响所产生的风险。
在机器人时代,某些作品就是人工智能的生成内容。民事能力概念的意义在于揭示民事主体的差异性,具体刻画民事主体存在与活动的状态与特征。
韩国政府起草了《机器人伦理宪章》,其要点包括:保证人类能够控制机器人、保护机器人获得的数据、禁止人类违法使用机器人、防止人类虐待机器人,应该认识到:智能机器人本质是为机器,但亦有人的属性,对智能机器人的尊重就是对人类自身的尊重。机器人致人损害有两种情形: 一是侵权人对智能系统进行非法控制而造成的损害。上述伦理规范,为后续法治建设提供了重要法源,即在一定时候,伦理规范亦可转化为法律规范,实现道德的法律化。对此,欧盟的立法行动最快。
为推动智能驾驶产业的发展,美、德、日等国都在探索,甚至出台了有关交通责任分配的法律规范和安全检测市场准入的监管政策。在财产权领域,这种构架中的逻辑关系就是经济人—权利能力—法律人。具体说来,人工智能时代的社会风险具有以下特点: 一是风险的共生性。在当下,用户数据日益聚集在大型互联网或数据处理的企业手中,对其进行保护个人隐私的责任约束就显得非常重要。
是否赋予机器人以虚拟的法律主体资格,在过去的一段时期,美英等国的哲学家、科学家包括法律家都为此开展过激烈的争论。科学家认为,人工智能存在着威胁人类存续的可能性,但这种风险不是由于自发的恶意所引起,而应来自人工智能发展过程中出现的不可预测性和潜在的不可逆性。
借鉴国外经验,立足本土需要,当前应尽快出台 国家发展战略,及时制定机器人伦理章程,适时进行机器人专门立法。对于现代各国而言,人工智能发展的政策考量,其实是基于风险的制度选择和法律安排,我们应通过法律化解风险,通过法律吸纳风险,将风险社会置于法治社会的背景之中,即对智能革命时代的法律制度乃至整个社会规范进行新的建构。
到目前为止,人工智能已在全球范围内逐步建立起自己的生态格局,并开始深度介入人类的社会生活。智能革命不断深入发展的过程,亦是隐私安全风险增大与法律保护强化的过程。法律制度的价值和意义就在于规范和追寻技术上的可以管理的哪怕是可能性很小或影响范围很小的风险和灾难的每一个细节。(3)完善知识产权创新激励机制。中国正在走向人工智能时代。和谐是人工智能时代的终极价值追求。
就整体而言,文明要求社会对自身内部错综复杂的关系进行自觉的协调,以不断完善自身的组织和管理,达到各种社会关系的有序与和谐。同时以专门法律保护为补充,规定特定领域的特定主体隐私保护的原则和办法。
对于人工智能引发的现代性的负面影响,有必要采取风险措施,即预防性行为和因应性制度。无人驾驶意味着交通领域的准入资格,不再是驾驶人的驾驶技术,而是无人驾驶汽车的智能化水平。
关于智能系统致人损害责任的认定,有两种责任方式可供选择: 一是基于行为人过失所产生的产品责任。面向人工智能革命,创新不仅反映了人与自然的关系,而且反映了人与人的关系、个人与社会的关系,成为一个具有普遍意义的关系范畴。
在立法和政策层面,推进智能驾驶系统、智能机器人、精确医疗、语言识别、人脑芯片等核心技术的研发和应用,同时明确准入规范,制定安全标准,完善配套设施,营造健康、有序的监管环境。面对大数据对个人隐私潜在的威胁,我们必须重视智能革命时代隐私权的保护,有三点举措可供采用: 一是增强自我保护意识。正如吉登斯所言,在全球化的时代里,风险的影响被普遍化了。反全球化主义者认为,全球化正在催生另一种形态的帝国体制:互联网是信息帝国主义,世界贸易组织是市场帝国主义,国际货币基金组织是金融帝国主义,而联合国是政治外交的帝国主义。
有消息称,日本准备立法保障人工智能的著作权作品,以防止机器人创作中的抄袭之风。例如日本人工智能学会内部设置了伦理委员会,谷歌设立了人工智能研究伦理委员会,旨在强调科研人员的社会责任,并对合理研发人工智能提供指导。
2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为电子人(electronic persons),除赋予其特定的权利和义务外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。法律制度总是滞后的,但关于法律问题思考应该是前瞻的。
为保证人类社会的和谐稳定,对人工智能产品进行伦理设计、限制人工智能技术应用范围、控制人工智能的自主程度和智能水平等,都应以和谐价值作为指引方向和评价准则。所谓技术中立原则,是指任何技术本身原则上都不产生责任承担,但是一项特定技术的主要商业用途是用来从事侵权或其他违法行为的,那么该项技术即不适用技术中立原则。
2、人工智能生成作品的著作权问题 人工智能的实质,是让机器从事需要人的智能工作,包括下棋、解题、从事数学发现、学习新的概念、解释视觉场景、诊断疾病、推理条件等。在云计算、大数据、深度学习算法、人脑芯片的催化下,人工智能模拟和表现了人类的智慧动力,并以高于人类的工作速度、优于人类的工作精度、胜于人类的工作态度,协助人类解决各种各样的问题,包括危险场合和极端环境的难题,从而形成人类智慧的创造力优势与人工智能的操作性优势之间的强强合作。第二,传统社会治理体系无力解决工业社会过度发展而产生的社会问题,这即是法律的确定性与风险的不确定性的背离。关于理念、规范、体制与机制的制度设计,笔者拟提出如下构想: 1.以安全为核心的多元价值目标 人工智能法律的价值分析,源于法律理想与现实,应然与实然的对立。
人工智能时代是一个高度技术化的社会,科学技术的高度发展既是风险社会的特征,也是风险社会的成因。二是法律责任体系的重构。
科学技术在人类的文明进步中总是扮演着最活跃、最革命的角色。它或是技术—经济决策导致的风险,也可能是法律所保护的科技文明本身所带来的风险。
从反思的现代性出发,对法律及其保护的先进技术仅为信任是不够的,人工智能在其发展过程中出现的不可预测性和潜在的不可逆性,其本身就是一种风险。凡是人以外的不具有精神、意思的生物归属于物,是为权利的客体。