2024年10月28日,弗莱堡大学法学院院长Jan Lieder教授作为太阳集团tcy8722全球化与比较法律系列讲座的主讲嘉宾,做了题为“私法、商法与公司法中的数字化”的学术讲座。本次讲座由太阳集团tcy8722长聘副教授纪海龙主持,太阳集团tcy8722副院长戴昕,教授刘凯湘、许德峰,副教授张双根、胡凌评议,活动反响热烈。
本文以文字实录的方式呈现讲座核心要点。
Jan Lieder:
一、数字化时代的侵权法
在数字化时代的侵权法中,责任主体的认定是最重要的问题之一。立法者可能会在法律上认可“数字人格”(e-person)的主体地位,如欧洲议会曾建议为最先进的智能机器人创设一个法律地位,使其可以独立承担赔偿责任。然而德国法并不承认数字人格,因为数字人格承担责任的基础在于其拥有独立的财产基金或强制责任保险,但目前的人工智能并不满足上述条件。人工智能也不存在利己行为而是代表使用者的利益,将责任转嫁给数字人格将使得人工智能算法背后的开发者和使用者逃脱本应承担的侵权责任,并进一步摧毁相关主体增强算法安全的积极性。算法所造成的侵权责任应回归产品责任法的调整模式,由最能够控制算法安全风险的开发者承担主要责任,这也符合“控制产生责任”的思想。欧盟为了应对数字化所带来的法律挑战对产品责任法进行了全面改革,改革的核心包括将软件和数字服务纳入产品定义、将数字产品责任延伸至产品投放市场之后、通过过错推定降低被侵权人的举证责任等。
同时,没有必要以牺牲人工智能使用者为代价引入严格责任。严格责任的基础在于即便相关主体已经尽到了必要的注意义务,特定危险源仍可能产生巨大损害;然而人工智能系统的发展趋势为不断降低的事故发生频率和严重程度,故而不应适用严格责任。同时从经济视角出发,对风险控制能力有限的主体适用严格责任并无意义,因为严格责任只会导致其对科技产品使用意愿的降低。出于这些原因,欧盟委员会拒绝了欧洲议会对高风险系统引入严格责任的提案。
二、数字遗产
数字遗产应被理解为数字资产的全部,除了相关硬件和软件外,还包括存储数据、与通讯公司和网络供应商的合同关系、访问权限、电子邮件账户、社交媒体的会员资格以及网络用户资料等等。对个人数字遗产的获取目前存在诸多问题,与此相关的逝者数字隐私保护问题也有待最终的澄清。在德国的一起真实案件中,一位母亲在女儿自杀后想要获得女儿社交媒体账号的访问权限以便了解其生前的经历,然而社交媒体平台认为账号内包含隐私信息,且平台协议中写明不会将数据权限移交给用户之外的第三人,从而拒绝了母亲的请求。这一案件存在较大争议,但法院最终正确地认可了个人数据的可继承性。
数字遗产的继承并不遵循任何特殊规则,故而只要不涉及极为隐私的领域,继承人原则上可以获得被继承人的所有财产和非财产地位。部分数字遗产可以通过一般方式相对无争议地移转给继承人,如对数据存储硬件所有权的继承不仅包含存储介质本身,还包括存储于其上的数据;但还有一些数据只有在网络服务提供商的帮助下才能访问,而这些服务提供商可能会提出与数据保护或个人权利有关的反对意见,从而阻止继承人对隐私数据的访问。实际上,以是否包含个人隐私内容为由对数据遗产继承进行区别处理是不合理的。除非被继承人和网络服务提供商有效地排除了账号的可继承性,基于电子邮件账号合同、网络平台使用合同等数字账号的使用地位也是可以继承的。如此一来,继承人就可以根据合同关系获得账号中所存储数据的实质访问权。电子账号的可继承性与平台运营商的利益并不矛盾,无论是出于电信保密还是数据保护的考虑,都没有理由赋予数字遗产特殊的地位。需要注意的是,继承人仅能取得对账号内原有数据的访问权限,但并不能取代被继承人继续使用该账号。
三、人工智能监管
人工智能技术已经普及至我们的日常生活,个性化购物推荐、汽车自动驾驶、智能医疗诊断等技术都依赖于人工智能的发展。然而由于人工智能技术缺乏透明度,并可能存在歧视性算法以及对个人数据的滥用,人工智能已经对人们的健康、安全和基本权利构成了潜在威胁。面对这一境况,人工智能监管需要通过明确的规则和标准保障企业和消费者的安全,从而建立起人们对人工智能技术的信任。欧盟《人工智能法案》是全世界第一部对人工智能进行全面规制的法律,该法案的目的在于建立起统一的法律框架,促进发展以人为本且值得信赖的人工智能系统,确保对生命健康、社会安全以及基本权利的高度保护,并防止民主、法治以及自然环境受到人工智能的有害影响。《人工智能法案》对人工智能的规制涵盖了人工智能的整个生命周期,在人工智能被投放于市场之后,开发者也仍负有监管责任。为创造公平的竞争环境,欧盟境内的所有人工智能开发者和使用者都是《人工智能法案》的规制对象,包括在欧盟境内使用人工智能的第三国开发者和使用者。
《人工智能法案》运用风险规制的方法,根据人工智能风险等级的不同采取对应的监管措施。首先,对于可能危及基本权利的人工智能,《人工智能法案》采取了原则上禁止的规制方式,例如对人们身心健康产生潜意识不利影响的人工智能、根据社会行为对人们进行评估分类的人工智能以及根据生物特征进行实时远程识别的人工智能。其次,对于在公共特殊领域可能产生高风险的人工智能,开发者应对系统进行自我评估并登记注册,并建立涵盖人工智能整个生命周期的风险管理系统。再次,对于有限风险的人工智能,开发者应满足透明度要求以确保用户能够识别人工智能并防止可能产生的损害;最后,较小风险的人工智能则可以自愿遵守相关准则。
《人工智能法案》也对公司法产生了深远影响。公司管理层必须确保公司内部对人工智能的使用满足合规要求,了解现有人工智能系统的概况并评估其对公司的适用性,尽早识别并规避风险。公司有权自主决定是否使用人工智能,除非使用人工智能的需求非常紧迫从而排除适用商业判断规则。高风险人工智能的设计和开发必须由自然人进行有效监督,监督措施应与人工智能的风险大小、自主程度和使用环境相适应。
《人工智能法案》的效果可能存在两面性。一方面,《人工智能法案》为人工智能监管提供了统一的法律框架,提高了法律的确定性并增强了人们对人工智能系统的信任感。但另一方面,《人工智能法案》也可能带来不利影响,比如企业实施合规管理系统的成本较为高昂,对中小企业的冲击尤为严重;僵化的分类管理可能会减缓人工智能技术的创新发展;为了满足《人工智能法案》的监管需要必须建立大量的政府机构,这也会造成较高的社会成本并加剧官僚主义。《人工智能法案》对于企业的影响将是深远持久的,几乎所有的行业都会受到人工智能的冲击,而妥善使用人工智能将会为市场主体带来显著的竞争优势。随着《人工智能法案》的生效,企业必须尽快判断自己是否在《人工智能法案》的调整范围之内并落实相关的合规措施,防止违规行为可能导致的罚款等负面法律效果。
评议环节
许德峰:
在数字遗产继承的案件中,社交媒体平台是否需要更改合同条款以适应法院的判决观点?
Jan Lieder:
是的,社交媒体平台在原合同中有一个条款,即在用户死后也禁止移转其账号内的个人信息。用户对此没有谈判的空间只能接受,故而根据《德国民法典》第307条,这样的格式条款是无效的。根据判决的观点,社交媒体平台至少需要给予用户在这一事项上选择的权利。
戴昕:
在数字遗产继承的案件中,法院最终认可了包含隐私的个人数据的可继承性,但这一处理似乎仍有可商榷之处。如果某些用户认为自己的个人数据不被泄露非常重要,并且当其仅将信息用于与特定主体交流共享而并非向所有人公开时,相关信息应具有更强的隐私性质,此时似乎也不宜将数据移转给继承人?
Jan Lieder:
与这一情形的一个可能类比是,在某人过世后继承人发现了被继承人生前所写的情书,虽然情书具有极强的隐私性,但继承人仍可以取得情书并阅读其中的内容。继承人有权获得被继承人的所有有形财产,那么自然也有权获取有形财产上所承载的信息,从这个角度来看社交媒体上的个人信息与情书中的内容并无本质不同。还有一个重要的因素是被继承人已经死亡,此时对其人格权保护的需要会显著降低,且相关数据并非完全公开而仅是提供给继承人,这一处理仍是可接受的。
胡凌:
根据您的讲座,我们现有的法律体系能够有效处理信息时代的大部分法律问题,但仍有部分问题可能必须通过创设出新的规则来解决。在账号继承的问题上,一个账号可能同时被多人使用,大家共享信息、服务甚至共同承担义务,此时若认为账号信息可以被某一人的继承人全部获取,是否可能会存在一定问题?
Jan Lieder:
在社交媒体账号信息的继承方面,我们并不承认账号内数据的“所有权”,继承人能够获取的仅是对信息的阅读权限。但倘若账号内确实存在第三人的个人信息且第三人此时并未死亡,那么平台原则上不得将他们的信息泄露给其他人。这确实是对传统规则的巨大挑战,有待进一步的探索研究。
问答环节
同学一:
在适用过错责任解决人工智能的侵权案件时,应如何发现过错?假设我拥有一个智能聊天机器人且每天都用极为消极性的语言和它聊天,最终机器人劝诱我实施了自杀行为。而法院经过调查发现确实有一行代码存在缺陷,无法完全保证对负面信息的筛选过滤。这个案子里我本人对机器人存在一定控制,因为我向它输入了大量的负面信息;同时也有一行代码没能正确发挥过滤负面信息的作用。在这种情况下,究竟是谁控制着这个劝人自杀的机器人并因此需要承担责任?
Jan Lieder:
控制理论并不关注谁物理上控制了机器人,而主要关注谁在实质上控制机器人的行动。在你给出的案例中,由于代码存在缺陷,我们实际上已经发现了制造商的过错。因此,机器人制造商必须承担责任。
同学二:
在人工智能领域有一种现象称为“涌现”,即使用者并未直接输入内容,但是人工智能已经能够自发生成结果。倘若这一自发生成的结果最终导致了损害,我们最终该如何认定责任?
Jan Lieder:
在人工智能的使用过程中,使用者需要不断地对人工智能进行训练才能达到使用者的要求,在这一过程中使用者需要向人工智能输入大量的信息。倘若人工智能最终输出的结果符合使用者所输入的信息,且这一结果也正是使用者所追求的,那么使用者本人可能需要承担一定的责任。当然人工智能的运作存在相当多因素的参与,这也是一个极为广阔的领域,需要进一步的研究。