李文苑 中国政法大学法律硕士学院硕士生
内容摘要:明确法律责任的承担,是促进智能投顾健康发展的根基。现有的传统投资咨询行业监管法规无法回应智能投顾的应用对传统规则体系提出的挑战。明确主体与义务,是讨论责任的前提。在弱人工智能阶段,应当由运营商及算法研发者承担责任,但各主体之间承担的义务责任应有所区分,且应当对举证责任进行调整。在智能投顾发展的远期,随着其自主性的提升,相关主体对其控制力逐渐降低,可以考虑引入替代责任体系,赋予其准法律人格并建立相应的强制保险及赔偿基金。
关键词:智能投顾 信义义务 责任承担 人工智能 法律人格 弱人工智能
智能投顾业务起源于2008年金融危机后的美国,自2016年开始在国内兴起并逐渐被投资者所知晓。与传统投资顾问相比,智能投顾具有普惠包容、理性决策、自动投资等优点,也因此具有广阔的发展前景。然而,智能投顾作为金融领域的新的市场参与者,也为监管机构带来了必须在短期内面临的新挑战。其中一个很重要的问题就是,以算法和数据处理为核心的智能投顾对传统投资顾问的责任制度有着较大的冲击。明确法律责任是促进智能投顾发展的基础,也是维护投资者利益的保障。责任确立的前提是厘定所需承担的义务。传统投资顾问中,开展投资咨询服务的机构及自然人须遵守信义义务及合规义务。而在智能投顾中,涉及到多元主体的参与,那么,相应的信义义务主体范围是否应当扩张?由于监管的缺失,实践中还出现了通过算法的设计来输送利益,或者不完全披露造成了利益冲突,以及算法自动化决策带来的偏见与歧视等问题,需要重新厘清智能投顾的义务来进行规制。此外,随着人工智能技术的发展,智能投顾可以自主决策并操作,而相关主体对其的控制能力逐渐降低,此时的智能投顾能否具有法律人格并承担相应的法律责任,其他各方主体之间应当如何进行责任的划分,这些就是本文想要探讨的问题。
一、传统投资顾问的信义义务与合规义务
金融投资行业以信用为基础,投资者基于信任委托管理人处置其财产。这种处置权的赋予同合同法中的一般委托或代理不同,这种权利的让渡不仅是基于管理人的身份、地位、能力,还有更高层次的信任。所谓信义义务,要求投资顾问将投资者的利益排在首位,任何利益不得与其冲突,积极尽责履行对投资者的受托义务具体来说,我国对于投资顾问的信义义务包括谨慎义务和忠实义务。信义义务的核心是忠实义务。忠实义务要求受托人要站在受益人利益的最大化的立场而行事,不能将自己的私利置于与受益人利相冲突的位置。从投资顾问所涉的关系来说,投资顾问具有多重身份,其既是金融机构的员工,也是投资人的受托人,不同身份代表了不同的利益立场,当这些利益追求汇聚在一起产生冲突时,忠实义务就要求投资顾问必须将投资人的利益排在首位,而避免其他的利益与其冲突。勤勉义务则要求受托人始终以投资者的利益最大化为行为准则,尽心尽力、专业审慎。勤勉义务驱使下,投资顾问应当将敬业态度贯穿整个服务流程,像对待自己的事务一样谨慎投资。
传统投资顾问的合规义务主要在于资质管理、投资者适当性以及业务隔离等方面。从事证券投资咨询业务要求金融机构具备相应的牌照,而我国近年来对于牌照的管理一直处于收紧状态。对于自然人顾问则以通过考试、从业经验等作为衡量标准决定是否赋予从业资格。这种行业准入资质的设定,是因为从事投资顾问业务需要相关人员具备专业知识和相关经验,这样才能保证给出的建议是从专业角度的判断与分析,能够帮助投资者做出更好的选择。投资者面对纷繁复杂的金融产品并不知该如何选择,因此,监管机构要求投资顾问根据客户的情况来推荐合适的金融产品,即履行适当性义务。“投资者适当性义务是受托人说明义务的延伸。”投资顾问需要对产品充分了解并进行合理的等级划分,在将其推荐给风险承受能力匹配的投资者时,做充分的说明。此外,投资顾问应当将投资者与超出其风险承受范围的产品相隔离。隔离义务由对投资者负有信义义务的金融机构及其从业人员履行。此外,金融机构还需要在内部建立各业务间的隔离制度。例如,同时进行自营交易、受托投资和投资顾问服务的情况下,应当对可能出现的信息交流进行隔离,避免出现利益输送等违法违规情形。
传统投资顾问的义务规制包括信义义务及合规义务,对投资顾问及金融机构的执业资质、执业准则、执业态度以及应当规避的利益冲突等进行了较为全面的规定,并且提出了建立风险管理、内部控制等的要求,使得在金融市场中处于劣势地位的投资者有一定的制度保障。但是,传统的义务规制体系针对的是金融机构及自然人,并无法直接适用于智能投顾,需要因变制宜,对相关的规则进行完善。
二、智能投顾义务体系的更新
智能投顾尽管在业务模式上有别于传统的投资顾问,但仍属于投资顾问范畴,因此应适用传统投资顾问的相关规定,包括信义义务及合规义务方面的规定。但由于其业务模式的综合性与人工智能技术的应用代替传统人工等特点也对现有的规则体系提出了挑战,因此应当对相关的规制体系进行更新。
(一)扩大主体范围
智能投资顾问包括智能投顾本身及其背后的金融机构、智能投顾算法开发机构,这些主体之间该如何分配传统投资顾问所承担的义务呢?我国目前尚未对智能投顾有一个明确的法律界定,对于下述关键性问题的规范仍是缺失:首先,信义义务的主体不够明确。《暂行规定》第2条将提供和销售咨询软件归属于从事证券投资咨询业务,但这是否同于传统投资顾问?进而承担相应的信义义务呢?通过前文的分析可知,信义义务对应着较高标准的“忠实义务”和“勤勉义务”,如果仅是有提供或销售咨询软件行为就将其视同为传统投资顾问从而须承担信义义务,这显然是不合理的。但如果提供和销售咨询软件的主体不是信义义务的主体,那如果咨询软件出现问题,或者出现分析、决策失误等又该由谁来承担责任呢?其次,受信主体范围是否要扩张没有规定。智能投顾与传统投顾相比,相关主体除了投资咨询机构还有算法开发主体,以及智能投顾本身。因此考虑主体扩张时,主要包括两方面:一方面智能投顾是否是受信义务的主体;二是算法开发主体是否应当负有信义义务。智能投顾虽然具有一定的智能和自主性,但其与传统的投资顾问之间还是有较大的差距,并且在当前的法律规制体系下,智能投顾并没有独立的主体地位,因此其无法成为受信义务的主体。根据算法的研发过程,又可以细分为算法开发者以及提供算法模型的金融人士,各自承担的义务责任也应当有所区分。智能投资顾问的研发者中提供算法模型的金融人士虽然并并不参与交易意见的决策,但他们所提供的的算法模型对交易意见有决定性作用,而不仅是传统意义上的提供技术支持。因此,应当将其纳入受信义务主体范围,这样才能督促其在提供算法模型时尽到相应的义务,从而保障投资者的利益。而单纯的算法开发者仅是将相关的操作及流程通过算法来实现,根据技术中立原则,不应对其过分苛责,因此不应当被纳入信义义务的主体范围。
(二)智能投顾对传统义务体系提出的挑战与应对
智能投顾智能化的特点以及算法的运用对原有的规制体系提出了新的挑战,主要体现在三个方面,即违背忠实义务的利益冲突、投资者适当性测评难以到位以及资质及算法带来的合规问题,需要从制度上进行完善。
1.信息披露以解决利益冲突问题
根据规定,利用智能投顾开展业务需取得投资顾问资质。而实际中拥有投资顾问牌照的一般是证券金融机构,其通常还从事证券经销业务,这种多重业务的混合会导致运营商在使用智能投顾进行投资建议时倾向于优先推荐自家产品,而不是从投资者的利益出发,站在客观、专业、理性的角度进行推荐。此外,双方代理和关联方交易也是需要防范的利益冲突问题。而应对利益冲突的有效措施就是信息披露。有效的信息披露需要明确披露的范围、标准及形式,对此可以借鉴美国的规制经验。2017年2月23日,SEC为智能投顾发布了新的指导意见——《投资管理部门的更新指南》,该指南为智能投顾更好地遵守1940年投资顾问法中所规定的信息披露、适用性和合规性义务提出了针对性的建议。就信息披露而言,智能投顾需要进行商业模式解释以及披露咨询服务的范围。具体来说,除了提供所有注册投资顾问应该提供的所需信息外,还应当披露额外的有关特定的业务时间和相关风险。包括用于管理各个账户所使用的算法。描述使用算法所固有的特定风险。其他各方在参与开发、管理的用于管理客户账户的算法的所有权,以及可能产生的利益冲突等。
2.投资者适当性制度需完善
投资者适当性是投资者保护制度的重要组成,在智能投顾的应用中需进一步强化。传统投资顾问履行适当性义务主要包括了解客户的信息、了解产品信息、对客户的类别划分及风险承受能力评估、客户的信息的持续更新及后续评估、风险的揭示等方面。而从目前的智能投顾实践来看,这些统一被简化为一份电子问卷。并且问卷由投资者自行填写,如对其财产状况及投资状况、投资水平等的描述,只是被简单的转化为一个选项,而没有像传统的投资顾问通过深入的交流等来进行实际验证。此外,适当性义务很重要的一点是要保持对客户信息的持续更新和后续评估。而智能投顾在使用中对于客户的风险测评基本都是静态的,即在使用初期填写一份电子问卷来确定投资者的分类,而没有进行动态追踪。因此,智能投顾应当完善其评测及分析给出建议的流程。如应当在问卷设计中增加工具提示或弹出窗口等来提供额外的说明或示例,以尽到应尽的风险提醒义务。需要更加全面的获取用户信息,而非只靠用户自行选择的选项来确定用户的资产及投资状况;应更好地了解客户的情况,并对于客户的状况进行实时更新。当客户的账户、资产、投资理念等出现重大转变时,及时调整客户的类别并重新给出投资建议等。此外对于智能投顾的客户范围也应当做出调整,综合考虑年纪、投资经验、知识储备、资产状况等因素,对部分不适宜人群仍由传统的投资顾问为其提供服务。
3.须完善智能投顾的合规要求
“人工智能技术及大数据等的应用,使得智能投顾在资源配置、数据处理和理性决策等方面具有优势。”然而,其智能化处理中所采用的算法模型的设计以及所使用的数据等都是基于运营商与研发者之间沟通、选择和判断产生的。因此,智能投顾究竟是否智能,其处理产生的结果能否符合对于投资顾问专业性的要求亟待解决。传统投资顾问需要通过由中国证券业协会组织的专业技能考试,并具有相关从业经验才可取得执业资格。那么,对于智能投顾如何对其进行测试来确保其符合投资顾问的资质?韩国的实践似乎能给我们带来一定启发。2016年8月,韩国金融委员会(FSC)发布了《机器人投资咨询测试台基本运行方案》,通过三步审核流程来检验投资顾问的“胜任性”。其中最主要的是测试算法的收益性、稳定性和整体系统安全性来验证智能投顾的实际运行情况。只有通过审核的智能投顾平台才有资格向广大中小投资者提供财富管理服务。我国也可以考虑组织专家委员会制定一套智能投顾的测试方案,来判断智能投顾是否具有相应的“从业资质”。此外,智能投顾除了需要满足传统投资顾问建立风险控制与内部控制的要求之外,还应当建立相应的信息技术治理和数据治理制度,以保障其程序化运作和数据处理的安全性,以及对于投资者个人信息的保护。
三、重构人工智能时代智能投顾的责任制度
经过智能投顾与传统投资顾问的对比后,本文试图借鉴欧盟的智能投顾发展经验,从人工智能技术发展的不同阶段设计智能投顾的责任制度。欧盟智能投顾发展分为1.0至4.0四个阶段,从1.0阶段至4.0阶段,智能投顾的智能化程度不断提升。1.0阶段的智能投顾主要是通过在线问卷了解客户的情况来筛选出适合的投资产品或投资组合。而到了4.0阶段的智能投顾则能够进行自我学习而完成复杂的问卷分析及风险管理,并且可以依据不同投资者的投资需求以及市场条件,进行个性化的全自动投资。由此可见,随着智能投顾的发展,其“自我学习”能力不断增强,并能够做出自主行为,人类对其的掌控或对其决策做出合理解释的空间逐渐减少。法律虽然是滞后的,但我们也应该对技术的发展有一定的预见。就智能投顾的发展而言,随着智能化程度的提升,智能投顾自主行为恐怕很难归因于背后的开发者和制造商,而如果仍然按照现有的规则对这部分主体施加较为严格的责任,只会抑制科技金融的发展。因此,本文试图分为智能投顾发展的近期和远期两个阶段来讨论相应的责任制度。在近期阶段,智能投顾的功能仅限于通过对客户的问卷进行分析,将客户与预先分配好的风险等级相匹配,进而筛选出合适的投资产品和组合,因此其只能算作是一种智能化产品,并不能成为责任主体。投资顾问的义务规制对象应当为运营者及在开发算法中构建模型的金融从业者。算法的设计者虽然不必被苛以投资顾问的义务,但须对算法缺陷造成的损害负责。在远期阶段,随着深度神经网络和深度学习的进一步发展,人工智能将具有自主思考和意识能力,可以考虑赋予智能投顾一定的法律地位。在智能机器人已经“进化”到人类监管者难以预见潜在的算法损害或采取有效的预防机制时,运营商迫切需要有限责任来减轻压力。因此,可以考虑替代责任制度,赋予智能投顾一定的法律地位,并建立补偿基金或引入强制保险制度,以确保投资者得到合理受偿。
(一)近期的责任制度构建
就目前所处的弱人工智能阶段,智能投顾只是一种高效、便捷的数据分析处理自动化工具,显然不具备法律人格,也没有承担民事责任的财产基础。独立人格和独立财产是责任追究的前提和基础,如以算法应用本身为追责对象寻求对投资者的救济,并不现实,权利人的权利最终也很难得到保障。人工智能加持的算法应用的法律责任,必须与背后的人类主体共同承担。就智能投顾的应用来说,机构运营者、算法的研发设计者、软件开发者都应承担相应的义务与责任。不同的是,信义义务规制范围应当仅限于运营者以及提供金融算法模型的金融研发设计者,单纯的程序开发者仅对故意或过失产生算法缺陷造成的损害承担责任。
1.信义义务主体的责任明确
根据现有法律法规,证券投资咨询机构应当履行合规、勤勉谨慎提供投资咨询服务以及投资者适当性等义务,如果违反相关规定则应承担相应的行政责任。从实践来看,违规行为主要包括以下几种:一是存在资质管理不严谨,部分未取得从业资格人员提供投顾服务的情形;二是向客户提供投资建议的依据不足、未向客户提示潜在的投资风险;三是部分未能对投顾服务记录进行留痕;四是证券投资顾问业务与私募资产管理业务未有效隔离;五是投资者适当性管理不完善,未留存身份证件及影像资料等能够证明客户真实身份的资料;六是存在误导性营销宣传的情形等。因此,相关主体应当加强内部控制,切实提高风险管理与合规管理水平,防范利益冲突。而针对智能投顾,不得对其功能进行虚假、扩大宣传;不得超出授权范围;不得泄露客户的个人信息等。
行政责任可以对相关主体起到警戒和督促作用,但具体到每一位投资者的权益保障还应落实民事责任。《资管新规》规定了金融机构的损害赔偿责任。但该规定较为笼统,有待具体落实。信义义务主体承担民事责任主要包括基于合同产生的违约责任,以及违反信义义务对投资者造成损害而产生的特定的法定责任。就违约责任来说,智能投顾运营者一般会与投资者之间建立相关的智能投顾服务合同,并且可能会在合同中给予运营者更多的自主权。但应当注意的是,这种当事人间的意思自治不应超过法律法规所规定的信义义务范围。换言之,运营者不可以试图通过双方合意来规避其本应承担的义务,进而主张免责。此外,由于合同的违约责任通常不会涉及信义义务主体中的提供相关模型的金融算法研发者,因此,违约责任的承担效果相对来说较为有限。而对于违反信义义务所产生的特定的法定责任,依照法律法规规定承担民事损害赔偿责任。但值得注意的是,这里的举证责任应当与传统的侵权责任有所区分。如果按照传统的侵权责任,需要由投资者证明信义义务的违反与其所受经济损失之间的因果关系。但在智能投顾中,要求投资者来举证显然有失公平。以智能投顾的核心—算法为例,对于算法的披露,包括算法模型的构建、算法运行机制、算法分析决策过程等,即使相关主体主张其履行了相应的披露义务,或者其所运用、设计的算法模型是符合投资者适当性标准的,或者能够按照所应当履行的谨慎义务来执行,投资者及法官也很难判断真伪。因此对于涉及算法部分的举证,可以考虑借鉴美国数据创新研究中心所提出的“算法问责制”来解决因果关系的证明和责任分配问题。算法问责制在对损害结果的验证上分为两步:首先判断责任主体是否采取足够的控制来验证算法是按照预期工作的,可以从算法透明度、可解释性、程序规则等几方面来入手,检验责任人是否尽到相应的义务。第二步,判断责任主体是否识别并纠正有害的结果。若这两步中,责任主体均能够以行业平均标准完成,那么就可以免责。如果在其中某一步未有效完成,如未能实现有效控制,或未能及时识别并纠正有害结果,则视为其没有尽到相应的义务,应承担部分责任;而若均未能完成,则其应承担全部的责任。上述问责步骤如下图所示(图1)。
2.因算法产生损害的责任承担
一般侵权责任以行为人主观上有过错(包括故意和过失)为构成要件。沿袭这个思路,在讨论算法缺陷带来的损害时,也应当区分其中是否包含设计者的主观过错。因此,算法缺陷可以分为主观缺陷和客观缺陷。主观缺陷对应的就是故意和过失,即算法设计者在设计算法时主观上带有想要损害投资者利益的意图。客观因素是指由于技术发展水平限制而导致的算法缺陷。区分了主客观因素后,还需要就有关主体做区分讨论。算法开发中提供交易模型的金融从业者对于主观与客观因素造成的算法损害都须承担责任。由前所述,提供算法模型的金融从业者也要受到信义义务的规制,因此,相应地其所承担的责任也要重于普通的算法研发者,即对主观因素和客观因素造成的算法缺陷均应承担责任。若其主张免责,则可以依照前文所述的“算法问责制”进行“两步走”判断,确定其是否尽到了应尽的信息披露、风控防范及控制义务。根据技术中立原则,程序开发者(技术人员)仅是将功能及模型用算法实现,而不涉及到设计产品功能和模型,因此只在其主观上存在故意或过失造成投资者损害时,才承担赔偿责任。但如果其不满足从事算法开发的基本资质要求,或违背基本的算法伦理等,也可以视为主观要件满足,应当承担算法损害的责任。
(二)远期的责任制度更新
在人工智能类中的“二类人工智能”指向具备自主学习能力,但编程者、设计者或制造者的控制力有限,会做出自主行为的人工智能,并提出对应的民事责任为替代责任或代理人责任。有学者提出这种替代责任“可以比照父母对未成年子女的责任、监护人对被监护人的责任”,由类似代理人承担替代责任。从智能投顾的特征及性能上来看,应当归属于上述“二类人工智能”,可以考虑引入对应的替代责任体系。对于智能投顾自主决策造成的损害可以通过赋予智能投顾准法律人格使其有能力成为责任承担的主体,而承担责任的财产来源于预先缴纳的强制保险或赔偿基金。
1.赋予智能投顾法律地位的可能性
未来人工智能技术发展到一定程度时,一味地否认其法律主体地位可能会与实际背道相驰。探讨是否赋予人工智能主体地位需综合以下几个因素来判断:是否有独立的意识、是否符合伦理考量以及是否独立拥有财产。民事主体承担责任的前提是具有独立的意识。随着人工智能技术的发展,智能投顾能够逐渐摆脱人类的控制而独立地进行分析和决策,这虽然不能等同于拥有了独立的意识,但也与现阶段只是作为一种分析处理工具的智能投顾有所不同。而从财产角度衡量,人工智能通常没有独立的财产来承担损害赔偿责任。因此,赋予智能投资顾问独立法律人格似乎缺乏依据。但仍可以其他角度来论述赋予其法律地位的合理性。实践来看,2017年1月12日,欧盟议会法律事务委员会通过一份决议,在其中提到赋予机器人“电子人”的地位,同时出台特定的监管准则,以规制具有特定用途的机器人和人工智能系统。欧盟议会法律事务委员会认为高度智能的机器人将具备自主性和认知特征,能够独立做出判断,并实质性地调整行为,因而人类越来越难将其简单视为工具,从而需要新的规则加以约束。此外,类比公司法人的设立,其中一个很重要的突破就是使得股东可以摆脱无限责任带来的重负,而将其所需要承担的责任控制在有限范围内,这极大地促进了市场的活跃。这点对于智能投顾背后的主体同样具有重要意义。责任的合理分配也有助于鼓励新兴科技在金融领域的创新与发展。因此,从实践来看赋予智能投顾准法律人格仍然是有意义的。赋予准法律人格的意义也可以从方便投资者提起诉讼的角度进行论证。智能投顾中涉及到多方主体,并且各自之间的法律责任也较难区分。而投资者对于智能投顾的了解本身就处于劣势地位,要求其分辨出责任主体显然是强人所难。因此为了简化诉讼,可以赋予智能投顾有限的法律人格使其成为适格的被告,有利于处于劣势地位的原告维护自己的权益。此外,对于背后主体须承担责任时,可以通过“智能投顾人格否认”来击碎相关主体试图借助独立人格规避责任的幻想。
2.强制保险和赔偿基金
随着智能投顾算法的更新以及自主学习能力的增强,未来运营商和程序开发者恐怕都很难对其做出的决策进行控制和解释。由于智能投顾自我决策或判断失误而给投资者带来的损失,在赋予智能投顾准法律人格的情况下,可以考虑由其自身承担。但责任承担的落实是要确保有承担责任的资金。因此,有必要要求智能投顾运营商和程序开发者强制投保或要求其支付赔偿基金以构成智能投顾承担责任的资金来源。运营商使用智能投顾大大降低了其开展投资顾问业务的成本,并且能够从中获利。此外,通过缴纳保险或赔偿基金能够使得其免于承担部分侵权责任,从获利及免除责任两个角度来讲,让其拿出部分资金来为智能投顾设置保险或赔偿基金是合理的。而让开发者承担部分的资金缴纳义务也有利于督促开发者在进行算法设计时保障其合理和功能健全,起到一个监督作用。
大数据、人工智能等最新一代的信息技术及其他前沿科技,正在引发金融市场的大变革。智能投顾便是在金融科技和人工智能两大创新技术的发展下应运而生。我们在憧憬智能投顾应用下的可持续投资及惠普金融的未来时,也应当重视其对现有法律制度的冲击。亟待解决的问题之一就是责任的缺位。完善的责任制度是平衡保障投资者利益与智慧金融发展的有效路径。而责任制度的完善首先需要厘清主体与相应的义务。基于目前人工智能的发展尚处于弱人工智能阶段,智能投顾不具备成为法律主体的资格。因此,责任主体应识别为运营商及部分算法开发者,并以信义义务为中心构建智能投顾的义务与责任制度。但随着人工智能技术的发展,未来智能投顾很有可能摆脱人的控制而自主的做出决策,在这种情况下应当赋予其有限法律人格。其一可以简便诉讼程序,向投资者倾斜;其二可以使得相关主体获得有限责任的保护,从而促进科技在金融领域的发展与运用。但由于智能投顾无法拥有独立的财产,因此应建立强制保险或赔偿基金,以保障投资者权益。
来源:《上海法学研究》集刊2021年第22卷(中国政法大学商法前沿文集)