

【编者按】在AI浪潮席卷全球的今天,金融咨询领域正迎来一场静默革命。从ChatGPT到Gemini,生成式AI已悄然成为千万用户的“财务顾问”,甚至被年轻一代视为理财新宠。然而,当冰冷的算法试图替代人类顾问的温情与责任时,一个致命问题浮出水面:AI能否像人类一样承担“受托责任”?当你的退休金规划由代码生成,谁该为可能的错误买单?本文深度剖析AI金融顾问的法律盲区与人性缺失,揭开技术狂欢背后令人脊背发凉的真相——在监管的灰色地带,你的财富安全或许正悬于一线。
金融专家指出,人工智能平台的财务能力正飞速提升,未来很可能取代人类财务顾问。
但他们同时警告,AI相较于人类顾问存在一个致命缺陷:缺乏“受托责任”。而这一法律灰色地带的解决之道,似乎遥遥无期。
受托责任是许多财务顾问(以及律师、医生等其他领域专业人士)对客户承担的法律义务,核心在于将客户利益置于自身利益之上。
“我们需要解决的问题并非AI是否具备足够专业知识,”麻省理工学院斯隆管理学院金融工程实验室主任、金融学教授安德鲁·罗指出,“目前答案很明确:AI确实拥有(金融)专业知识。”
“但它们缺少的是受托责任,”罗强调,“当出现错误时,AI无法像人类顾问那样承担相应后果。”
罗解释说,违反受托责任的顾问可能面临严重后果,包括监管处罚、民事责任甚至刑事指控。若缺乏责任或法律约束力,“将客户利益置于首位”的原则便形同虚设。
越来越多人开始向ChatGPT、Claude、Gemini等大语言模型寻求财务建议。根据Credit Karma九月发布的调查,使用过生成式AI的美国人中,三分之二(66%)曾用它获取财务建议,而在千禧一代和Z世代中,这一比例高达82%。
在1019名受访者中,约85%曾根据生成式AI提供的财务建议采取行动。纽约大学法学院信息法律研究所高级研究员塞巴斯蒂安·本索尔指出:“人们向这些服务寻求各类建议,而它们确实提供了答案,但这似乎是一个巨大的监管空白。”
“究竟谁该负责?如果背后没有承担受托责任的企业支持,人们真的能依赖这类产品吗?”本索尔坦言,“这仍是未解之谜。”
罗认为,AI在财务规划领域仍有其价值。它擅长为普通人提供难以理解的金融概念在线资源,例如关于医疗保险的基础问题,AI通常能给出可靠概述。
但涉及具体家庭财务问题时,消费者绝不应盲目采信AI答案。“当涉及高度个性化的财务计算时,必须极度谨慎,”罗警告道,“大语言模型最令人担忧的一点是,无论你问什么,它总会给出听起来权威的答案——即便那是错误的。”
因此,对AI答案进行反复核查“十分必要”。令人意外的是,AI在财务计算方面并不擅长,涉及税务等数字密集型财务规划问题时最好避开。埃隆·马斯克旗下xAI公司的法律与政府事务官员詹姆斯·伯纳姆三月曾在社交媒体提醒:其AI平台Grok“不提供税务建议,请务必自行核实”。
当然,人类财务顾问同样只提供建议,最终决策权在客户手中。“我认为看待大语言模型也应如此:它们在提供多元选择和方案描述方面极具价值,但必须牢记其建议可能存在错误,”罗说,“不过人类财务顾问亦非完美。”
当出现错误时,AI无法像人类顾问那样承担相应后果。——安德鲁·罗,麻省理工学院斯隆管理学院金融工程实验室主任
值得注意的是,并非所有人类财务顾问都是受托人。金融咨询领域充斥着复杂的法律关系,法律义务因对话对象是股票经纪人、注册投资顾问、保险代理人或其他中介而异。
例如,拜登政府时期劳工部曾出台规定,要求为401(k)计划转入个人退休账户提供建议的中介承担受托责任——这类操作常涉及数十万美元资金。但该规定因特朗普政府停止在法庭辩护而失效,意味着许多金融中介在转存建议上无需承担受托责任。法律专家因此建议消费者谨慎对待此类建议,警惕利益冲突。
纽约大学的本索尔指出AI建议面临类似法律困境:由于当前AI巨头多位于美国,若AI建议投资者将退休储蓄投入美股,可能被视为自我交易或利益冲突。佛罗里达大学莱文法学院副教授蒋佳莹(音)指出,目前AI服务提供商似乎未因向散户提供建议收取报酬,故不构成受托关系。
究竟谁该负责?如果背后没有承担受托责任的企业支持,人们真的能依赖这类产品吗?这仍是未解之谜。——塞巴斯蒂安·本索尔,纽约大学法学院信息法律研究所高级研究员
但蒋教授警告,承担受托责任的财务顾问若使用AI,仍可能违反义务。例如顾问使用AI给出不符合客户最佳利益的建议,担责的将是顾问而非AI平台公司。
罗最终强调,政府政策需要变革,为从AI获取财务建议的消费者提供受托责任保护。在此之前,“我们无法完全将(财务)决策权委托给AI”。但他坚信:“这一天终将到来。”