(原标题:【时代风口】资管AI投研模式需走出“黑箱陷阱”)
蒋光祥
2026年开始,AI智能体的发展在“小龙虾”(AI智能体OpenClaw昵称)带领下突飞猛进,不养上一只会有掉队的焦虑感,公募基金等资管行业概莫能外。以OpenClaw为代表的AI智能体,其核心价值在于填补了从海量数据到实际投研应用的“最后一公里”,让我们近距离感知了工作效率的极致提升。以核心投研岗位为例,AI智能体能够7×24小时自动抓取数据、清洗信息、挖掘因子、生成报告,将投资者从繁重的重复劳动中解放出来,聚焦于更高维度的策略思考。
然而,每一位从DeepSeek、元宝、豆包,一直应用到“小龙虾”的人,都可能对某些时候AI模型“一本正经地胡说八道”,记忆犹新且心有余悸。在受人之托、代客理财的资管领域,这些“胡说八道”很可能就会给投资者带来真金白银的损失。颇具黑色幽默意味的是,当前AI工具和用户之间法律责任的边界还是模糊地带。个人或者机构投顾给出的建议,如果不满意,投资者还有地方去说理。但投资者被自己下载的AI工具“弄伤”,似乎就只有吃“哑巴亏”的份。相比让人容易立刻识别出的“胡说八道”,一些似是而非但逻辑自洽、表述专业,需要时间才能验伪的投研结论,伤害性更强。业内较为警惕的“黑箱风险”便是其中的代表,也是AI模型目前公认“最核心、最需要警惕的风险”。
实事求是地说,当前大多数先进的AI模型,尤其是深度学习模型,其运行逻辑还是“不可解释”的。我们只知道输入了什么数据,输出了什么结果,但对于模型内部如何进行推理并得出结论的过程,几乎一无所知。这种“黑箱”特性可能会在投研领域衍生出致命风险。例如这些AI模型在“学习”海量互联网文本和数据时,不可避免地继承了其中存在的认知偏差、市场噪音甚至错误信息。许多被挖掘出的“神奇因子”不过是统计上的偶然现象,却给人一种发现“圣杯”的错觉。令人遗憾的是,当AI给我们生成一份具有上述特点的投资分析报告或建议时,缺乏专业知识的投资者很难识别其中的谬误。即便是专业的投资经理,如果盲目依赖此类建议,也可能作出灾难性的投资决策。
对AI模型而言,更深层次的挑战来自于金融市场本身的复杂性。市场并非一个静态的实验室,而是一个所有参与者行为相互影响、不断演化的复杂自适应系统。吊诡的是,用于训练AI模型的历史数据,本身就包含了过去所有市场参与者的行为。而模型一旦开始依据其发现的规律进行交易,其交易行为本身又会成为市场新的数据,从而影响并改变市场未来的走势。这就形成了一个自我指涉的反馈循环。暂不论模型有没有被“投毒”,AI这种“自适应”特性导致了一个残酷的现实:任何基于公开数据、能被AI快速挖掘出的有效规律,其超额收益的生命周期都极其短暂。没有独家的洞察及被市场理解的深层逻辑,妄想依赖AI工具大家一起发财,岂非痴人说梦?
虽然AI与投研的深度融合已不可逆转,但对于资管行业而言,缓解焦虑的关键不是在于养了几只“小龙虾”,而是在于建立一套平衡效率与风险、深度整合人机能力的新生态。当前无论是头部金融机构还是网络监管部门,都对在公司设备及内网中安装、使用开源的OpenClaw等AI智能体持谨慎态度。对于资产管理规模成百上千亿级别的金融机构而言,一个行为不可控的“黑箱”工具,是风控体系无法容忍的威胁。
资管行业不在于有没有用AI,而在于谁能把AI和研究、数据、工程、风控更深更好地结合起来。不论是现在的“龙虾”,还是将来其他AI新物种,坚守人的核心判断权,成为AI策略群的“指挥官”和“风险开关”的掌管者才是重中之重。
本版专栏文章仅代表作者个人观点
