Timothy Gowers 最近关于数学研究与 AI 的帖子,让我感到一种很强的现实感。 不是那种"AI 要改变世界"的宏大叙事,而是一种更贴近个人的提醒: 未来真正重要的能力,可能不再是一个人单独把所有问题想通,而是能不能和 AI 一起推进一个问题。 这听起来很简单,但其实背后有很深的变化。
过去我们使用工具,是人在思考,工具在执行。计算器负责计算,搜索引擎负责查找,IDE 负责写代码和调试。但现在 AI 开始参与到"思考过程"本身。它不只是帮你找资料,不只是帮你补全代码,也不只是帮你润色文字。它开始能提出路径、发现联系、给出证明、构造方案,甚至在某些问题上给出人类研究者也会认真对待的结果。这时候,人的位置就变了。我们不再只是"使用工具的人",而更像是一个研究过程的组织者、判断者和最终负责人。
一、AI 不是答案机器,而是研究搭档
很多时候,我们使用 AI 的方式还是很简单的。 “这个函数是什么意思?” “这个概念怎么理解?” “帮我写一个策略。” “帮我总结这篇文章。”
这当然有用,但这还停留在比较初级的层面。真正的人机协同,不是让 AI 给一个答案,而是让 AI 进入一个问题的推进过程。
比如,不是问: “帮我写一个双均线策略。”
而是问: “这是我的 A 股量化框架:因子选股、市场状态过滤、T+1 交易制度、QMT 数据接口、3 秒撮合、资金规模有限。请你从数据泄露、过拟合、滑点、交易成本和实盘失效五个角度攻击它。”
这两种问法背后的意识完全不同。前者是把 AI 当成写代码的人。后者是把 AI 当成研究伙伴、反方审稿人、系统测试员。AI 最有价值的地方,不是替我把事情做完,而是让我看到自己原本看不到的路径、漏洞和可能性。
二、未来更重要的是问题分解能力
很多人以为,会用 AI 就是会写提示词。 但我越来越觉得,真正重要的不是提示词,而是问题分解能力。 一个人如果自己都不知道问题在哪里,只是把一句模糊的话扔给 AI,AI 也只能给出一个看似完整、其实很空泛的回答。
真正有效的协同,是先把问题拆开。我现在会更倾向于把复杂任务拆成四层:
- 第一层是目标。 我到底要解决什么问题?
- 第二层是约束。 现实里有哪些限制?
- 第三层是路径。 可能有哪些解决方案?
- 第四层是验证。 怎么证明这个结果不是幻觉?
比如搭建量化系统这件事。目标不是"写一个赚钱策略",而是"建立一个可验证、可迭代、能从研究走向模拟盘再走向实盘的小资金 A 股交易系统"。约束包括 T+1、数据质量、QMT 接口、资金规模、交易频率、滑点、手续费、实时行情和历史行情的差异。路径可以是先 CSV,再 Parquet,再数据库;先单因子,再多因子;先是频回测,再分钟级回测;先手动执行,再模拟盘自动执行。验证则包括样本外测试、不同市场状态下的表现、交易成本敏感性、实盘模拟日志、异常订单处理。
当我能这样拆问题时,AI 才真正有用。因为���不是在等它给我一个神奇答案,而是在让它参与每一个环节。
三、AI 输出不是成果,只是候选结果
这是我觉得最需要警惕的一点。AI 说得越流畅,越容易让人误以为它是对的。
但 AI 给出的东西,不管是数学证明、代码、策略、读书笔记,还是人生建议,都只能算是"候选结果"。它不是最终成果。最终成果必须经过验证。
写代码时,不能只看它能不能跑。还要看边界条件、异常处理、路径问题、编码问题、数据为空时会不会崩、接口返回结构变化时会不会错。 做量化时,不能只看回测收益率。还要看有没有未来函数、有没有幸存者偏差、有没有过拟合、有没有把历史行情背答案、换一段市场环境后会不会失效。 做笔记时,也不能只看 AI 总结得漂不漂亮。还要看它有没有扭曲原文,有没有过度解释,有没有丢掉关键上下文,有没有把一个活的想法整理成一堆正确废话。
未来真正厉害的人,不是最相信 AI 的人,而是最会验证 AI 的人。相信 AI 很容易。怀疑 AI,验证 AI,筛选 AI,才是能力。
四、保留自己先挣扎一会儿的能力
AI 越强,人越容易跳过自己的思考。 不会了,问 AI。报错了,问 AI。概念不懂,问 AI。方案不会选,问 AI。 这样短期效率很高,但长期有一个危险:自己的判断力会慢慢退化。
所以我觉得,以后要给自己留一点"先挣扎"的时间。遇到一个问题,不要马上问 AI。可以先自己想 10 到 20 分钟。不是为了低效,而是为了保留自己的问题感。
比如代码报错,不要第一时间把错误复制给 AI。可以先写下自己的猜测:
- 可能是路径问题。
- 可能是 Python 版本问题。
- 可能是数据为空。
- 可能是编码问题。
- 可能是接口返回结构变了。
- 可能是某个依赖没有装。
然后再问 AI。这样 AI 不是替我思考,而是在和我的初始判断对话。如果我完全没有自己的判断,AI 说什么我都觉得有道理。如果我先有一个粗糙判断,AI 的回答就会变成一种校正、补充和挑战。这很重要。人机协同不是人退出思考,而是人带着自己的思考进入协同。
五、要学会让 AI 反驳自己
我越来越觉得,AI 最有价值的用法之一,不是让它赞同我,而是让它攻击我。尤其是在做量化、做系统、做长期规划时,最危险的不是没有方案,而是方案看起来太顺了。
AI 很容易顺着我的设定,生成一个逻辑完整、语言漂亮、结构清晰的方案。但现实不是这样。现实里有数据错误,有接口异常,有市场变化,有滑点,有资金压力,有执行失败,有心理波动,有各种细碎但致命的东西。
所以我以后要刻意训练一个习惯:每次 AI 给出方案后,都继续问一句:
- “请反驳你刚才的方案。”
- “请站在一个严苛审稿人的角度,指出这个方案最可能失败的地方。”
- “请假设我的回测结果是假的,反推最可能的错误来源。”
- “请不要优化收益,只帮我找数据泄露。”
- “请从实盘交易员的角度,指出这个策略从回测到实盘会死在哪里。”
这比单纯让 AI 帮我优化更有价值。因为优化会让我兴奋。反驳会让我清醒。真正的协同,不是让 AI 永远站在我这边,而是让它在需要的时候成为我的反方。
六、我应该成为主编,而不是打字员
未来我和 AI 的关系,可能会越来越像一个小型团队。AI 可以是资料员,可以是程序员,可以是研究助理,可以是审稿人,可以是测试员,可以是写作者。但我不能只是一个复制粘贴的人。
我应该成为主编。主编不是每一句话都自己写。主编的价值在于判���:��些东西有价值,哪些只是漂亮废话,哪些地方逻辑断了,哪些地方太快了,哪些结论需要证据,哪些方案可以进入系统,哪些东西必须丢掉。
这对知识管理也很重要。如果我把 AI 生成的东西全部丢进 Obsidian,最后我的笔记库可能不会变聪明,只会变臃肿。AI 可以帮我发散,帮我总结,帮我生成候选双链,帮我拆分原子笔记。但最后要不要保留,怎么命名,放在哪里,和哪些笔记真正连接,这些仍然应该由我来判断。否则 Obsidian 会变成 AI 垃圾场。真正的人机协同,不是让 AI 替我生产更多内容,而是让我更清楚地知道哪些内容值得留下。
七、建立一套自己的协同流程
我觉得可以给自己建立一个很简单的流程。以后每次遇到重要问题,都按这个顺序来:
- 先写下自己的初始判断。
- 再让 AI 给出多个方案。
- 然后让 AI 反驳这些方案。
- 接着自己筛选可采纳部分。
- 最后设计验证方法。
可以做成一个固定模板:
## 问题
## 我的初始判断
## 现实约束
## AI 给出的方案
## AI 对方案的反驳
## 我认为可采纳的部分
## 我怀疑的部分
## 需要验证的地方
## 实验结果 / 回测结果 / 实际反馈
## 最终结论
这个模板看起来简单,但它能改变使用 AI 的方式。因为它让 AI 的回答不再是终点,而只是中间过程。我不再是问完就结束,而是把 AI 放进一个研究闭环里。
八、每周保留一点无 AI 时间
还有一点也很重要。如果一周里大量使用 AI,最好每周留一点时间,不问 AI,只自己复盘。问自己几个问题:
- 这周我真正理解了什么?
- 哪些东西是 AI 帮我搭起来的,但我其实还没完全懂?
- 如果没有 AI,我能不能复现核心流程?
- 哪些判断是我自己的,哪些只是 AI 给我的?
- 我有没有因为 AI 的流畅表达,而误以为自己已经掌握了?
这不是排斥 AI。恰恰相反,正因为要长期使用 AI,所以更需要保留自己的主体性。人机协同最怕的不是 AI 不够强,而是人慢慢变成一个被 AI 推着走的人。
九、最后还是回到人自己
Gowers 的帖子让我看到一件事:AI 的能力越强,人越不能只停留在"执行者"的位置上。因为执行会越来越便宜。生成会越来越便宜。资料整理会越来越便宜。初稿、代码、方案、证明草稿,都会越来越便宜。
但判断不会便宜。 什么问题值得做。什么路径值得走。什么结果可信。什么东西只是幻觉。什么系统能经受现实压力。什么选择要由自己承担。这些仍然是人的位置。
所以未来不是比 AI 更聪明。未来更重要的是:
- 我能不能提出更好的问题。
- 我能不能组织更复杂的过程。
- 我能不能验证更不确定的结果。
- 我能不能在 AI 给出的无数可能性里,选择真正属于我的方向。
AI 可以帮我走得更快。但我要知道自己为什么出发,要往哪里走,以及什么时候停下来检查脚下的路。人机协同的核心,也许就是这样:AI 参与思考,但人承担判断。