2023年Jeff Yan谈高频交易与Hyperliquid的创立之路

爱情的泡沫4 小时前

本期节目的嘉宾是 Hyperliquid 创始人 Jeff Yan。Jeff 的职业生涯始于 Hudson River 的高频交易领域,随后转向加密世界,在该赛道打造了规模庞大的做市商之一。深入讨论了中心化加密交易所的基础设施、对抗性的算法,以及为什么 HFT(高频交易)的盈亏实际上可能对中期价格走势具有预测性。解释了他眼中当前去中心化交易所存在的问题,并介绍了 Hyperliquid 的早期理念。本期节目发布于 2023 年 5 月 8 日,可以从中看到 Jeff Yan 早期的很多想法。

如何从哈佛走进加密交易

Jeff Yan:我的经历大概和很多 HFT 从业者相似:我毕业于哈佛大学,主修计算机科学和数学,随后直接加入 Hudson River Trading,这是一家在传统金融里规模较大的做市机构。我当时做的是美股,体验非常好。我入职时公司大概 150 人,现在已经大了很多。在这里让我受益匪浅,能接触到最有意思的问题,工程与数学可以完美结合,对量化来说几乎是“天堂”。到了 2018 年,伴随以太坊智能合约的热潮,我读了(以太坊)Yellow Paper,瞬间就“开窍了”,我确信那会是未来,于是离职去做一种 L2 方向的交易所协议。

当时我们选择切入预测市场方向,是因为彼时 Augur 已经呈现出较强的产品市场匹配(PMF)迹象,而我们自身更擅长、也更关注交易所底层技术能力。因此我们完成融资后,搬到 San Francisco 组建团队。但几个月后,我还是决定关停项目,因为时机并不成熟:一方面监管不确定性极高;另一方面用户获取非常困难。彼时大多数人并不熟悉智能合约,兴趣更多集中在代币投机上,对 DeFi 的真实需求尚未形成,所以项目最终被搁置。

随后我花了一段时间反思与旅行,最终选择回到交易。相较于持续在市场里“苦找 PMF”,交易本身更直接、更有趣。起初我也考虑过加入一家成熟公司,但想到自己做过加密产品、对行业机制更熟悉,便先从自营加密交易做起。最开始这只是副业,但很快我就看到了显著机会,业务扩张速度远超预期。市场的低效程度令我惊讶。此后我几乎埋头投入了近三年:真正系统化启动是在 2020 年初,时点也恰好与市场周期共振。随着市场规模与成交量增长 10 倍甚至 100 倍,我们也同步做大,最终市场份额进入中心化交易所(CEX)做市商的第一梯队。

约一年前,我们开始系统评估 DeFi 交易机会。这与早期切入 CEX 交易时的观察相似 — — 低效环节广泛存在。但不同之处在于,部分 DeFi 协议在机制设计上存在先天不足,导致交易体验与资本效率受限。与此同时,FTX 事件后,市场对“not your keys, not your coins”以及对手方风险的认知显著强化,对真正去中心化产品的需求持续上升。基于上述变化,我们判断构建去中心化交易所的窗口期已经到来。过去一到两个季度,我们持续投入资源推进该方向;高频交易(HFT)业务则更多处于相对稳定的运行与维护状态,而当前的主要投入与关注重点,集中在将这条去中心化交易技术栈扎实落地并完成体系化搭建。

做市还是吃单:两者有何区别

Jeff Yan:在我看来,这确实是进入高频交易时首先需要作出的重大决策。从宏观层面看,两者有不少相似之处:本质上都对基础设施要求极高,且对时延高度敏感。但在许多关键环节上,两者又呈现出相反的侧重:做市更倚重基础设施能力;吃单更倚重统计与数学建模。

我认为选择哪条路径,主要取决于你更倾向投入哪类工作与研究。以做市为例,你在一定程度上受制于“将报价打穿”的对手盘,容错空间很小。通常通过杠杆、在多个品种与多个价位挂单,会形成较大的隐含风险敞口;一旦出现错误,尾部风险的代价往往很高。相比之下,吃单策略可以一天只触发一次 — — 仍可能是有效的高频策略,可能基于新闻,也可能基于某类细分信号。

正因触发较少,你有空间将模型做得更精细:大部分时间不触发并不影响,只要触发时表现足够好即可。相反,做市并不具备这种弹性 — — 即便 99% 的时间运行良好,只要有 1% 的时间略慢、未能及时跟随数据,相关损失就可能足以抹去其余 99% 的全部 PnL。这就是“基础设施驱动”与“模型驱动”的根本差异。

Corey Hoffstein:是否可以这样更直观地理解:选择“吃单”的一方之所以愿意跨越买卖价差,是因为其预期价格将沿自身方向继续运行,因此愿意承担点差成本;而“做市”的一方则希望价格在其交易时间窗内尽量保持稳定 — — 当有人跨价差与其成交后,再在另一侧完成对冲或反向成交,从而获取点差收益。以此区分是否合理?即一方在所处时间窗内更希望市场横盘,另一方则更希望出现方向性运动。

Jeff Yan:是的,基本可以这样理解。在高频交易中,我们通常以极短的时间窗来评估 markout(回看收益),但这一判断放到更一般的交易频率同样成立:只要你选择“吃单”,在以中间价计量的那一刻,你会立刻承担一笔确定性损失(点差与费用)。只有在随后、在你设定的预测时间窗内,价格的平均走势能够覆盖这笔即时损失并进一步补偿费用,你的策略才具有正期望。

做市则恰好相反:在成交瞬间,你的“初始 PnL”往往处于该笔交易可能实现的最高水平 — — 因为你刚刚获取了一个点差。你所押注的是,这部分收益在平均意义上不会被“劣化选择”完全侵蚀。

因此,在做市场景下,如果将所有成交按时间维度进行 markout 观察,PnL 随时间递减通常是更常见的形态;你的期望只是其递减幅度不要演变为负值。

Corey Hoffstein:我们通话前你提到,把业务规模做大,最难的部分其实不在研究,而在基础设施。我也在 X 上看到你有类似表述:“会做数据归一化不保证你能赚钱,但不会做你肯定赚不到。”能否谈谈你们在基础设施方面最大的经验教训,以及为什么它如此关键?

Jeff Yan:这个问题大致可以拆成两部分,并且二者紧密相关:一是“交易基础设施”,二是“研究基础设施”。数据清洗更偏向后者,属于统计实践的一部分;前者则是狭义的高频交易系统。两者都极其重要。

研究层面虽然更为人所熟知,但需要强调的是:高频交易中的“信噪比”与噪声形态,比学术研究中多数对象要糟糕几个数量级,因此对异常值的处理重要得多。

如果对这些问题缺乏正确的处理框架,仅仅简单忽略异常值,那么一旦出现黑天鹅尾部事件,模型可能被直接击穿;但如果又未能做好规范化或过滤,极端样本又会主导模型训练与参数选择。具体实践中,在许多任务里使用分位数往往比直接使用原始数值更为鲁棒;即便使用原始数值,也需要在“丢弃异常值”与“裁剪异常值”之间作出明确取舍,而这些选择对最终效果的影响往往非常显著。

最大的教训听起来很朴素:必须亲自审阅数据。不要以为自己足够聪明、管道足够“干净”,模型输入就会自动符合预期。用于检查原始数据的时间很难被视为“过多” — — 因为每一次审阅几乎都会带来新的发现。团队早期应当将交易所提供的全部原始数据流完整落盘,逐条核对,主动识别异常并进行一致性校验。

有一个看似荒诞但真实发生过的案例:某段时间,一家交易所在行情推送中出现缺陷,将“价格”和“数量”字段对调。比如比特币的 20,000 / 0.1 被记录为 0.1 / 20,000,导致我们内部的统计与计数逻辑全面失真。许多团队因此不得不紧急停机或切换至备用数据源。这类事件说明:无论你的逻辑设计得多么“健壮”,都不可能覆盖所有异常情形,因此应尽可能保持对原始数据的贴近与可追溯性。

并且还要高度关注时间戳。交易所往往会在数据中提供多种时间戳,其真实含义需要自行拆解与对齐。这一点对于理解“黑盒时延”尤为关键 — — 你究竟在测量什么?你是确实“跟上”了市场,还是对方在推送质量较差的数据?通过时间戳的拆分与比对,可以较好地区分这些情形,从而判断链路是否健康、时延是否处于可控区间。

什么是“公允价(fair)”?如何度量,为何高频做市要围绕它交易?

Jeff Yan:不同交易公司对 fair 的定义确有差异,往往取决于各自的交易风格。但其共通点在于:fair 本质上是将你的建模结果凝练为一个“预测价格”。这一抽象非常有价值,因为它把“如何构建可盈利策略”拆解为两部分且同等困难的任务:价格预测与订单执行。

这也呼应你此前关于做市与吃单的提问:做市更偏向执行侧,吃单更偏向建模侧。对吃单策略而言,研究与决策几乎都围绕“公允价”展开。至于公允价应纳入哪些信息,取决于你认为自己在哪些数据处理环节具备优势,以及市场的效率缺口具体存在于何处。

此外,公允价并不必然只有一个。在更偏机器学习的框架下,你可以同时维护不同预测期限的公允价,例如 1 秒预测与 1 天预测;执行策略会以不同方式加以利用,而对应的优化目标也可能在 PnL 维度上各不相同。

对入门者而言,一个相对有效的“粗切法”是:先给出一个你愿意围绕其进行报价或跨越价差的单一数值,并将其视为你的“预言机”;随后在拥有历史价格序列的前提下,进一步思考如何围绕该数值实现最优执行。

Corey Hoffstein:是否可以将其简化理解为:观察某一交易所,若假设 Binance 汇聚了几乎全部流动性,则可将 Binance 的价格视为公允价;若其他交易所(如 OKX)在毫秒到秒级存在滞后,则可依据 Binance 的公允价跨越价差进行交易,等待其“追价”。当然也存在更偏统计的做法,即不以单一交易所为“真值”,而是结合订单簿相关信号来估计公允价。这样的解释是否成立?我也并不完全确定。

Jeff Yan:是的,思路正确。以流动性最强的交易场所作为公允价(fair),确实是一个很好的第一近似。早期各交易所之间常出现 10% 量级的价差,彼时的主要难点并非价格预测,而在于如何在交易所之间高效转移资金;因此这种方法在当时非常有效。近几年市场经历了一个演变过程:流动性先是分散,随后又回流并向币安集中(尤其是近期)。因此,正如你所说,将币安价格作为公允价是一个合理的起点。

但需要强调的是,将外部单一来源直接等同于公允价仍需谨慎。例如 OKX 的滞后可能仅为数毫秒,实际交易并不一定如表述般直接。再进一步,假设存在一种机会:每当币安价格变动而 OKX 尚无人吃单,你便据此进行跟随交易并试图平仓套利 — — 多数情形下可能有效,但这毕竟是加密市场,存在非连续性风险:例如 OKX 突然进入钱包维护,导致币安与 OKX 之间的充提被暂时切断,套利链条无法闭合,价格也可能随之发散。此时若你的公允价仅依赖币安价格,反而可能面临被动风险暴露。

因此,细节因素非常多。即便在这一看似直观的框架下,也远不止“从某个数据源取一个数作为公允价”那么简单 — — 它只能作为良好的第一近似。

Corey Hoffstein:这也正好引出我接下来想问的:加密交易所在技术层面的诸多特性与“陷阱”。从历史经验看,它们的技术口碑并不稳定:你前面提到过“脏数据”的例子(例如将价格与数量字段对调)、API 崩溃、文档质量不佳、隐藏端点,甚至存在未公开的参数。我记得你最近还在 X 上举过例子:可以绕过风控引擎,或让风控引擎并行运行 — — 这些完全未被文档化的细节,构成了与价格预测无关、相互独立的“正交 alpha”。我的问题是:诸如深入理解 API 细节、准确测量端点延迟这类工作,究竟能贡献多少 alpha?与之相比,更“传统”的统计类 alpha(例如利用订单簿信号判断压力与方向)孰轻孰重?

Jeff Yan:你提到的那条推文,我记得反响确实不错。

Corey Hoffstein:顺便说一句,我到现在仍不确定那是不是愚人节玩笑。

Jeff Yan:愚人节已经过去了,我承认那是个玩笑。不过它比大家以为的更接近现实。真正的“笑点”在于:它其实部分是真的。我一直想写篇后续,这是个很好的提醒 — — 录完这期我就去发。

回到你的直觉,我认为你的判断方向是对的。一个人在某家公司工作久了,往往会形成偏好;或是在进入时就带着偏好 — — 例如“我学过数学,所以我应当做更酷的机器学习模型、挖掘信号、产出 alpha,这才是关键,因为这最难”。这种“只做模型”的思路在大公司或许行得通,因为分工足够细;但如果你需要把整套业务自行运行起来,仅靠这一点是走不远的。

你提到的那些“脏活累活” — — 吃透 API、补齐文档缺口、测量各端点延迟 — — 非常关键。我对高频交易(乃至许多事情)的理解是:它更像多个因素的乘积,而不是简单相加。你在不同“桶”里的投入看似是加总的,但产出往往体现为相乘关系。举个具体例子:

整体效能≈基础设施 × 模型。

如果“基础设施”这一因子只有 1,而“建模”这一因子是 10,那么在每投入一个单位精力时,理性选择往往是优先补齐最短板。高频交易的难点在于:你很难准确判断这些因子各自处于什么水平。因此,实践中需要持续进行“元分析” — — 我现在做的,是否确属最重要的事项?你会很快发现:答案并不显然。很多竞争优势,恰恰体现在对优先级的判断能力上。

在这一意义上,那些看似“脏活”的工作往往至关重要。应当务实地获取低垂果实,遵循 80/20 原则。行情顺畅时,最容易陷入的误区是:“基础已经打好,可以去做一些更酷的机器学习研究、追求创新。”我们也曾在这一点上付出代价。并非意味着该方向不存在 alpha,而在于其投入规模大、且边际回报往往很快递减。

当你团队规模较小、现有策略仍然有效、市场机会仍然充沛时,更需要反复自问并诚实面对:当前最应优先推进的是什么?不要被表面数据“诱导”去追逐那些暂时不应作为优先项的方向。

Corey Hoffstein:对于希望在加密领域开展高频交易的人,你曾给出两条路径建议:其一是直接在 Binance(币安)进行交易、并将重心放在 alpha 产生上(我理解这更偏向“主动吃单”,而非“挂单做市”);其二是选择一家具有长尾特征的交易所,深入理解其基础设施层面的“特性”,并据此寻找优势。能否进一步说明,为何你认为这是两条最优路径?二者在方法论上有何差异?

Jeff Yan:这可以类比为一个“钟形曲线”的直观结论 — — 不要停留在中间。若将钟形曲线的横轴理解为不同交易所,那么问题最突出的往往是中间区间,例如可粗略对应第 2 至第 7 梯队的平台。

它们的成交量远小于Binance,但竞争强度与“有毒流量”却差不多,甚至流量质量可能更差。至少在Binance,我们知道其零售流量占比极高,这会带来一种“缓冲效应” — — 有毒与零售流的混合更友好。顶级HFT公司基本都已经全量接入前若干家头部交易所(你可以粗略理解为前15名),会用更大规模、更成熟的策略满负荷交易;你在这些中间梯队平台里很难再“榨”出多少收益。如果你愿意挑战可高度扩展的大型CEX策略,就直接从Binance开始,能泛化的也会尽量泛化 — — 没有理由从“中间”起步。

你提到的另一条路也成立:去钟形曲线最左端。去找小而被忽视的机会 — — 要么体量太小不值得大玩家花时间,要么太小众以至于他们没覆盖。小众的基础设施就是极好的例子。

交易所系统由人开发实现。正如不少 DEX 的协议设计可能存在明显欠妥之处,一些小型中心化交易所的技术实现也可能存在清晰可识别的缺陷。如果只有你真正理解其运行机制中的“特殊性”,这本身就可能转化为策略优势。基础设施往往也是 alpha 的重要来源,并不存在绝对清晰的“模型 vs 基建”边界。

你也许会担心“不可泛化”:例如你在某家小交易所吃透了一种特定的“利用方式”,但对在 Binance 并无直接帮助。我认为外界普遍低估了“将一个有效策略跑起来”的价值。对多数团队而言,这应当是首要目标;至于策略规模大小,未必需要在起步阶段过度在意。

当然也存在一个基本前提:若平台体量小到几乎没有成交量,研究与部署都缺乏意义。但只要具备一定交易规模,通常就能实现一定收益。更重要的是,如果该策略夏普率较高、对零售端事件具备足够稳健性,那么你所获得的能力与经验,将是绝大多数参与者并不具备的。

即便具体策略未必能够直接泛化,我的经验是:只要你完整走通“研究 — 上线 — 生产”的闭环,在这一过程中获得的认知往往远超预期;即使随后推倒重来、转向 Binance 等头部平台,整体难度也会显著下降。此外,许多细节差异虽然无法一比一迁移,但你会开始从“已被验证有效的东西”中提炼共通原则,并持续生成新的思路;这些思路通常明显优于凭空设想。

因此,两条路径各有价值。如果一时难以取舍,可以先从小的做起,再逐步走向大的;坦率地说,两条路径都尝试一遍也未尝不可。

Corey Hoffstein:你提到过“有毒流量”。能否为从未听过这一概念的人给出一个定义?

Jeff Yan:其本质是“信息占优的流量”。我对加密市场成长有一个理解框架:我进入市场时其实已不算早,只能通过回溯去想象更早期的状态。即便在我入场的阶段,零售资金规模已相当可观,也存在大型参与者,但当时供需关系的核心矛盾仍在于 — — 可用流动性不足以满足零售端的交易需求。因此,零售流量是最直接、也最值得捕捉的对象。最直观的做法,是编写较为通用的做市策略,通过挂单提供流动性。只要零售投资者与您的挂单成交,你在很大程度上可以保留其跨越价差所贡献的那部分收益;在当时,这一模式本身就能够持续盈利。这也反过来构成一个强信号:当时市场中的主导流量,仍主要来自零售端。

但随着时间推移,市场参与者逐渐意识到这一点,并开始大规模部署做市策略。随着做市侧流动性不断增加,吃单策略的意义随之上升,买卖价差也被持续压缩。为了继续捕捉优质的零售流量,吃单者开始出现,并转而更为挑剔地“筛选”做市端的劣质挂单,将其逐一拿走。这是市场演化中较为常见的路径。需要补充的是,吃单同样为市场提供了重要价值;将“做市=做市商、吃单=对手盘”作简单二分并不准确,两类角色在实践中往往交织存在。在我看来,更理想的市场形态,是允许参与者以各自方式自由交易。

但站在做市者的视角,这类吃单流量会显著提高策略难度:原先相对轻松的模式 — — 持续挂单、每次被成交便获取少量点差 — — 可能会被少数交易“击穿”。例如,你可能在约 99% 的零售成交中累计获得约 1 个基点的收益,但在另外约 1% 的交易中却一次性损失 10 个基点(仅作为心智模型,并非精确数值)。在这种结构下,尾部损失足以吞噬大部分常规收益。

因此,“有毒流量”在很大程度上指的就是这类由吃单者所代表的、具有信息优势的流量。当然,是否构成“有毒”取决于你所运行的具体策略;但在多数语境下,通常可以用“零售流量”与“机构化/高水平流量”作一个相对直观的区分。

加密市场中“对抗性算法”诱骗 HFT 有多常见?

Jeff Yan:Crypto 确实带有一种“西部荒野”的气质。换个更积极的角度看,Crypto 也是一场实验,而立场与视角在其中尤为重要。监管者往往会抓住一点不放 — — “他们没有遵循我们精心制定的证券法”。而 DeFi 的支持者则会认为,这些证券法本身很可能带有游说与人为判断的烙印;加密或许提供了一种更偏自由意志主义的实验空间:究竟哪些事物必须被监管?我也并不确信,现实大概率介于两者之间。我并非监管者或政策制定者,这里只是分享一些偏哲学层面的观察。回到实务层面,如果你不重视那些带有操纵与攫取性质的策略,在加密市场开展交易将会非常吃力。

另一个现实是,并非交易所不愿监管,而是很多时候并不清楚究竟应由谁来监管哪一家交易所 — — 至少对我而言,这一点并不明晰。许多法律框架在不同国家之间差异显著,这或许也是问题长期存在的重要原因之一。并且,运营一家交易所本身就极具难度,他们还需要同时处理大量其他事项。

举一个更具体的例子:spoofing(诱骗挂单/虚假申报)是一类非常常见的行为。我不打算在此纠缠其在美国证券与期货法中的严格技术定义;这里所说的 spoofing 更偏向宽泛含义:从订单簿及随后形成的价格轨迹中,你往往可以清晰观察到,有人挂出巨量订单,但显然并无真实成交意图 — — 甚至一旦成交,他们反而会感到不利。尽管在法律层面很难证明其“意图”,但这些挂单显然并非为了成交,而是为了制造某一侧挂单极为充沛的假象。其结果是:若某些算法将订单簿流动性视为价格走向信号,就可能被误导,进而在相应方向下单。待“诱导”生效后,spoofing 算法接下来要么挂出更易被击中的 maker 单,要么主动吃掉那些在诱导下暴露出来的被动挂单。

这类情形非常常见。另一个更为直白的,则是各类市场操纵行为,例如“拉高出货”的组织化圈子。

出于观察,我曾潜伏过几个此类群体,从未参与交易,仅作旁观。这类现象的规模不小。近来相关行为确实被清理了不少,这是一件好事;但在早些年,它们甚至能够制造夸张的成交量:某个“内圈人士”宣布一只代币,随后零售用户迅速涌入(其组织方式我亦不甚了解),内圈人士则借助流量完成出货。对高频交易而言,这类场景表面上似乎可以应对,但实际处理难度很高,因为强烈的均值回归效应往往会反向“诱杀”策略。

至于应对方式,又回到你此前提出的基础设施、模型与策略之间的取舍 — — 精力究竟应投入何处。对我而言,这一类问题属于必须覆盖的“杂项/特殊场景”,也可归入风险管理与特殊情景处置。

简言之,若不完成这部分工作,即便其他环节做到近乎完美,在不同市场状态与不同标的上,这一块仍可能成为决定长期平均 PnL 成败的关键因素。

Jeff Yan:我们最初遭遇这类情况时,确实感到震撼。回想起来,我们当时算是幸运:起初交易的标的要么不易被操纵,要么对方尚未来得及下手。我们完全没有预见到这一问题,在“无知”的前提下搭建了系统,Pnl 一度进展顺利。但一旦中招,冲击会非常剧烈 — — 如果不对策略进行约束,可能在一分钟内亏掉一天的 PnL。有时自动化交易反而是最“愚蠢”的交易,因为它本质上只是一个缺乏人工裁量的有限状态机,只会按预设路径执行。我们的应对方式相当务实:当然,你可以坐下来细究、建模,去预测是否存在操纵;但我们当时的一项优势,是反应极快、以数据为依据,不执着于“最规范”的路径。对我们而言,做法就是 — — 一旦出现特定亏损模式,便直接关停相关逻辑;

Jeff Yan:这类规则往往在一小时内就可以完成编写,并直接上线到生产环境。当时我们严格遵循 80/20 原则:确实会因此错过一部分机会,但也由此腾出了时间与精力,用于扩容与推进那些能够将 PnL 放大 10 倍的关键事项,而不是被这些问题持续牵制。可能有约 5% 的时间,我们会因关停而放弃潜在收益,但这本质上是取舍与判断 — — 将资源投入到最具价值的工作上。

随着后续资源与时间更为充裕,我们才逐步将这一块做深:目前已经具备更复杂的模型,用于预测相关市场状态并识别正在发生的行为;相较早期较为“离散”的开/关处理方式,如今我们更多采取连续化的参数与权重调整,对策略进行动态约束与自适应配置。

截至目前,我们对这类操纵行为的运作方式及其可识别特征已形成较为深入的理解。但仍需强调:对新入行者而言,80/20 原则依然是最重要的行动准则。

市场操纵是否更多发生在长尾币种与小交易所

Jeff Yan:在任何交易所,比特币与以太坊上出现这类情形都相对少见,因为它们的流动性更为充足。我认为,这更多取决于资产本身,而非交易所。几乎所有交易所我都见过(操纵/诱骗)行为;不同平台上手法有所差异,你能感受到参与者并不完全相同,但整体套路大体一致。

其中存在一个“甜蜜点”:若某个代币几乎没有成交量,通常不值得投入;但对于部分具备一定成交规模的山寨资产则不同 — — 算法会在其上预期存在一定成交与流动性,于是便可能出现“可被诱导”的空间,从而使操纵者能够从中获利。

Corey Hoffstein:我一直认为,我们观察市场的方式往往受制于自身的交易周期。你作为高频交易者,对微观结构的直觉可能与我这种持有周期更长、偏基本面的人很不一样。你曾发过一条推文,将市场比作一种黏性流体,外部冲击在价格发现过程中会以阻尼振荡的方式呈现。我觉得这个比喻很有意思,能否进一步展开?

Jeff Yan:我同样重视对事物本质的理解。这大概与我的数学与物理背景有关 — — 若未能理解其内在机制,我很难在一个“黑箱”体系上进行创新。因此我倾向于构建一些心智类比与比喻,以帮助理解市场如何运作。

以“黏性流体”的模型为例,可以先回到一个更基础的问题:高频交易为何能够赚钱?不少散户会将其视为一种“掠夺”,例如认为我们在“抢跑”或“猎杀止损”。我并不是要宣称高频交易是在“行善”,但我认为它确实在一定程度上为市场提供了必要的服务。

可以将外部影响价格的因素抽象为对系统施加的“冲击”(对我们而言,这在很大程度上具有随机性):例如,有人短期内急需成交、必须立刻获取流动性;或是新闻事件改变了资产的“公允价值”。尽管有人会尝试解读事件本身,但这类需求往往是突发的,且通常“成交后即退出”。订单簿本质上是一个强 PvP(参与者相互博弈)的场域,许多参与者带着明确的执行紧迫性入场;并且会形成反馈循环:动量交易触发更多交易,进而催生多种不稳定均衡。

在这种结构下,价格往往先经历一次幅度最大的初始冲击,随后市场参与者才逐步“进场”并围绕真正的公允价(fair)展开博弈。第一跳通常最大;之后会有人判断“出现过冲”,据此进行均值回归交易 — — 既可能来自中频,也可能来自高频参与者,例如认为“未来 5 秒的均值上价格将回落”。与此同时,也会有人认为事件影响深远,从而选择顺势推动价格持续上行,直至出现更大幅度的涨幅;例如“Elon 将 Doge 纳入 Twitter”这类事件,在其叙事框架下可能被视为“具有真实影响”,从而反过来击穿均值回归一侧的头寸。

整体而言,这更像是一场以真金白银进行的“价格投票”与持续博弈。其关键特征在于:波动幅度会逐步收敛。随着参与者逐渐建立其目标头寸,资金不断完成加权平均,价格最终趋于收敛至更稳定的公平价区间。

在这一过程中,高频交易的核心功能仍是以低买高卖的方式提供流动性。若将价格路径视为一条上下波动的曲线,高频交易在曲线偏低时买入、偏高时卖出,其交易冲击在平均意义上会对该曲线产生平滑效应 — — 促使价格更快向公允价贴近,并在价格形成过程中尽量围绕公允价运行。

因此,在这一类比框架下,高频能力越强、市场流动性越充足,这团“流体”就越表现为更高的黏性(阻尼更强)。这一心智模型未必严密,

免责声明:

1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险

2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场