VC不是一个好职业

中午见到一个茅台基金的小伙子,做一级市场。我问他你会一直做一级投资么,他说如果在市场化基金,一定不会一直做,因为他觉得一级投资的成功不可持续、不可复制,有太多时代的因素。如果这样说,其实就不应该在这个行业待下去。他的潜台词是,如果正儿八经的搞投资,是无法持续挣钱的。如果想靠投资持续赚到钱,就得按照非市场化的方式来。这点我有点同意,但他这么说让我觉得既震惊又悲哀。

一级市场投资的从业者都是聪明人,但普遍处于困惑和拧巴的状态,看不清自己做的事情,也看不清自己。相比于其他行业,投资职业并没有更难,也没有更容易。就像其他行业一样,不会比别的行业明显更难或更容易。但大多数人确实不合适以投资作为职业,就像大多数人并不适合做企业家、医生、律师。

投资作为职业,为了赚钱,手段是资产增值。但资产增值有几种方法,一种是亲自去搞,想尽办法提高资产的价值。这也有很多方法,比如你可以亲自去搞经营,也就类似于创业或职业经理人,天天想着如何搞客户、拓市场、打造产品、聘用人才。但亲自经营不是投资人干的事情,很少看到投资人亲自做企业管理,而且投资人管理企业经常也不成功。但反过来,创业者或职业经理人转型做投资倒是很常见,而且好的投资人往往有这些经历,比如国内的段永平,海外有Founder’s Fund,也做得不错。

除了亲自经营,能提高资产价值的另外一种方法是偏金融的,即并购重组(或者所谓的市值管理)。这种方法是投行、PE干得事情。他们不在经营层面捣鼓,而是在企业层面,相对来说都是“大事”,西方有种说法叫“rain maker”。在我的理解下,这种资产价值的提高方式更多是通过“当前价差”或者说“套利”来实现的。比如经典的“门口的野蛮人”KKR搞RJR Nabisco,他们发现这家企业的食品业务估值被烟草业务拖累,如果分拆的话,食品业务单独上市可以在估值上“套利”,就是说即便业务不改善,只要剥离烟草业务再搬上资本市场,就可以享受资产升值了。更妙的是,烟草业务虽然拖累了整体估值,但现金流特别好,“rain maker”们可以空手套白狼。另外例子是国内一二级市场曾经有明显价差,IPO市盈率不能超过30倍,但只要上市市盈率都在30倍以上,那你只要能“打新”,就是妥妥的赚钱,而打新的大户是券商、投行、公募基金,这也是“套利”。放在过去都是所谓的“投机倒把”,要被抓起来的。

除了亲自经营和并购重组,资产增值的方法还可以完全是被动的:买进持有,等待增值,卖出获利。我们的股神巴菲特就是干这个的,所谓的股民原理上也是干这个的,VC或者说风投,是干这个的。这种投资的方法听上去有点不劳而获,其实不是,它的付出是“时间”。把今天能够用来吃喝玩乐的钱,放到以后,而且要承担风险。未来能有什么结果,完全靠“等”,结果错了,也没机会补救,因为不可能回到买进持有的那个时点。而时间对每个人来说,都是稀缺资源,要知道人的生命有唯一一件事是确定的,那就是死亡,或者说时间是有限的,我们只不过借来几十年的时间来花。所以被动投资的成本很高。

这里讨论的投资,都是指被动投资,如果范围再缩小一些,是指VC这种投资于未上市小公司的风投。

VC风投不是一个好职业。

以VC风投作为职业经常会无聊。因为VC投资本质是跟自己较劲,不是与人互动的职业。VC赚钱靠中小企业增值实现,纯靠等。不参与经营,人家辛苦干活没事不会搭理你。不做资产整合、不套利,各种资源方也不会跑来和你勾搭。很多VC说每天要见很多人、说很多话、频繁出差,因为要找项目,找LP,这段确实不无聊。但找项目和LP的过程不是在赚钱,是在花钱。

职业VC会长期没有成就感。做业务签个单会有成就感,搞研发迭代一次产品会有成就感,做行政安排个会议也会有成就感,而且相对周期都比较短,起码在一年以内。VC不然,一笔投资下去可能长年累月都没有收益,比如我们的项目平均持有年限是7~8年,在这段时间里是没有一分钱进账的。当然VC投资的成就感并不只来源于财务收益,还有判断正确的喜悦,可判断正确也要用时间来印证。更虐心的是,你的判断是正确的,但没有体现在估值或财务收益上。比如我投的网藤,投的时候认为工控安全会是一个割据市场,B端大客户销售能力是核心竞争力,所以选择网藤。后续行业发展也印证了我的判断,但一级市场不买单,网藤的融资持续不顺利。有人说,VC的成就感还有投项目,但能持续投项目的机构和个人太少。

没有安全感。这跟VC的业务模式有关,项目的获利是长期的,短期没有经营现金流。但日常的衣食住行都需要现金,所以很长时间你的银行账户持续失血。如果项目出了问题获利无望,或者在项目获利前你的银行账户就可能透支,那就非常焦虑了。为了应对这种不安全感,要不然你有向LP收管理费的能力,要不然就得有其他维持短期生计的方法。

一个职业,无聊、没有成就感和安全感,这怎么可能是一个好职业呢?

@2023年9月18日

重树信心,还需努力!

Vision Pro为增强现实行业树立新的标杆,但也证明即便是苹果也还没有准备好,整个AR行业距离爆发还需时间。此次发布更重要的是,Vision Pro为行业重新带来了信心。

考虑到产品价格,苹果与微软和Meta没有在硬件层面拉开差距。12个摄像头,5个传感器,6个麦克风,双4K Micro-OLED,Pancake光学系统,M2+R1处理器,硬件堆料上做到顶级,也导致了3499美元的高价。这个价格给到微软和Meta,相信也能做出差不多的硬件。

真正让人耳目一新的,是苹果的软件能力,具体来说就是手势+眼动的交互输入,和VisionOS操作系统。

微软Hololens七年前就推出了手势+眼动+语音的交互组合,取消任何硬件作为交互中介,但精度不高、操作复杂;后面的Quest等还是用手柄作为辅助。苹果的眼动+手势,手放在腿上就可以进行输入选择,很省力很自然,据说操作还很稳定。这是有点不起眼但很根本的进步。至于为什么根本,我的专题研究里会有提及。

很多人都说现在的AR缺乏应用,这次苹果展示了在办公、拍摄、观影场景下的应用,没有killer app。但这个很正常,因为从历史看,每一代新终端出现,伴随的应用都是现有应用的适配,关键是如何在体验上做到惊艳。苹果做到了,这背后是VisionOS,针对空间计算而生的操作系统,就是把新的交互方式融进了操作系统,然后从底层架构优化传统应用对新交互的适配。基于这款OS,苹果推出了各种开发工具,方便应用开发者适配已有应用或者打造新应用,这个意义是生态级的。

但苹果还是没有完全准备好,第一是价格,价格高是硬件堆料冗余和产业链不成熟的结果。第二个是Vision Pro是个MR,使用视频透视、外置电池、重量450g,导致室外使用难、移动受限,这些问题的解决还需要时间。

综上,毫无疑问苹果Vision Pro的发布对AR行业整体是一个大推动,让这个一直螺旋发展的行业向上扬了一大头,但确实还需要时间。

Transformer和ChatGPT怎么来的,会去哪里?

本质是概率,通过概率从文本中寻找相关性。人类智慧是否来源于相关性,相关性是否已在人类创造的数字文本中体现,机器是否知道如何寻找相关性。量变是否能引起质变。

ChatGPT——Transformer——Self-Attention——Attention——LSTM——RNN——Neural machine translation——Phrase-based translation

自然语言处理(NLP),包括自动填词、拼写检查、翻译、问答,本质都是基于文本,让机器将一串词变为另一串词。上述任务统统可以转换为根据已经输入的词语串预测接下来的词语(n-gram),基于统计求条件概率,即n-1个词同时出现的情况下,第n个词的概率有哪些。统计需要素材,即语料,规模越大、越完备,条件概率集越准确。

关键在于如何求得条件概率集。传统基于短语字典的方式(Phrase-based Translation,2003)预测准确度和灵活性不足。随着算力提升,引入神经网络(Neural Machine Translation,NMT,2013)。在输入和输出之间增加隐层(Hidden layer),隐层由多个权重和激发函数构成,可以自动提取输入和输出之间“隐含”的关系,尤其是非线性关系。隐层越多,提取的隐含关系越丰富,条件概率集越完备,但计算负担也越大。神经网络还能通过反馈自动更新概率集。

NMT的问题:1、输入长度n固定,隐含假设是第n个词只与前n-1个词有相关性,n大意味着参考的词多,条件概率的“条件”明确,“概率”准确。但n太大,可能在语料中根本找不到匹配的“条件”,算法失效。2、没有考虑语序,即输入词串的先后顺序不影响预测结果,这显然不符合语言特征。

于是引入循环神经网络(RNN,2014),循环是指隐层不断对自己之前状态的累加,即求解下一个词的隐层状态时,激发函数会使用之前所有的隐层状态作为输入。这样无论输入多少词语,预测下一个词语时之前的词语都会被考虑。另外,RNN的状态累加有个特点,序列中离预测词越近的词,累加权重越高,这样就建立起了与输入先后顺序有关的相关关系。

RNN问题在于:1、隐层权重固定,跟着算法累积,导致离预测词越远的词在预测词中的权重会指数下降,造成处理长句子的准确性下降;2、预测严格按照语序一个个来,与时间强耦合,无法并行处理,计算时间难压缩。

为了解决长句子难题,LSTM算法(Long Short-Term Memories,2014)被引入,隐层权重不固定,每次累积之前都调整。同时,使用Encoder-Decoder机制,把输入和输出解耦:Encoder负责利用神经网络寻找输入序列的特征,Decoder负责利用神经网络寻找具有类似特征的句子。输入句子和输出句子的长度(或构成)不再一一对应,NLP向AIGC迈出了一大步。

Attention机制(2015)是隐层权重调整的方法之一,思路很直观:权重应该按词语的相关度调整。因此在求Encoder的新隐层状态时,求它与所有历史状态的相关性,据此调整历史状态权重,将调整后的隐层状态作为Decoder输入。

Attention起初作为RNN和LSTM补充,无意中揭露一个事实:语言中的语序并不是先后,而是距离。NLP算法可以与时间解耦。

2017年,Google研究人员发布了Transformer,走出了顺理成章的一步——用Self-Attention完全替代RNN,与时间解耦。这样就可实现并行计算,无论神经网络多少层、多少个参数,都可以通过部署尽可能多的硬件资源来缩短计算时间,为大力出奇迹(大规模语言模型)提供了条件。

之后就出现了GPT、BERT、ChatGPT。