• 0
对话竹间智能CEO简仁贤:我要活下去,才能看见梦
统计 阅读时间大约10分钟以上(7834字)

2024-03-01 对话竹间智能CEO简仁贤:我要活下去,才能看见梦

来源:图虫
一家明星NLP公司all in大模型后的一年,一个明星创业者的全面反思。

本文转载自:硅星人Pro,作者:王兆洋。猎云网已获授权。

竹间智能还活着。

这本是不需要说的话。但在2024年春节开工的第一周,一张迅速传播的截图瞬间让这家AI独角兽公司陷入“全面停工”的风波,已经许久没有露面的简仁贤有些头疼。

“我们在面对一场转型。”这位创业第八年的NLP老兵在自己的视频号里回应。“一场艰难的转型。”

人们似乎也不在乎真相,哪怕截图里明确写着针对亏损业务进行调整,也挡不住流言发酵。“事件的发酵是偶然的。”在竹间位于上海徐汇区的办公室见到简仁贤时,他对我说,口气略显无奈。“这件事有些失控,而人们显然不关心到底发生了什么。”

这不是一个“突然崩盘”的故事,而是一个技术理想遇到冰冷现实后,一家曾经一路顺风顺水的明星独角兽终于要自己面对世界的故事。

在各种讨论里,一个广为流传的“点评”是,竹间这家曾经的NLP明星“倒在了大模型最火热的时刻”,言下之意一种被新技术需求抛弃的感觉。然而,竹间智能其实是最早也最彻底投身大模型toB 市场的AI公司。今天的一切,反而是简仁贤在从技术到产品到市场策略all in大模型一年后,看清现状而进行的一场痛苦的自我否定。

一年前太兴奋也太焦虑了,简仁贤对我说,当时看到自己期待多年的技术就这么扑面而来,他的决策也冲动了,但最终现实给了他“教训”。

“我在否定自己,而这很难。”他说。

“但我必须要活下去,活下去才能看见梦想成真的那一刻。”

当天的对话是“风波”发酵后简仁贤首次和外界交流,他十分坦诚,某些时刻甚至给人感觉已有些释然。

在对话中,他分享了很多惨痛经历换来的经验,这些教训自然不如人们已然习惯的Sora类的惊艳惊喜惊吓来的吸引人,也不如网络上用一个“全面停工”来概括一切更能迎合看客们“中美差距又在拉大”的情绪,但对于那些和简仁贤一样,同时陷在大模型带来的人类技术大突进和创业环境大低谷这两个重要周期里的创业者和实干者们来说,这一年简仁贤所经历的,显然无比重要。

“我都还没有放弃追逐梦想,哪怕这把年纪。”他说。

“我希望把这些经验分享出来,没什么可藏着掖着,大家还是要一起往前走。”

发生了什么?

硅星人:所以最近到底发生了什么?

简仁贤:其实涉及不同层面的事情。我先讲我们最近发生的事。

一个企业发生这样的事背后肯定有一长段的历程。这次事件的发酵是偶然的,因为我们在暂停某一些业务,需要考虑到很多法律法规,要给员工正式通知,但总是有员工会觉得不同意,就情绪化的传出去了,被错误解读,断章取义说是全面停工。

其实是我们在调整业务。

硅星人:所以事实上你们在如何调整业务?

简仁贤:这个说来比较长一点。

企业在三种不同因素影响之下,必须要做一个重大的改变。

第一个因素是融资环境非常不好。这个我毫不讳言,本来我们每一年都有融资,但2023 年年初的融资其实是 2022 年年底确定的,所以等于2023 年我们没有完成融资。

往年的话我们每一年都有融资事件,因为我们在新技术的投入上是最大的。从 2015 年以后所有的 NLP 都是我们自研的,里面没有用过任何开源软件。除了像 MySQL 等等这些因为客户会用之外,我们没有用过开源软件做我们的NLP技术和我们的所有小模型的算法。我们的产品也都是自研开发的,甚至我们率先研发出来,再被很多企业去抄袭,比如说我们的 bot factory, 一个机器人平台,这个平台到现在也是我们毛利率最高的平台,里面有数千个不同的小模型在里面。我们还有非常标准化的机器学习平台,呼叫中心用的助手,知识工程的平台以及知识库的产品等,这些都是我们用小模型历史迭代起来的业务,其实在我们最高光的时候,这些业务都做得非常好。

硅星人:然后ChatGPT来了。

简仁贤:对, 2022 年年底的时候 ChatGPT 突然横空出世之后,所有的行业里的人都开始焦虑跟急躁,包括我在内。你会发现说,怎么一个大模型的技术就这么来了?

因为2022 年年初的时候(InstructGPT论文发布后),我们在看 GPT 3 的时候都觉得这个东西至少还有两到三年才有办法承受。为什么呢?因为它需要大量的算力,这些算力很贵的,非常贵。所以 2022 年的年初,我并不觉得大模型有前途,因为算力太贵,我们做 Tob 的我觉得不可能在 3 到 5 年之内在 ToB 能够广泛落地。

后来到 Google 的PaLM出来后,我们从六七月开始,一直到 10 月的时候就开始用大模型来尝试着要做一些小模型的东西。后来发现大模型能帮助小模型去训练模型,提高它的准确率,帮忙制造语料等。那么到了 ChatGPT 真的出来以后,我们发现整个的语义理解经过大模型完全改变了。但是有一件事情没变,就是算力的需求还是很高。高到企业里面根本受不了。

所以到2023 年初我就提出来新的产品策略,叫 1 + 4 的产品策略。因为企业算力需求肯定很大,所以我想说未来我们应该是“卖算力”的——核心是提供一个平台让企业去做模型训练。

因为企业的数据无法外传,一定要训练自己的模型,那么这样子我提供了平台让他在我的平台里面能够去训练模型,去围绕模型端到端的把各种环节都做好,甚至连 GPU 的资源管理都做好。然后我后面再去用云资源,再去用GPU,我就可以赚中间的差价。这是一门卖算力的生意。

想明白后,我们就研发出来emotibrain,也就是模型工厂。基本上可以私有部署,也可以公有云。其实在美国已经有几家这样的卖算力的公司,做得非常不错。

硅星人:美国有CoreWeave。

简仁贤:对,他们以前做区块链,后来转型把手上的资源拿去提供算力,可以在上面训练也可以租用,当然他们也研发了一个共享算力的平台。

但我们在国内做不可能自己去买一万块GPU。我肯定就是用一些云计算资源,比如说华为云、移动云、电信云、联通云,他们都有很多云资源,还有其他很多,我就接他们,我们就算中间厂商。

这听起来是个非常好的商业模式,对吧?

硅星人:听起来比较理想。

简仁贤:对。所以当时我们也推了SaaS。结果还真的签了好几个客户。

硅星人:这个产品就是去年发布的对吧。

简仁贤:对,2023年年中推出的,我们的定价分别有299,399,和1000。用户上来可以用它做训练,拿数据来我们这里做打标签的工作,训练模型等。

硅星人:299是一个月吗?

简仁贤:对,299一个月可以让它用几个小时。所以这个算力的差价其实是有利润的,很有利润。现在我觉得这部分生意以后还是可以继续以项目的方式做。但是后来很快问题来了。现实跟想象不同。

硅星人:哪里出了问题。

简仁贤:问题出在需求。大客户或者是中客户虽然有这个需求,但是需求起得有点慢。

硅星人:为什么呢?

简仁贤:我们现在抛开一些表面上的这些问题,用第一性原理的来解释这些现象,其实用第一性原理来解释整个大模型的进展,就只有一句话。就是——整个技术迭代太快。

因为整个技术迭代太快,所以里面根本没有商业价值。

从All in 到 Half in

硅星人:就是你在这个基础技术上面做开发和商业拓展,但下面的技术又往前跑了。

简仁贤:对。如果一个新技术每个月迭代一次,To C当然很容易哗众取宠,但 ToB 的需要一段时间去消化。所有 ToB 的客户首先需要去学习,需要去探索,需要去试验、去论证、去提报。然后再去做ROI, ROI 完以后要再去提预算。提预算完以后他才有办法去做招标,再有可能到开发到实现。

当你每个月都迭代一次的时候,所有的客户都会观望。哎,那我再等一个月是不是有新的东西?所以整个的大模型从 ChatGPT 出来之后,我们其实做了一个比较极端的决策。就是我要 all in大模型 ,all in ChatGPT,除了emotibrain,我们还开发了KK bot。

硅星人:就是1+4里面的后面四个。

简仁贤:对,四个产品其中第一个。一个对话平台,专门基于大模型的。它里面可以做Prompt 的优化,Prompt的 template ,Prompt的生成,我们是第一个能够做Prompt生成的一个软件。我们在2022年12月就推出来了Prompt Generator,可以产生prompt。嗯,那个时候我就认为 prompt 很重要,但是撰写编写跟设计 prime 的门槛相当高。所以我们就设计出来好一些的模板可以自动让你生成。

当初我的要求就是第一降低模型训练的门槛,第二降低写 Prompt 的门槛,第三降低模型训练的成本。全成本,total owner cost 全部降低。这些体现在 1 + 4里面。另外几个也是在用大模型来升级我们已有的产品,比如培训产品,知识库产品,可以用大模型来做知识的检索。

当我们推出的时候,推到客户那边去,每个客户都很喜欢。不过他们都还在探索跟学习大模型。他们也觉得那要怎么把它们用到业务里面去?怎么样去说服他们的高层?大模型可不可控?光是在讨论大模型可不可控,说话能不能控制这些问题,企业的人基本上要花很多很多的时间自己去调研,请专家调研,才有办法去信任我们,光是厂商跟他讲是没有用的。

完了以后最重要的问题来了,数据不可外传,一定要本地。那就要私有部署。

硅星人:回到项目制了。

简仁贤:对。那我们帮你列一个私有部署方案。那接下来,算力呢?企业根本不知道算力要有多少,当你帮他算出来他的算力要有多少的时候。他慌了。因为你训练时需要GPU,推理时候 GPU 的需求可能又远高于训练的数倍到数十倍,这取决于你的用户数有多少,你对它的响应速度有多少,以及你的场景数据有多复杂。

模型响应快的可以四五秒,但许多主流大模型都是十几秒。客户无法接受,你知道客户要多少,要两秒。我说 从6 秒到 2 秒,它的算力的需求可能都要 5 倍到 10 倍。那时候一个 A100 的 DGX 的服务器都要 150 万人民币,八卡。那么 10 个 8 卡就要 1500 万。

硅星人:太贵了。

简仁贤:客户的智能客服想要用这个大模型,他不可能说先买几百万的 GPU 去做,然后把他现在可能几十万、上百万的智能客户系统全换掉。这个就符合我最初的判断,就是大模型在企业这种唾手可得的业务场景里面要落地是不可能,因为算力是相当高。

除此之外,第二是数据成本也很高。训练大模型的数据跟企业做结构化数据的梳理跟标注是完全不同的。第三个问题是Prompt,你帮企业部署一个大模型,可是企业用不起来的。因为他不懂得怎么写prompt。我们也曾经为一家大企业做一个垂直场景的大模型。对这种具体的场景,通用模型的泛化能力是没有用的,所以我们要自己去训练一个模型,我们也训练了两三个月,我们的算法工程师自己在标数据,每一天都去调优,然后又要去训练,一次训练都要七八个小时,然后再跑出来啊。这个整个的过程是很漫长的。

所以简单的讲,这些原因才造成目前企业在大模型落地速度有点慢。但是需求在不在?需求在,需求很大,可是落地的速度比较慢。从学习到验证到最后立项才知道原来要这么多GPU,然后打退堂鼓。

硅星人:就要重新再来一遍。

简仁贤:对。这个在我们过去一年多来我们的尝试耗费了大量精力,我们投入太多,回报太少。我可能投入这么多,预期回报是这么多,现在回报只有这么少。那我原来跟我们的股东讲说我去年要盈亏平衡,经过这个大模型我又亏钱,那你说我应该怎么办?

我说我做的这些产品技术都是业界最棒的,我们 KK bot做出来的时候,其实国内的基础模型都还没有那些功能,五六月我们做出来的时候都还没有,都还没有啊。他们都只还是有一个模型。比如Prompt builder是11月底ChatGPT出来后四周我们就做出来。但对客户来说,它是一套的东西。

硅星人:但你们已经投入了一年了。

简仁贤:我们是更极端的 all in 整个大模型去做,这导致我自己原先的产品的业务受损。但我认为其实我原先产品的业务可以是做得更好的。所以到去年年底我就在思考,我们的这个决定,就是1 + 4 all in 大模型的这个决定,是不是应该调整一下?所以我调整的策略是什么呢?

是 Half in。

硅星人:之前提到过去年您在用一个双引擎的策略,外界一度理解是你要大模型和传统小模型的业务同时做,所以其实并不是,而是all in 大模型?

简仁贤:双引擎的确是大小模型双引擎,但大小模型双引擎是 all in大模型,是大模型大带小模型。

硅星人:所以很多人说这次的问题是不够all in 大模型,其实反而是因为all in带来的问题,过去的所有业务都要用大模型改造导致的。

简仁贤:我们是all in在做,比如KK bot是全部重新开发,EmotiBrain上都是大模型。所以一个结果是我们所有的研发资源,所有整体的资源都往大模型里面去导,大模型的应用、大模型的中台、大模型的底层,甚至于我们也去做了模型训练的加速。

硅星人:加速也做了?

简仁贤:是的,我们连加速都去做,训练的加速。对,加速。加速 llama 2的 finetuning等,整个全栈都做,所以到了 23 年的年底,我觉得这样子不行了,所以接下来应该怎么办?我就觉得说我们应该再调整我的策略,就2024年不是 all in 大模型,应该叫 half in 大模型。

减少一半的意思是什么呢?是我要以我原先的这些成熟的经过好多年验证,经过 6 、 7 年验证的成熟的产品,小模型在前面,我用大模型在后面推。用大模型来帮助小模型,然后用大模型来兜底小模型。也就是说让我们的产品,不但客户能有小模型的快准省,再加上大模型的泛化能力跟语义理解能力。

所以我必须要暂停一些业务,比如说我们的 SaaS 业务,暂停一些我们的大模型的标准化产品的业务。再浓缩到我们原来成熟的产品,然后把基于我们的小模型的这个现有客户,未来帮他们升级成大模型的客户。这样我希望能够不让我们的客户受到干扰,不让我们的投资人受到干扰。

我们可能未来几个月的时间要用行动来证明,这个模式能在几个月之内让我们现金流转正,我自己能造血之后我再去看大模型。

所以如果时间能回到2022 年的 12 月,我可能就不会那么激进,我可能就会说让子弹飞一会儿。

硅星人:要等一等客户,不能比客户跑得快太多。

简仁贤:对。不能比客户跑得快。这是我 30 年来的心得。 ToB 你要比客户慢, ToC 你要比用户快。完全不一样。别人的理解就跟我不一样,别人理解说 ToB 你可以有既定需求, ToC 你不用去管你的需求,其实这是错的。ToB 就是一点,你要赚钱速度就要比客户慢。ToC 你要赚钱,你就要抢在最前面,刚好相反。

硅星人:所以当初all in的时候甚至你想让客户也要跟着你一起 all in 大模型,而现在 half in,相当于另外一半是自己逐渐消耗掉,自己继续来理解这个大模型,可能客户不需要知道你很多东西是用了大模型,但是你会在这个产品里用你们的技术积累和技术的认知去继续改造。

简仁贤:对。我要往后推一些。原来我们总是跑到最前面去引领创新,因为我的骨子里面一直都要走在最前面。

硅星人:其实这引出来另一个我想问的问题,你当时为什么没有做基础模型?

简仁贤:因为我们是7年的公司,你不可能说用大模型的估值去融这么多钱,融不到,而且相对应的人才都很贵,我要先融钱才有办法。我也跟投资人开玩笑说,可以竹间不做,我另外再去起一个公司,可以做一个 10 亿的公司,马上可以融2亿来做。但是这个是题外话。

今天Half in的意思就是说我不能放弃我能赚钱的东西,而去追求一个还没有需求爆发的东西。所以我应该是说,我的客户他们要的是什么?它要的是大模型么,它其实业务没变,存款还是存款,贷款还是贷款,风控还是风控,都没变。只是说他要你要解决他的业务问题,有没有用最有效的方法?

后来我发现我们的客户都是怎么样,是我要你这个小模型的这个成熟产品,但是这两个场景帮我用大模型做。所以其实变成80% 用我们成熟产品, 20% 用大模型去做探索性的场景,那么这些以后就变成二期、三期了,所以我们现在的方式是这样。这是一个很大的转型,这样企业才能生存。

硅星人:每天被这些新技术FOMO式的冲击,让人们忘了NLP在过去十年有多成熟,它是一个成熟的 ToB 的市场,成熟的需求,成熟的产生现金流的跑通了的业务模式。

简仁贤:是的,没错。

硅星人:而NLP公司们还有一个特征,就是它已经有一个成熟的业务模式但同时 NLP 它本身是一个一直在进步的技术,哪怕没有大模型出来,它也是一直需要技术投入的一个行业。所以您提到的融资环境,今天整个中国投资市场的弹药就这么多了,那如果都去了大模型公司,过往本身非常需要融资支持技术研发的NLP公司,弹药就不够了。

简仁贤:是的,没错。所以因应这种环境,大部分的资金都是投月之暗面,minimax,智谱,对吧?那我们怎么做呢?很简单。我们就自己造血。

所以我为什么这次转型就我要先自己造血完以后我能够有盈余的,我再加人、再加产品,再加产品、再投入。这样子 we can survive for a long time。

(不做基础模型的另一个原因)是你说现在的这些大模型的公司,其实他们经历的就是我们六年前的故事。其实历史一直都在重复。

我们刚出来的时候,我们做的 NLP 已经是很牛啊。那个时候我们去用Bert,就有数十种不同的Bert,一个模型也要用 CPU 训练好几个小时。我们也知道业界里面去卖千亿大模型的源代码,一年一年卖,就几百万而已,还要提供人员去帮他做调试,这种价格非常低的,都是赔钱的。

所以现在这些大模型经历的可能是在走我们五六年前的路,所以我现在调整的方向,就是大模型落地是要基于我们的成熟产品去落地,还有我们的 know how 去落地。我己有的高毛利的业务搬到前面来,大模型在后面,然后等到大模型的成本降低了,算力成本、数据成本、推理成本都降低了,我那时候能再次全部 all in。

回归到第一性原理,不要为新技术潮流所带来的这一些疯狂的追捧而迷惑我们应该要有的企业发展方向。

我要活下去,才能看见梦

硅星人:必须走一条不同的路了。

简仁贤:对,不是只有竹间,是我们这一类的公司必须要去造血,所以我们在走一个蜕变的路去造血。

其实这里有一个模式,做 ToB 的公司它如果要在七八年就要盈利的话,它的技术发展肯定会有迟滞。原来我不希望这样子,我希望每一年我们的技术都往上升。但是这样就每一年都要亏钱。

我举一个例子,美国很成功的一家公司叫Palantir 了,它现在的股价为什么涨这么高呢?第一个它从去年 Q4 开始盈利,连续两季度盈利,市场为什么来追捧他,因为认为在美国或者是欧洲所有的企业对于 AI 的需求会上升,而它是最具有这个能力去帮他们提供服务的。但是很多人不知道Palantir成立了几年。

硅星人:20多年。最初做美国军方生意的。

简仁贤:对。他原来就是美国军方业务占90%,然后上市之后股价也一直都很低迷。后来转型做非军方业务、非政府业务。但是他做了 20 年才开始盈利。因为他在技术的投入非常多,数据的投入他叫 data intelligence,这个投入非常非常多,现在他开始投入大模型就很容易做,因为他客户在那。所以我觉得我们应该是他这种模式,不能急躁。

但问题是国内的资本能不能忍受我们亏 20 年?

硅星人:目前看起来不太会了。

简仁贤:我们现在处于这个节奏,就第一我们没有美元资金,第二国内的资金周期又比较短,国内的市场基金又不太可能忍受我们的这个亏损。那我们应该怎么办?应该忍痛停止一些业务先造血,只要我们这一关能够 turn over,能够过去,我们就变成一个很健康的企业模式了,所以我一直在打磨这个模式。

硅星人:所以,竹间智能长大了。

简仁贤:是,终于长大了。

硅星人:你的身份也变了,以前是微软的高管,大厂里做创新业务,后来这八年是高光的不愁融资的明星创业者。现在是不是面对整个公司做这样的决定也让你的角色变得更不同了。

简仁贤:是,这个要求其实蛮苛刻的。这个要求是在让我自己跟自己在做天人交战。因为以前我们都是用第一人称在做这个公司,就所有的开头都是“my dream”。This is my dream, this is my passion,this is my success,his is what I do(这是我的梦想,这是我的激情,这是我的成功,这是我的做法)。

但是现在我遇到了一个完美风暴:新技术排山倒海的在颠覆,同时,资本寒冬。而且我们自己曾经原本已经要上市,后来窗口没有了。三个方面的冲击同时来,完美风暴,我该怎么做。

其实过去这几个月其实蛮煎熬的,其实就是我在寻求你刚才讲的这样一个转变。

后来我找到了一条出路,就是把自己抽出来,不是第一人称在做这个公司,而是抽出来,自己成了别人,然后来建议我自己,如果我是你我会怎么样做。

然后要做一个非常大的调整,这个大的调整就是否定自己做过的有些事情,你要去否定它,这很难,否定自己是最难的。因为你一旦没有做好,你的信心整个就没了。所以你要去否定,要去承认自己有些做的事情是错误的,那你要去调整它,你能不能调整。而且当你调整的过程当中,你的团队有可能认为,你怎么变来变去的。

硅星人:因为没有任何一个人能掌握跟你一样的信息。

简仁贤:没人能够理解你的各种因素,投资人的压力,投资人股东,你的财务、你的上司,你的合作伙伴,还有你的这个工作的员工小伙伴,等等的这些人,没有人能够去理解你的这个状况,那你自己就要抽出来了,抽出来了应该怎么办?所以我们才做这样一个比较重要的比较痛的一个决定。

回到day zero,不要把自己当做一个成熟公司,融了好几轮再继续融。no,应该把它当作 day Zero,是没有钱的时候你怎么办,没有人的时候你怎么办,没有客户的时候你怎么办。要用这样的方式去思考你的商业模式,用第一性原理去想你的问题,这样你就可以看到很多真相,而这时候做决策其实很多是在否定自己,那你能不能接受,接受就能够成功,不能接受的那就没了。那剩下就是你有没有这个胆量,去执行。

硅星人:没有被迫一定要做这些事情的时候,可能真的就逼不出来这样的一个自己。

简仁贤:对,非常对。就是一个人的认知都是在他真正经历磨难的时候才能够理解的。你平常去教他去建议他是没有用的,他必须要自己去踩。当你在高光的时候一直在往亮的方面去走,你看不到黑暗面,真的,你到黑暗的时候你才知道理解到黑暗是什么。我做了这么多年,我现在才理解。

硅星人:听起来很残酷,那你创办这家公司的那个梦也醒了是么。

简仁贤:其实梦还没醒,这个梦还在。就我常常提醒自己的一句话就是, i will not give up on my dreams, i will not give up on myself。我不会放弃我的dream,我也不会放弃我自己。

但是我们要完成这个梦的过程当中,不会是每一天都是顺的,这个是新的认知,不像以前我们每一年都是顺的,以前我们的过程当中我们股东没有退出的,你信不信,他们都认为我们很有前途。这个就是我的责任,这个梦的部分,我最初要做这个情感机器人的部分,我去年就是时候我看到GPT我觉得可以做了,然后现在看到这个数字人的时候,我说,哇,这个加上声音克隆,加上多模态,对,就完全是我的 dream,我一直想做的那个。

但是我要达到我的dream,我必须要能survive。所以我在做的工作,不是梦醒,而是要survive。If i don’t survive, i will not see my dream come true(如果我不能活下来,我不会看见我的梦想成真)。我需要 survive till the day when my dream comes true(活下来直到梦想变成现实)。

所以,我的梦还在。我年纪这么大但我还是不会放弃梦想放弃自己。

1、猎云网原创文章未经授权转载必究,如需转载请联系官方微信号进行授权。
2、转载时须在文章头部明确注明出处、保留官方微信、作者和原文超链接。如转自猎云网(微信号:lieyunjingxuan
)字样。
3、猎云网报道中所涉及的融资金额均由创业公司提供,仅供参考,猎云网不对真实性背书。
4、联系猎云,请加微信号:jinjilei
相关阅读
推荐阅读
{{item.author_display_name}}
{{item.author_display_name}}
{{item.author_user_occu}}
{{item.author_user_sign}}
×