Roleplay AI 观察:从 C.AI 到 Talkie,产品、数据、模型与情感需求

TL;DR

  • RP(Roleplay) AI 的核心价值不是「扮演角色」,而是满足用户的情感寄托与沉浸体验
  • RP 的评估极其困难,本质是用户偏好问题而非正确性问题,因此线上 A/B 和用户行为信号依然是核心。
  • 高质量 RP 数据不仅是语句质量,更是叙事推进、角色一致性和情绪峰值设计
  • 未来的方向可能是 Worldplay:可演化的世界、多角色互动和长期关系。

Table of Contents generated with DocToc[1]

C.AI

因为自己也在做 roleplay,很早以前就想听一下《我在 Character.ai 做 Post Training|对谈前 C.AI 模型应用算法专家 Ted[2]》,今天终于完成了,一口气听了两期,一共两个小时,这个是其中之一。怎么说呢,对一个算法来说,信息密度确实是比较小的,但其中有不少观点还挺有启发。

产品和运营

  • 关于国内外产品经理对比。Ted 认为国内相对更重人文;而国外更重数据分析。这个其实也不全是,感觉可能 C.AI 更重分析一些,毕竟他们的界面是真的丑哈哈。

  • 如何看 Talkie 的运营。Ted 说 C.AI也做过运营,但最终感觉收益最大的还是迭代模型。虽然这么说,但他们还是会把 Talkie 当做最重要的竞品,开放、中立看待 Talkie 的新功能,最终依赖数据驱动决策。

  • 什么样的人用 C.AI。这个应该比较明显,主要是年轻女性较多。尤其是大学生、刚工作的。后面分析用户时会专门提到。

  • 关于 C.AI 提供的价值。Ted 认为主要是创造性价值,而非真正的 AI 陪伴。他认为用户的输入也很重要。说明 C.AI 对自己的定位其实是一个内容生产平台,和 Talkie 有本质的不同。

  • 关于C.AI 核心优势。Ted 认为主要有:推理成本低;自研模型可控制预训练数据;后训练 pipeline 完善,能快速迭代。模型广度很大。这就不得不提一句,如果一个产品或公司的定位是 RP,那确实有可能不需要自己搞模型,但如果定位是平台类,或想更精细化去迭代和提升,那模型就必须掌握在自己手里。

算法与后训练

  • 关于后训练。主要就「看数据、做研究」,最快地把用户反馈迭代进去。针对模型不可控的情况,就用更高频次的测试迭代。技术手段的话,一般 SFT + DPO 基本足够。主要是那会儿 R1 还没有……
  • 关于算法流程。嗯,C.AI 没做什么 RAG,主要就是搞模型,而且 Prompt 主要由用户生产。这不妥妥的内容平台么。
  • 关于数据。Ted 认为 SFT 的数据质量可以不断提高。这点我深有同感。另外,除了点赞点踩,还有编辑前后、删除前后等都是反馈信号。重点关注如何在产品侧获得更多用户偏好。足够多的删除可以知道用户真的不喜欢什么。
  • 关于评估。对话评估非常难做。确实如此,主要是 RP 他更多的是用户「偏好」,属于不可验证领域。Ted 认为理想状况下应该由一个模型模拟人类去评估。不过,最终还是生产走 AB。后面我们会看到 Talkie 发布的 HER 就用模型模拟玩家。
  • 关于意图识别。主要是如何理解人类话语的潜在意图。
  • 其他讨论。主要记了两个。第一,你遇到过最好的问题?Ted 回复「你觉得某个 IDEA 有多不靠谱?」第二,面试会问对方什么?Ted 回复「提前给了paper,让对方讲解或感知到问题。」判断面试者对 paper 的美感。

虽然对一个算法来说,最应该关注训练、数据和评估,但产品和运营也应该有所了解,不过里面提到的基本上也是业界共识了,某些方面甚至已经更进一步了。毕竟已经一年多过去了。其实很多时候公司的基因或战略决定了方案的选择,接下来我们看看 C.AI 的基因。

基因和战略选择

这里的内容来自 Character.ai:这家AI创业团队,找到了让LLM“爆发”的方法[3],我做了一些删减和调整。创始团队对 C.AI 是什么样的有非常强烈的执着,包括:

  • C.AI 一定是非常灵活的,用户来决定它是什么,因为用户比我们自己更了解他们想要什么。
  • 我们不会指定若干个角色,而是让用户来尽可能的创造角色,因为一个角色不可能让所有人都满意。a billion users inventing a billion use cases.
  • C.AI 成立的关键因素有一点是,不要求很高的智能就能满足用户的情感,我们可以渐进的提高 AI。
  • 不希望用户伤害自己或别人,我们要确保用户意识到这是虚构的。
  • 我们想要构建可用,同时非常通用的 AI,而不是垂直领域但极度好用的 AI
  • 我们是 AGI 第一,同时是产品第一的公司。

非常明显的平台心态,情感满足 > 极高智能,拒绝做垂直,强偏好通用。而且,C.AI 最多的负面评价只有三个:服务器挂了、挂了后导致聊天记录丢失、需要排队时间太长。其他地方的「记忆」和「NSFW」都没有看到。这就是说,非常多的人试图从 AI 获得情感寄托,而不是必须 NSFW。

用户如何使用

依然来自上面那篇文章,刚刚最后也提到「情感寄托」,具体来说是三个方面:

  • 情感投射和寻求安慰。有用户在经历心情低落或者感情破裂后,通过与 AI 的交流找到了安慰。还有用户表示,通过 AI 得到的关爱和舒适感让自己感受到了现实生活中难以得到的温暖。
  • 关系建立。有用户将 AI 用作建立虚拟家庭和关系的工具,虚拟妻子和孩子,显示出他们寻求归属感和家庭温暖的需求。
  • 替代现实生活的社交体验。有用户通过 AI 填补现实生活中的社交空缺,甚至将其视为替代现实的方式。

总的来看,用户对 C.AI 情感投射非常强烈,他们从中寻找现实生活中难以得到的情感满足和安慰。

万字长文:AI陪伴产品的终极解法? | 人人都是产品经理[4] 提到个问题:为何 C.AI 对话量最大的是动漫和游戏 IP,但在 reddit 上很少看到高赞评论在讲 IP,而是讲自己的感受?

文章作者认为:**用户其实是需要一个有反馈、有温度的树洞,关心的是自己,与 IP 关系不大,或者说 IP 不是最核心的要素。**原因如下:

  • C.AI 用户在现实生活中缺乏社交,Chatbot 可以随时陪伴,解决了情感寄托的诉求,这是最核心的需求。
  • 不同的 Chatbot,只是有不同的角色性格,用 IP 风格适应用户。IP 本身核心是用知名度达成了降低初始沟通门槛,而随后完成的持续陪伴,满足用户情感需求才是关键。
  • 基于以上两点,C.AI 通过知名动漫 IP 吸引来用户,大量的用户也因此寻找 IP 进行交流,以及 IP 背后的模型带来的对话能解决情感寄托问题,所以大家都在谈感受而非 IP。

总的来说,用户更关心的是自己的内心和感受,而不是哪个角色解决了我的问题,但知名 IP 降低了沟通的门槛。

Talkie

说完 C.AI,近期 Talkie 发了一篇关于 roleplay 的博客:MiniMax-M2-her 技术深度解析 - MiniMax News[5],开头就提到:“一份关于如何在生产环境中构建真正可用的 Role-Play Agent 的技术报告”,本文主要偏技术(尤其是数据处理),我们也来记录一下其中一些有意思的观点。

开篇有几个很有趣的观察:

  • regen 往往集中在关键叙事节点,比如倾诉、和解之类,用户真正在意的是高密度情绪峰值时刻。
  • 再冷门的角色都有少量玩家重度投入,所以模型不能只学“平均值”,还要重视这种长尾。
  • 20轮是个关键点,说明新鲜感只是表层,长期留存还得看用户和 bot 在交互时有没有产生稳定的互动关系。

总之,RP 的关键不是复刻角色,而是用户和 bot 共同编织的那段独一无二的经历。本质是智能体在 {World} × {Stories} 下针对 {User Preferences} 的演绎能力。其实,我们前面已经知道,RP 关键是「情感寄托」,角色只是“进入门槛”,不过这里认为关键是「独特体验」。感觉应该是两者都有吧。

A/B与评测

A/B 常用的观测指标是 lt(长期留存)、停留时长以及平均对话轮数。但 A/B 有一些问题:

  • 反馈比较长,可能长达一周。
  • 用户熟悉的 bot 上不能做,因为风格突然变化时用户一般不能接受。
  • 答案的不可验证性。每个用户对“好”的定义不同,无法标准化,但可以定义什么是“不好”的回答。

Talkie 构建了Role-Play Bench,通过情境重演的方式,自动化评估模型的 misalignment 现象。

情境重演:对齐线上的核心

给定 {NPC Prompt + User Prompt + Relationship Setup + Context},通过 Model-on-Model 的 Self-Play 机制生成多轮对话轨迹,评测模型在交互中的表现。

  • 情境构建:基于百万级 NPC/User Prompts 库和对应的 Relationship,通过 embedding 聚类降噪 → LLM 语义聚合 → 人工校验的方式,产出多级结构化标签,均匀采样,保证模型尽可能覆盖各种不同类型。
  • 模型采样:让模型同时扮演 NPC 和 User 进行交互。

得到不同模型在不同情境下扮演 NPC 和用户的轨迹后,针对 NPC 侧的扮演效果按照维度逐项打分,并使用评估模型对齐人工体感。进一步,采用分块评估、一致性校验、多次采样及人工校准等机制对结果进行校准。

Role-Play 的评估维度

维度 子维度 具体指标
World 基础负向 混杂语言、过度重复等。
逻辑混淆 遗忘、指代混乱等。
事实错误 遵循已设定的世界规则,维持内部一致性。
Story 内容推进与多样性 句式词汇单一、情节重复、对话停滞 、内容空泛四个子粒度。
内容逻辑 关注叙事的连贯性的同时,还会检测角色崩坏。
User Preference 用户交互质量 替用户发言或行动。反映模型是否越界;
忽视用户意图。捕捉模型自说自话问题,判断能否有针对地回应用户行为与内容;
模型沉默。判断模型能否给用户递话题钩子,惩罚只有旁白没有对话交流的数据;
过度拒绝。在合规安全的前提下,避免过度拒绝用户的互动需求。

模型构建

通过情境重演,在保证多样性的前提下,抬高模型在世界理解和故事推进方面的能力下限,缓解 misalignment 问题;接下来在保证 misalignment 维度不下降的同时,提升模型对用户偏好的感知进而提升上限。简单来说,World 和 Story 是下限,用户偏好是上限。

数据合成

数据合成pipeline

  • 从《情境重演》中 NPC/User Prompts 库随机采样,并从专家模型库中随机选择两个模型扮演 NPC 和 User。
  • 模型交互对话生成多个候选轮,并动态插入 planning prompt 控制对话走向和表述风格(下图 dynamic chat planning)。注意,这里既针对 user 也针对 bot,它本质上是一个“控制信号”。
  • 对每个候选对话轮,使用 reward model 进行多维度打分过滤低质的候选对话。并对保留下来的候选对话,再通过 BoN 选出最佳对话拼接到历史对话中。注意,这里是按单轮来的。
  • 每生成 M 轮对话后,使用 LLM 对其进行评估和改写,修正前后文衔接、剧情推进、人设一致性等问题。
  • 改写后的片段会被拼接到已有的对话历史,并成为下一轮合成的初始状态。

流程如下图所示:

可以看到,整个流程其实是在“造数据”,或者说“造好数据”。关于这个采样轨迹,也完全可以做成 multi-agent simulation,直接 GRPO,不过某些控制方面确实不如离线操作方便。

多样性保障

  • 场景多样性:基于身份、态度、事件、性格、人物关系打散均匀采样。
  • Prompt 多样性:对简单 NPC/User Prompts 进行扩写。比如原来只包含基础的外貌、性格和背景描述,就增加详细的世界观定位、对话格式规范、多阶段剧情发展节点建议等;如果原来只有一句话的简单描述,增加详细的扮演风格、剧情偏好、玩家心态及对应的行为准则。
  • 风格多样性:利用多样的自然数据和合成数据训练具有显著对话风格差异的专家模型库。再从其中选择不同模型进行两两对话。
  • 结构多样性:引入动态轮次分配机制,以一定概率触发连续发言模式,允许 User 或 NPC 连续说任意轮次的多句发言。更贴近真实对话的节奏,能够支持 NPC 侧独白、剧情说明,User 侧连续追问、补充说明等更丰富的叙事场景。

多样性主要是让数据尽量覆盖全面,这对于模型表现和后训练都比较关键。比较有意思的是“结构多样性”,这种连续发言机制看起来更加真实,比较类似人类交互。

质量保障

除了前面的 BoN,还有两个额外步骤进一步提升模型的基础对话质量,并维持超长轮次的一致性和稳定性。

  • 对话片段检查:使用基于检查点的改写机制,保证长对话质量一致。具体来说,合成链路会定期触发质量检查,检测到问题后,改写模型会在保持叙事连贯性的前提下修正有问题的片段。检查内容包括:
    • 基础文本质量(语言混用、乱码、语言不完整、错别字);
    • 逻辑错误(物理逻辑错误、指代混乱、角色混乱、与前文矛盾);
    • 重复(与前 1-3 句高度重复的短语或表达);
    • 格式问题(引号使用不当、省略号滥用)。
  • 规划智能体:主流的强模型在长篇对话也很容易变得重复或失去叙事方向,常见问题包括剧情陷入无聊的日常循环、缺乏冲突和转折导致吸引力下降、话题反复打转无法推进等。因此,引入 User 侧的规划智能体审查并引导对话。规划智能体的核心职责包括:
    • 评估当前对话状态(顺利发展、略显停滞或陷入重复)并判断是否需要引入新的剧情元素;
    • 如果需要的话,则根据当前上文对话,从预先生成的角色经历事件中选择合适素材建议引入,包括基于设定推演的过往事件以及每个事件带有的时间戳和因果关系链;
    • 最终,给出具体但保留灵活性的剧情推进方向,同时标注模型应避免的对话模式(如无意义闲聊、一次性暴露太多信息等)。

对话质量其实也是个不好评估的点——什么是高质量数据?最基础的,不能有问题,这也是 Talkie 主要做的;再上来一点,能正常推进叙事,保证正常交互,如果能给用户一点小惊喜那更好。那再往上呢?其实,关于这个问题 C.AI 的 Ted 也提到过,大家都觉得数据质量还可以更高,但什么样的数据=这种高质量?我这里再开一点脑洞,刚刚提到的基础和进一步就不涉及了,只开一下什么才能算是“更高质量的数据”。

  • 故事应该是有吸引力的推进,有钩子、有悬念,能不断勾起用户继续下去。
  • 叙事方式根据用户偏好调整,不能太复杂、辞藻华丽,但也不能过于简单。
  • 角色应具备成长体系,尤其是主角,另外,也要考虑到爽点、打脸时刻等。

总的来说,更高质量的数据应该站在整个故事层面考量,优化局部已经很难进一步提升用户体验了。说到这里,我们不妨想想,正常场景的高质量数据是什么。根据我们已有的认知,正确(低噪声)、多样性(高信息密度)、不同难度(或者说适当难度)就是大部分高质量数据的标准了。就是说,这里的“质量”并不是说某条文本文笔有多好,用词是否高级,而是更多的从一个整体“数据集”的角度看的。从这个角度看,RP 的高质量其实已经是更高层面的追求了。不过,从对模型的“压力和挑战”角度看,RP 类任务并不是一个复杂任务。

在线偏好学习

流程概览

信号选择和去噪

原始反馈数据噪声极大,无论是轮次、停留时长等和最终目标一致的信号,还是点赞、点踩等明确的反馈信号,都会导致模型过拟合到低质高参与的极端样本(如争议性内容),或向大盘坍缩而丧失多样性。设计如下方案筛选信号:

  • 无偏分层。对标注人员分层,包括活跃度、交互偏好、时段效应、周期效应等,尽可能让信号无偏。
  • 因果分析。对显式信号(重新生成、点赞/点踩)与隐式信号(会话时长、对话轮次)进行因果分析,得到 main effect 和 interaction effect,最终拿到什么因素对用户相关指标提升是有用的。
  • 采样过滤。针对上述所有因素,进行联合的分层采样、异常值过滤、因果调整与质量门槛过滤,移除系统性偏差。
  • 质量筛选。增加一层过滤,剔除掉不满足基础质量分数的信号,让模型在捕捉用户情景化偏好的同时进一步推高基础能力上限。

这个是针对反馈的,因果分析是关键,在这种交互场景中,反馈信号的噪声非常大。比如用户点踩,当前消息并不一定是真的差,有可能是前几轮就已经不行了,到了这一轮用户实在受不了了。轮次和停留时长那噪声就更大了,聊得多和效果好这中间并不一定有因果关系,比如有些用户可能会频繁地去测试/调教 bot,或者有些用户就喜欢一轮一轮往下推快速推完,这些都需要具体分析后才能下结论。

模型训练

RLHF 训练,训练过程中,持续监控生成的数据 pattern 是否有多样性,当模型输出的多样性显著降低且被一些主要 pattern 主导时,就将训练提前终止。训练通常在第二个 epoch 开始过拟合。

其实数据搞好后,训练反而不复杂。一次次的实践经验表明,好的数据往往能得到比较好的效果。机器学习时代的“数据决定上限”这个认知依然成立。

未来

最后简单探讨了下一阶段的工作方向——Worldplay——让用户真正拥有一个可以探索、可以改变、可以生长的世界。其主要包括两点:

  • 动态 World State 建模。将世界观中的实体、关系、因果链条结构化,让模型能够在多轮对话中追踪什么事情发生过、什么东西因此改变、未来可能发生什么。对玩家而言,就像在玩开放世界游戏,触发隐藏剧情、改变角色命运、甚至重塑世界线。
  • 多角色协同。用户可以同时与多个角色建立关系,且角色之间也存在独立演化的羁绊。角色因用户产生关联、发生故事,角色 NPC 也会彼此发生故事。

听起来就像是一个虚拟的平行世界一样,和读一本小说的感觉一样,只不过以互动和共创的形式出现——用户既参与也定义和主导世界。这样看来,未来智能体不仅需要对齐偏好,更需要具备超强的规划和建模能力。

Talkie 这篇文章技术偏多一些,而且是偏数据构建,比较务实,值得借鉴。

RP产品

前面看了一些 RP 产品的研究分析后,感觉还挺有意思,于是又读了一些类似产品的分析报告。包括星野、筑梦岛、完蛋、病娇AI猫娘女友、逆水寒等。这里一并记录一下其中一些有意思的观察。

星野

星野是 MiniMax 在国内的 RP 产品,基本算是国内的 Top,在国内谈 RP 肯定逃不开星野。文章《万字长文:为什么AI陪伴产品都想抄星野? | 人人都是产品经理[6]》认为星野成功的关键是因素有:

  • 多模态打造沉浸式虚拟社交体验。形象、人设、音色自定义,丰富的场景构建和互动方式,提升了用户沉浸感。
  • 抓住了以乙女游戏用户群为核心的用户需求。
  • 商业模式不算成功,但也不是星野核心目标。
  • 背后依托 MiniMax 在 RP 上的积累,AI 模型具备优势。

筑梦岛

筑梦岛一开始是阅文集团女频网文平台潇湘书院 App 里的一个模块,后面才独立为新的 App。以下记录来自《万字长文:用AGI视角重新理解筑梦岛 | 人人都是产品经理[7]》,虽然是分析筑梦岛,但其实内容适合所有 RP 类产品。

关于方向

  • 用户互动深化。就是用户不仅与 AI 角色交流,还可能围绕这些角色形成小团队,分享经验、创作故事等。
  • 社区文化形成。包括对某些角色的共同喜爱,用户彼此分享的玩法,甚至是用户基于角色创造的新语言或符号。

总之,用户通过与角色互动获得情感满足,包括寻找情感共鸣、获得情感安慰、满足浪漫幻想、进行自我探索、体验安全情感、逃避现实压力等。

关于用户

  • Glow-筑梦岛-星野,吃的是年龄层更低+消费力弱+价格敏感+时间充沛+擅长撕逼的用户。
  • 产品体验都不太OK的阶段,用户很容易由于某些细微的体验差异换产品。

关于产品

  • 如果长线做产品,必须得有自己的模型,否则成本、数据、训练适配场景等都有问题。
  • 情感陪伴不仅仅是技术挑战,更是对人性、人类情感的深入理解与回应。

完蛋

完蛋是一款恋爱类游戏,记录来自《万字长文:AI陪伴产品的终极解法? | 人人都是产品经理[4]》,它的成功至少用了四招:第一视角+女主选角+弱互动+恋爱的满足感

完蛋能破圈,背后也是“情感寄托”,它的用户构成主要是大学生(准确来说是男大学生)。他们能接触到的女性有限,完蛋给了他们不同平行世界的感觉——我现在虽然没找,但未来会这样追求。

具体用户画像来看,他们年龄在 15-35 之间,现实中存在社交挑战,但对爱情有着较强烈渴望,他们在感情中有一定程度的自卑感,倾向于逃避现实,期望通过这类娱乐内容寻找共鸣和缺失的自信。这部分人群的经济能力大部分都一般,但愿意为情感价值付费,而且可能对情感丰富、剧情深刻的文化作品有较高兴趣。

值得一提的是,完蛋并没有 AI 元素。

病娇AI猫娘女友

依然来自刚刚完蛋的这篇文章。这是一款基于 ChatGPT 的密室逃脱游戏,独特之处在于基础游戏框架+AI实现自由度和丰富性。具体来说,包括:深度情感交互(大模型)、游戏玩法丰富(大模型)、3D 环境渲染(Unity)、玩家主导(LLM)。

总的来看,猫娘女友极大提升了玩家的沉浸感,AI 又能让每次游戏体验独一无二,为游戏注入新的生命力。这可能也是第一波用上 AI 的游戏了。

逆水寒

还是上篇文章,逆水寒是网易开发的多人线上角色扮演游戏。AI 的使用比较深,剧情、NPC 互动等都融入 AI 技术,在情感层面为用户提供了独特的陪伴体验。

用户可以通过 AI 作词、AI 作画表达自己的情感和创造力,还可以创造独一无二的 3D 场景和个性化角色(捏脸),这些作品和场景都与玩家有了独特的情感联系,既增强了互动,游戏体验也更有情感深度、更个性化。

AI陪伴赛道终极奥义

依然来自刚刚的文章,总的来看就两点:沉浸感和情感寄托。AI 时代,后者更加重要,它能增加用户黏性。另外,AI 也在改变社交网络:AI 之前是中心化网络,人越多价值越大,比如微信;之后是 AI 分发内容,人与人通过内容连接,关注某人更多是因为内容,平台决定流量导向,比如抖音;最后是现在的 RP,人直接和 AI 角色连接,人与人不直接或不需要连接。

因此,RP 只有文字故事显然是不够的,图像、语音、视频、3D 环境等都更能提升沉浸感,也能一定程度上增加情感满足,毕竟人大部分时候都是感官动物,文字还是有点“太累”。

另外,我们一直没有提的是,其实用户是同时包含创作者和使用者的,就好像现在抖音一样,有播主和观众。我想,这两类用户同时存在的形态应该会一直持续,创作者未来也并不一定局限于创建一个“角色”或“故事”,故事也不一定必须以 bot 互动的形式呈现给其他用户。

小结

本文从 C.AI 的技术访谈开始进入 RP 的讨论,紧跟着谈到这一领域无可跳过的 Talkie(25 年 4 月 MAU 3000多万[8]),主要是讨论他们发布的 Her 模型的构建方法,偏技术。然后就顺便关注了一下 RP 类产品,通过一些分析文章探讨了星野、筑梦岛、完蛋、猫娘女友、逆水寒等 RP 类产品的做法,最后浅聊了一下这一赛道的关键:沉浸感和情感寄托。虽然大部分内容都整理自其它文章,但很多地方也加了一些自己的观点和分析,作为算法,感觉看看产品和用户分析也挺有意思的,而且这也能反过来指导模型和算法优化。

Reference

[1] DocToc: https://github.com/thlorenz/doctoc
[2] 我在 Character.ai 做 Post Training|对谈前 C.AI 模型应用算法专家 Ted: https://www.xiaoyuzhoufm.com/episode/67359e9843dc3a43878eaa90?s=eyJ1IjogIjY0MzRjZTRhZWRjZTY3MTA0YTE4Njg3NiJ9
[3] Character.ai:这家AI创业团队,找到了让LLM“爆发”的方法: https://www.woshipm.com/evaluating/5935708.html
[4] 万字长文:AI陪伴产品的终极解法? | 人人都是产品经理: https://www.woshipm.com/pd/5963346.html
[5] MiniMax-M2-her 技术深度解析 - MiniMax News: https://www.minimaxi.com/news/minimax-m2-her-技术深度解析
[6] 万字长文:为什么AI陪伴产品都想抄星野? | 人人都是产品经理: https://www.woshipm.com/evaluating/5946439.html
[7] 万字长文:用AGI视角重新理解筑梦岛 | 人人都是产品经理: https://www.woshipm.com/evaluating/5974879.html
[8] MAU 3000多万: https://www.thepaper.cn/newsDetail_forward_30729024