Deep Conversation — 深夜对话

Michael × Louis 深夜对话

AI 时代的教育革命

2026年3月27日  ·  约171分钟  ·  上海

两位关注AI与教育的创业者——Michael(超脑AI孵化器)和 Louis——在深夜展开了一场近三小时的深度头脑风暴。从"传统教育已死"的共识出发,讨论了AI时代的社会结构、人的本质、教育该何去何从,以及超脑孵化器的具体落地路径。

核心议题导航 — 8 Topics

01   传统教育的崩塌:泰坦尼克号比喻

对话中的观点

"我们都在泰坦尼克号上,这艘船撞到了AI这座冰山已经开始下沉,大家现在还在拼命挤甲板卷名校,真正正确的做法是从现在开始造自己的小船。"

— Michael

对话中引用了一个行业分析预测:到2028年12月前,城市白领将有50%失业,从程序员开始向外扩散。从历史规律看,每次重大生产力革命后都伴随数十年社会动荡——第一次工业革命后的法国大革命,第二次后的二战。AI革命也不会例外。

两人的共识是:不能等问题出现再行动,需要激进方案应对。

知识库中的积累

超脑已有一篇专题文档,用数据支撑了这个判断:

  • Anthropic CEO 预测近一半初级白领岗位被AI替代或淘汰
  • SignalFire 研究:大型科技公司2024年应届生招聘减少25%
  • 美国初级岗位发布自2023年1月下降约35%

核心论断:现有教育体系诞生于工业革命,设计初衷是培养流水线的"合格零件"。当AI可以替代大部分程序性工作时,这套系统不是需要修补,而是正在失效

Claude 的回应

这个比喻的力量在于它指出了一个不可逆性——船撞了冰山,不是漏了水,是在沉。这意味着修补方案(给传统教育加AI课、教孩子用ChatGPT)本质上是在沉船上换桌椅。

但我想补充一个维度:泰坦尼克号上不只有"挤甲板"和"造小船"两种选择。还有一类人——救生艇设计者。他们不急着跳船,而是在沉没的过程中设计出更多人能用的逃生方案。超脑目前的角色更接近这一类:不是个人逃生,而是系统性地帮更多家庭找到出路

这也引出一个战略问题:是做"第一批造船者"的榜样(小而精),还是做"救生艇方案的开源者"(规模化影响)?目前超脑选择了前者——教育界的爱马仕路线。这个选择在早期是对的,但窗口期确实存在。

02   AI时代人何以为人

对话中的观点

"AI只是一个工具,我们只是借着AI借势修人,让人活得更像人。传统教育本来就是把人培养成工具,未来在成为AI那样的人的赛道上,你永远打不过AI。"

— Michael

这是整场对话最深层的哲学问题。Michael 的回答很明确:人之为人,不在于比AI更能解决问题,而在于人有独特的感受、选择和创造冲动。传统教育的悲剧是把人训练成"更好的工具",而这条路已经被AI堵死了。

知识库中的积累

超脑已有一份深度工作坊素材,从五个哲学维度回应这个问题:

  • 独一无二的经验 — 周濂教授指出:"AI时代,每个人最终能握在手里的,就是你对世界独一无二的感受和经验。"意识的第一人称视角不可还原。
  • 自由意志 — 存在先于本质。当AI能做越来越多的事,人被抛回最根本的问题:我选择做什么,不是因为我必须,而是因为我愿意。
  • 意义的主动建构 — 弗兰克尔在集中营中发现人可以在极端处境中找到意义。AI时代的挑战不是极端苦难,而是极端便利——当一切都可以被生成、推荐、优化,人反而更容易陷入意义的真空。
  • 真实的关系 — 技术越高效,人与人的真实连接越珍贵。真实关系意味着双方都有可能受伤——这正是它珍贵的原因。
  • 创造的冲动 — 教育系统用十几年系统性地压制了人类与生俱来的创造冲动。AI暴露了这个问题:丧失创造冲动的人,真的不知道自己想要什么了。

Claude 的回应

Michael 和 Louis 讨论中有一个隐含的悖论值得展开:AI让"人何以为人"这个问题变得紧迫,但同时AI也让回答这个问题变得更容易。

怎么讲?在工业时代,绝大多数人被困在生存压力中,根本没有余裕思考"我是谁、我想要什么"。AI时代,如果物质极大丰裕、基础工作被自动化,人类反而第一次有了大规模地面对这个问题的条件。

问题是:大部分人没有被训练过如何面对自由。 十几年的应试教育,训练的是在约束中求解,不是在自由中创造。对话中有一个半开玩笑的建议——"要么学占星要么学美甲"——听起来像玩笑,但背后的逻辑是严肃的。这些方向的共同点是:不可标准化、需要审美判断、提供情绪价值、依赖人的独特性。

超脑的"借势修人",本质上是在做一件更根本的事:不是教会孩子用AI,而是帮孩子在AI时代重新学会做人。 这可能是当下最重要也最被低估的教育命题。

03   未来社会的四层结构

对话中的观点

"未来5%-10%是能驾驭AI的超级个体;一部分是需要人提供情感支持的专业服务;剩下30%-50%会进入奶头乐状态。"

— Michael

Michael 对未来社会的四层划分:

层级 占比 描述 代表职业
超级个体 5–10% 驾驭AI,一人创造巨大价值 AI原生创业者、设计师、科学家
情感专业服务 ~20% 需要人际信任的高端服务 律师、心理咨询、健身教练
情绪价值提供 ~20% 提供人无法被AI替代的情绪价值 占星、美甲、瑜伽教练
奶头乐群体 30–50% 靠资产保障,以娱乐打发时间

知识库中的积累

超脑白皮书中引用赫拉利的预测:未来智人可能分裂为"无用阶层"和"神人"。但Michael更愿意从积极角度看:AI催生去中心化职业生态,90%的人将成为个体户、自由职业者、斜杠青年。

知识库中还有一篇城市规划讨论,更细致地描绘了这个分化:AI增强专业人士、一人独角兽(管10个agents自己只定大O)、真实体验服务者、被边缘化群体。

统一理论文档中也提到:AI时代将催生去中心化的职业生态。 这不一定是坏事,关键在于我们能否培养出适应这个时代的能力。

Claude 的回应

四层结构模型有解释力,但我想指出一个流动性问题:这四层之间的边界是否固化?

如果教育和工具的可及性足够高,第三层和第四层的人是否有可能向上流动?Michael 的超级个体孵化器其实就是在尝试回答这个问题——帮助一部分人从"打工者"变成"AI原生创业者"。

但更大的社会学问题是:当50%的人进入"奶头乐"状态时,社会的权力结构、税收体系、民主制度将如何运转? 这不只是教育问题,而是文明级别的治理挑战。Louis 提到的"每次生产力革命后都有社会动荡",可能正是指向这个层面。

超脑的教育实验,从这个角度看,不只是在培养个体,而是在为一种新的社会契约做准备——在旧的"学历→就业→中产"通道崩塌后,探索"热爱→创造→价值"的新通道。

04   借势修人:AI作为教育工具的第一性原理

对话中的观点

"知识像动态加载库一样,需要的时候再学。教育者核心是种草培养好奇心,不用提前灌输知识。"

— Michael

Michael 提出了一个关键的范式转换:从 just-in-case learning(为未来不确定需求提前学习)到 just-in-time learning(需要时再学)。AI降低了知识获取的摩擦力,使得"按需学习"第一次成为可能。

这意味着教育者的角色从"知识搬运工"变成"好奇心园丁"——不是教孩子知道什么,而是让孩子想知道什么。

知识库中的积累

超脑的学习范式深度分析文档从五个学科视角论证了这个转变:

  • 心理学(自我决定理论):AI天然是"响应式工具",它不推你,只接你。没有内驱的学生面对AI会"什么都不问"。
  • 存在主义:当路径不确定性极高,"我为何而学"变成存在性问题,不是技术问题。
  • 人类学:人类历史上大多数学习发生在狩猎、建造、贸易中。课堂式抽象学习是工业化产物,不是人类本能。
  • 游戏/心流理论:游戏让人上瘾不是因为奖励,而是因为结构设计贴合人类动机系统——明确目标、难度递进、即时反馈、可复活。
  • 统一结论:没有被点燃的主体,就没有真正的学习。

智能协作统一理论进一步指出:AI协作方法论的演进和教育范式的演进是同构的——从控制走向信任,从指令走向上下文,从计划走向涌现。

Claude 的回应

Just-in-time learning 是一个强大的框架,但有一个常见的误解需要澄清:它不等于"什么都不用提前学"。

编程可以 just-in-time,但数学直觉、语言感知力、阅读理解力这些"底层操作系统"级别的能力,确实需要早期的浸泡式培养。Michael 在对话中其实也意识到了这一点,他提出的"半脱产模式"就是一个折中——一半时间用AI压缩学科学习,一半时间做真实项目。

我认为更精确的表述是:知识可以 just-in-time,但能力需要 just-in-case。 区别在于:

  • 知识(事实、公式、API)→ AI可以随时提供 → just-in-time
  • 能力(批判性思维、审美、提问能力)→ 需要长期浸泡 → just-in-case
  • 心智模式(好奇心、韧性、自我驱动)→ 需要环境塑造 → 超脑正在做的事

这个三层区分可能对超脑的课程设计有参考价值。

05   失败教育与拥抱不确定性

对话中的观点

"现在的教育都告诉孩子不要犯错,我反而跟家长说,前面有坑,只要摔不死,就让孩子跳,摔完拉起来复盘,这才是培养拥抱不确定性的能力。"

— Michael

Michael 专门举办"搞砸之夜"让孩子分享失败经历,培养"乌卡玩家"(VUCA:易变、不确定、复杂、模糊)特质。核心逻辑:AI擅长确定性任务,人类优势在于处理不确定性。

知识库中的积累

超脑团队内部已经形成了完整的失败教育方法论:

三位一体模型: 非评判环境 + 失败分享 + AI辅助复盘

  • 非评判环境作为基础设施:"一个人能产生自我价值感,前提是不被评判。一旦被评判,就会退缩产生自我防御。"
  • "搞砸之夜"作为心智重塑工具:让"失败不可怕,甚至很搞笑"成为集体心智模式。
  • 复盘机制的过渡设计:前三天领航员带群体复盘 → 第四天起引入个人复盘智能体。从"人带"到"AI辅助",实现习惯内化。

核心洞察:最牛的创业者不是技术最强的人,而是最有勇气的人。 勇气 = 敢于不断试错 + 在失败中强化学习。

Claude 的回应

失败教育最容易被误解为"鼓励失败",但Michael的设计更精妙:不是鼓励失败本身,而是重建人对失败的关系。

这里有一个机器学习的类比很有启发性——团队内部也在使用这个框架:

  • 传统教育 = 预训练(大量灌输,一次性训练完成)
  • 失败教育 = 强化学习(从错误中迭代,reward signal来自真实环境)

预训练的问题是:你在最无知的时候决定了要学什么。强化学习的优势是:你在真实反馈中不断调整策略。

但强化学习有一个前提条件:试错成本足够低。 这正是Michael提出"学校作为安全预训练场域"的价值——提供一个摔不死的游乐场。超脑的营地设计,本质上就是在构建这个"低成本试错场域"。

06   生命影响生命:教育不可替代的本质

对话中的观点

"教育本质不是知识传递,是生命影响生命。你跟什么样的人在一起,你就会变成什么样的人,这件事AI永远替代不了。"

— Michael

Michael 筛选导师的标准是"有趣、有才、有爱、有生命力",而非传统名校背景。目前营地配置30个孩子配30多个志愿者导师,包括联合利华品牌总经理、阿里公益子公司总经理、原神产品经理等。

他明确划定了AI的边界:AI可以培训年轻教练,但不能直接带孩子。

知识库中的积累

"生命影响生命"是超脑白皮书的核心定义性表述:

"创业导师的价值观、世界观和生命状态对年轻人产生的长期影响,远比单纯的知识传授更为深刻和持久。"

超脑的教练文化——"看见·尊重·行动"——被团队内部分析认为是最难复制、最有价值的 Level 3 竞争力。具体含义:

  • 看见:不是看到成绩或表现,是看到孩子作为一个"人"的独特性
  • 尊重:不评判、不纠正,先确认对方的存在本身是有价值的
  • 行动:在看见和尊重之后,才有可能产生真正有效的教育行动

统一理论文档中进一步指出:这个原则不只适用于教育,也适用于AI协作——"不要告诉AI怎么做,告诉它你最终要什么",背后是同一个逻辑:释放另一个智能系统的潜力,不靠控制,靠设计环境。

Claude 的回应

"生命影响生命"解决了一个AI教育领域的关键悖论:如果AI可以教一切知识,教育者还有什么用?

答案是:教育者不是教知识的,教育者是活出一种可能性的。一个充满生命力的创业者站在孩子面前,孩子获得的不是信息,而是一种存在方式的许可——"原来人可以这样活"。

这也解释了为什么Michael坚持"30个孩子配30个导师"这种看起来不经济的模式。在传统教育的效率逻辑里,这完全不可扩展。但在"生命影响生命"的逻辑里,这是不可压缩的——你不能用一个导师的PPT代替三十个导师的在场。

这实际上定义了超脑的护城河:不是技术,不是课程,不是品牌,而是能持续吸引"有趣有才有爱有生命力"的人聚集的社区。 AI会让技术和课程越来越容易复制,但一个有温度的人类社区——这正是AI做不到的事。

07   教育产品化:从"道"到"术"

对话中的观点

"教育最终要交付可衡量的明确成果,不要只讲理念,能直接看到成果更容易说服家长。"

— Louis

这是Louis对Michael的核心建议,也是对话中最具行动指导性的转折点。Michael的教育理念高度强调"道"——借势修人、培养自我价值感、创造即意义。Louis尖锐指出:家长需要可衡量的"术"。

双方达成的共识方案:

交付形式 具体内容
会员制 终身积累,不是一次性营地
作品集 专属网址展示,持续积累含金量
三件套 ① 自媒体账号运营   ② AI原生WebCoding   ③ 创意作品集

Michael认可这个方向,提到去年文创营让孩子注册小红书"确实非常有效"。但他也提醒:"不要从一个功利主义跳到另一个功利主义。"

Claude 的回应

"道"和"术"的张力,是所有创新教育项目都会遇到的核心矛盾。Louis的建议精准地击中了痛点:

理念再好,如果家长决策时没有一个可感知的"抓手",就会犹豫。 而犹豫的成本是:孩子在最关键的窗口期留在了传统体系中。

作品集方案的巧妙之处在于:它同时服务于"道"和"术"。

  • 对家长(术):可以看到具体成果、可以向亲友展示、可以作为升学申请的补充材料
  • 对孩子(道):创造的过程本身就是学习、作品集是自我认知的外化、持续积累带来成就感

这是一个不损害理念的产品化设计。但执行时需要注意一个陷阱:不要让作品集变成另一种"分数"。如果孩子开始为了"充实作品集"而创作,那就从内驱变回了外驱。

建议的平衡方式:作品集只是记录,不是目标。孩子在真实项目中自然产生的成果被收录,而不是为了作品集去做项目。

08   AI for Good:公益教育的闭环

对话中的观点

"邀请公益组织拿出真实需求,让中学生用AI帮他们解决问题。帮助别人本身就能产生很强的意义感。"

— Michael

Louis推荐了两个具体合作方向:

  • 上海恩派公益:上海最大的公益孵化组织,创始人积极拥抱AI
  • 陕西师范大学村医误诊项目:早年因AI能力不足搁置,现在技术已经成熟

双方设计了商业闭环:家长付费参营 → 一半利润用于项目落地 → 孩子做原型 → 导师打磨 → 公益组织受益。

知识库中的积累

超脑已有三个AI for Good项目在孵化:

  • 盲童助跑:匹配网站项目,帮助视障儿童找到陪跑志愿者
  • 构音障碍(共鸣 Project Resonance):React+TS应用,已部署到 Cloudflare Pages
  • 无障碍吐槽平台:Node.js Express MVP,收集和分类无障碍相关反馈

2026冬令营以AI for Good为核心主题,形成三条主线:商业线、公益线、自由探索线。

Claude 的回应

AI for Good 模式的真正精妙之处在于它同时解决了三个稀缺性问题

  • 孩子缺意义感 → 帮助真实的人,获得超越"学习"的存在感
  • 公益组织缺技术 → 中学生+AI的组合,能以极低成本产出原型
  • 教育机构缺差异化 → 没有其他教育项目在做这件事

Louis推荐的恩派公益和村医误诊项目特别有价值,因为它们提供了真实的、有紧迫性的、可量化成果的需求池。这比"设计一个假想的公益项目"有质的区别——孩子能看到自己的作品真的在帮助真实的人。

从商业策略看,AI for Good也是一个叙事优势:当其他教育机构在讲"我们教孩子用AI赚钱"时,超脑在讲"我们教孩子用AI帮助别人"。这个叙事差异在家长端、媒体端、和政策端都有巨大价值。

其他值得关注的讨论点

学校的剩余价值

Michael经历了从"学校不需要存在"到"保留两项功能"的转变:

同龄人社交场域:开放的场域,让同频的孩子一起创造。

安全预训练场域:低成本试错空间,"本质是一个安全的强化学习游乐场"。

折中方案:半脱产模式——一半时间在学校(AI压缩到1/10时间),一半时间做真实项目。

渠道策略:教育界的爱马仕

Michael明确拒绝行业常规的40%渠道分润,选择口碑限量高端路线。

2026年暑期营计划:北京、上海、深圳、大理四城,AI for Good、文创、游戏化、智能体四个方向。

超级个体孵化器 vs 聚焦

Louis建议Michael聚焦青少年教育单点打透,孵化业务难度远高于教育。Michael表示会认真考虑。

这个分歧揭示了教育创业者常见的张力:闭环野心 vs 资源聚焦

全球化办学路径

优先新加坡、澳洲办学,国内仅与愿意改革的国际学校合作实验班。

基于对政策环境的清醒判断:体制外替代路线在国内面临结构性限制。

一个统一视角:从控制走向信任

释放另一个智能系统的潜力,不靠控制,靠设计环境。

回顾整场对话,所有议题都指向同一个底层认知——超脑AI协作实验中发现的统一原理。这个原理贯穿了今晚讨论的每一个层面:

领域 旧范式(控制) 新范式(信任)
教育 灌输知识、标准化考试 设计环境、点燃好奇心
学习 just-in-case(预训练) just-in-time(按需加载)
评价 分数、排名 作品集、真实世界反馈
失败 零容错、惩罚犯错 搞砸之夜、复盘文化
AI 教孩子用AI工具 借AI让孩子更像人
社会 学历→就业→中产 热爱→创造→价值

三种力量驱动这个转变:

递归

一个好问题生成更好的问题——"基于此刻的全部认知,最应该存在但还不存在的东西是什么?"

迭代

在反馈中螺旋上升——每一次失败都是下一次的养分。

涌现

当递归和迭代运行足够久,连设计者都没想到的东西会长出来。

今晚的对话本身就是一次涌现——两个创业者从各自的经验出发,碰撞出了新的认知和合作方向。这正是超脑所相信的教育该有的样子。