pinyu
.
ai
Signal over consensus.
News
Voices
Builders
Art
Essays
ZenCat
↗
No items yet. Add `XAI_API_KEY` to the GitHub Actions secrets and run the workflow to populate this feed.
Luck Is a Distribution
Entrepreneurship × Opportunity Design · 2026
运气有自己的结构,人也可以一步步减少对纯随机的依赖。
借 Marc Andreessen 的四种划分,运气可以分成随机、暴露、识别与个人引力场四层。重要的是,怎样少靠一点碰运气,多靠行动、判断和长期积累,让机会更容易向自己靠近。
From Generator to Video Workbench
Video Models × System Design · 2026
视频模型的下一阶段,胜负会落在复杂约束下的意图执行上,单靠更惊艳的 demo 已经不够了。
从 UniVideo、Kling-Omni 与 Kling-MotionControl 三篇论文里,可以看到同一条收敛路线:统一骨架、意图翻译、异构分工,一个真正的创作工作台正在成形。
Prompts Don't Build Brands
Midjourney × Brand Systems · 2026
品牌图最难的,是把偶尔的好结果沉淀成稳定的一致性。
文章拆开 Jamie Ganon 的工作流:先用 mood board 定义视觉语言,再用 Style Reference、Personalization Code 和 brand code 把风格固化成系统。
Redrawing the Map
Biology × AI · 2026
更强的系统,往往会一边找路,一边重画地图。
从涡虫再生到 Transformer 与扩散模型,同一个问题被串了起来:系统怎样在扰动里重组问题空间,然后继续逼近目标。
Some Simple Economics of AGI
AGI × Economics · 2026
为什么聊天、画图、短代码会先爆发?因为它们最容易验证。
执行越来越便宜以后,真正稀缺的会变成验证。谁能更快验证结果,谁愿意为结果负责,价值就会慢慢往谁那边走。
Out of Distribution
Founder Selection × Venture · 2026
筛选系统越精密,越容易错过分布外的创始人。
学校、公司与 VC 擅长识别分布内的优秀,却常常遗漏分布外的可能性。创伤、神经多样性与跨域广度,不只是特质,更是形成独立判断力的三条路径。
Before Objects
Consciousness × Symbolic Forms · 2026
世界不是先作为对象出现,而是先作为利害出现。
Bennett 用 “death grounds meaning” 重写意识问题,卡西尔则解释人怎样把这种原初效价写成神话、语言、艺术与科学。意义有两次诞生:先在生命里,后在符号里。
Attention Before Product
Organic Marketing × Attention · 2026
平台不奖励好产品,它奖励能留住人的内容。
先讲产品,通常等于先失去用户。先拿到注意力,再谈功能;产品只能最后出现。
One Layer Down
Mental Models × First Principles · 2026
很多答案之所以换不掉,只是因为你一直站在同一层解题。
这篇文章拆开了第一性原理真正可用的骨架:把一句“这东西就是这样”拆回成本栈、约束栈和假设栈。多数时候类比更便宜;到了关键处,再往下一层。
Self-Flow
Generative AI × Representation · 2026
生成模型不需要外部「家教」,正确的训练信号让它自己长出理解力。
Self-Flow 用 Dual-Timestep 自蒸馏取代外部编码器,让生成模型自己学出强语义表征,在图像、视频、音频上全面超越 REPA,625M 模型超过 REPA 的 1B 模型。
Will AI Cheat on Us?
AI Safety × Scheming · 2026
实验说几乎不会。但这个「几乎」有多脆弱,答案出人意料。
LASR Labs 测试了前沿模型的 scheming 倾向。基线接近零,但一条生产级 prompt 把概率从 3% 推到 59%,移除一个工具又降回 3%。Scheming propensity 不是一个数字,是配置的函数。
Not a Faster You
AI Safety × Epistemology · 2026
超级智能最可能的样子,不是你无法理解。是你以为你理解了。
流行叙事说超级智能是 "人类认知拧大旋钮"。但一个足够强的心智给你满意的解释,比它解决原始问题本身要容易得多。当解释变成翻译,你面对的不再是能力问题,而是认识论的结构性盲区。
The Markdown Org
Cursor × Multi-Agent · 2026
一个 Markdown 就是一个 agent,一个文件夹就是一个团队。
你以为 multi-agent 协作需要编排框架,Cursor 用一个 Markdown 文件定义了全部。上下文隔离让每个 agent 各管各的,反而更容易把一件事想深。文件夹就是团队,可以 git 管理、版本化、code review。
Trial Without a Judge
Reasoning × Society of Mind · 2026
推理模型学会了争论,却从未学会裁决。
论文说推理模型通过内部辩论变强,但论文自己的数据拧成了问号:越激烈的冲突,条件准确率反而越低。辩论真正产出的是对错误的修剪。一个没有法官的审判,为什么比没有审判更接近正义?
Mixture-of-Agents
Inference-Time Compute · 2026
看得更广,胜过想得更深。
一群 AI “合写” 凭什么超过任何单个 AI?答案藏在承诺困境里,自回归生成把每个模型锁死在 response space 的单条轨迹上。MoA 用模型差异铺开覆盖率,再由强 aggregator 做搜索与编辑。
The Rot
Context Engineering · 2026
上下文越长,智能越短。
8 篇前沿文献、18 个模型的控制实验交汇于同一个结论:Context Rot。解法不是更大的窗口,而是更好的过滤,渐进式披露管理输入,强制验证管理输出,增量式工作管理时间跨度。
The Shape of Intelligence
Convexity × Intelligence · 2026
智能不解难题,它改变难题的形状。
复杂问题的形状几乎都是陷阱密布的“鸡蛋盒”,贪心必死,穷举无解,连折中都是致命错误。五种凸化手法统一解释恒温器、AlphaGo 和爱因斯坦。
Stilts, Not Weights
AI Architecture · 2026
智能应该住在你架构的哪一层?
Fine-tuning 把智能烧进即将过期的权重。7 人团队用 <$100K 超过了数亿美元训练的前沿模型,他们站对了层。从耦合税到递归自改进,一个更好的 AI 架构范式。
After PMF
Startup Strategy · 2026
PMF 是发令枪。找到之后你打算用它做什么?
让你达到 PMF 的思维方式,对产品的偏执、小团队默契、创始人直觉,恰恰是 PMF 之后最可能杀死你的东西。分发、下一代产品、组织,三台引擎同时启动。
Skills, Explained
AI Workflow · 2026
Prompting, made reusable. 一个 Markdown 文件夹为什么如此有效。
你有一个 “大部分好用” 的 prompt,然后它漂移成了四个版本。Skill 把这件事正规化,渐进式披露、目录语义、资源接入。做一次,所有人复用。
The Inverse Problem
Information Theory · 2026
沟通的默认结果是失败,哪怕双方都足够真诚。
沟通是一个逆问题,从低维信号反推高维源,解不唯一。你的大脑用脑补把不确定性压成确定答案,但脑补素材和对方的真实状态没有必然关系。进化甚至没打算让你解对。
The Cognitive Inversion
Cognitive Psychology × AI · 2026
当执行被完全外包,「理解问题」本身成了唯一的生产力。
Cursor CEO 描述的三个时代,实质是思考与执行之比的倒转。从 diff 到 live preview,评估成本被压缩,并行管理成为可能,但悖论在于:定义问题的能力,历来在执行中习得。
Structure Over Information
arXiv · 2026
结构化推理比信息注入有效 2.83 倍,一个洗车问题的变量隔离实验。
每个主流 LLM 都建议走路去洗车,但车不会自己飞过去。STAR 框架从 0% 跳到 85%,而注入完整用户画像只有 30%。模型如何处理信息,比拥有多少信息更重要。
The Profession, Refactored
The Pragmatic Engineer · 2026
AI 如何触发软件工程的认知转变。
Karpathy 从 “AI 是 slop” 到 “magnitude 9 earthquake” 只用了两个月。2025 年末三个模型的密集发布触发软件工程的认知转变,从硬数据到正在贬值的技能清单。
Decouple-Then-Merge
CVPR 2025
将扩散模型训练视为多任务学习:先解耦、再合并。
不同去噪时间步之间存在梯度冲突。DeMe 先解耦训练、再合并权重,零额外推理成本,6 个基准显著提升。
Closing the Loop
Cybernetics × AGI · 2026
从控制论看 Agentic LLM 通往 AGI 的路径。
大多数人对 AGI 的判断基于一个错误的直觉,他们在评估 LLM 的思考能力,却忽略了智能的真正来源:反馈回路。当 Agent 闭合了感知-行动环路,一切都变了。
Less Code, More Model
The Pragmatic Engineer · 2025
Claude Code 的构建哲学,一个关于 “做减法” 的产品故事。
从 AppleScript 音乐控制到年营收 $500M+,7 个反直觉的构建原则。
Better Reconstruction ≠ Better Generation
Linum · 2024
从零训练 Image-Video VAE 的 5 个月旅程。
踩过 NaN 爆炸、神秘色斑、联合训练不稳定,最终学到一个违反直觉的教训。
Dynamic channels need JavaScript to load. Essays and ZenCat remain available without it.