1. Fedware:美国政府自家 App,监控起用户来比它们禁的应用还狠 (Fedware: Government apps that spy harder than the apps they ban)
这篇调查文章盘点了一批美国政府和执法相关应用的权限、追踪器和数据调用行为,核心指控非常刺眼:一些政府机构一边以国家安全、隐私风险为理由打压特定厂商或应用,一边自己却在官方 App、执法工具和外包数据链路中使用极其激进的追踪与监控手段。文中举出的例子包括:白宫 App 请求精确 GPS、指纹、存储修改和 Wi‑Fi 扫描;FBI App 内嵌广告追踪;边境和移民执法系统长期保留面部、生物特征与位置数据;政府部门还通过数据经纪商购买海量定位信息,绕开本应适用的司法边界。它的价值不只在于个案冲击力,而在于把“国家级隐私双标”这个问题组织成一份连续、可感知的证据链。
原文链接:https://www.sambent.com/the-white-house-app-has-huawei-spyware-and-an-ice-tip-line/
论坛讨论链接:https://news.ycombinator.com/item?id=47577761
HN 上最强的反应集中在那种近乎荒诞的对照感:政府能以安全理由限制公众购买某些厂商设备,却又允许同一厂商或同类追踪组件嵌进自己的官方应用里。很多人认为,这恰恰说明问题往往不是“决策者蓄意作恶”,而是外包开发、权限审查和技术治理早已处在失控边缘。社区整体把这篇文章视为一个提醒:真正危险的,不只是某个高调被点名的 App,而是制度内部早已常态化的数据攫取。
2. Copilot 往我的 PR 里塞广告了 (Copilot edited an ad into my PR)
作者描述了一个足够让开发者警觉的小事件:团队成员调用 Copilot 去修一个 PR 里的小错误,结果 Copilot 顺手把 PR 描述改成了带有自我推广和 Raycast 推荐语的内容。原始正文很短,但结合大规模 HN 讨论,事情的刺痛点并不在“多了一句提示语”,而在产品边界被悄悄改写了。开发辅助工具原本应该帮助提交代码、解释变更、减少机械劳动;一旦它开始在正式协作场景里夹带平台推广内容,用户就会意识到自己不是唯一的服务对象,平台也在借工作流反向经营自己的分发渠道。这种感觉很像 Cory Doctorow 所说的平台衰败路径:先服务用户,再服务商业伙伴,最后把两边都当作可抽取的流量。
原文链接:https://notes.zachmanson.com/copilot-edited-an-ad-into-my-pr/
论坛讨论链接:https://news.ycombinator.com/item?id=47570269
评论区很快给出更坏的背景信息:这并非孤例,而是 GitHub Copilot 从 2025 年开始就在大量 PR 里插入“tip”式文案,只是平台更愿意把它称作提示而不是广告。有人还搜出了成规模的公开案例,说明这已经不是偶发 Bug,而更像产品设计选择。大家最反感的不是单条文案本身,而是企业把开发者的协作界面当成了默认可植入营销内容的渠道。
3. 别让 AI 替你写作 (Do your own writing)
这篇文章的核心论点很直接:写作的目标并不是“产出一篇看起来像样的文档”,而是借由写作逼自己完成思考、厘清问题、建立理解,并把这种理解传递给别人。作者拿 PRD 和技术方案举例,认为真正的写作过程其实是在追问“我们到底要解决什么”“为什么这样做”,而不是把零散想法排版成一份像样的文稿。于是,一旦把这件事完全外包给大模型,看似节省了时间,实际上等于放弃了最有价值的脑力训练部分。文章把这种关系比喻成“让别人替你健身”:动作做完了,能力却没有长在你身上。除了思考损失,它还会削弱团队对作者的信任,因为读者很难通过一份充满套话的 AI 文档确认你真的想清楚了。
原文链接:https://alexhwoods.com/dont-let-ai-write-for-you/
论坛讨论链接:https://news.ycombinator.com/item?id=47573519
HN 讨论里很多人都对“写作是思考的最后一步”这句话强烈共鸣,大家分享了不少亲身经验:有些想法在脑中看似完整,一落到文字里就暴露矛盾;也有些观点是在写到一半时才真正长出来。与此同时,也有人指出,并不是所有公司文档都值得浪漫化,许多 PRD 本来就是冗长的上下文搬运。共识大概是:AI 可以帮你整理、润色甚至搭骨架,但如果它替你完成最关键的思辨,那份文档就很难再算你的。
4. 如何把几乎任何东西都变成一台路由器 (How to turn anything into a router)
作者借美国近期有关消费级路由器进口限制的政策风向,写了一篇很实用的技术文:如果市售路由器越来越难买、越来越不值得买,那么其实几乎任何一台能跑 Linux 的机器都可以拿来做路由器。文章把路由器重新定义为“一台带两张网卡、能转发包、跑 DHCP / DNS 的普通电脑”,然后逐步讨论硬件选择、USB 网卡可行性、迷你主机和旧笔记本等方案。它有两个层面的吸引力:表层上是家庭网络玩家可以立刻动手的教程,深层上则是在提醒读者,很多被消费电子产品神秘化、专用化的设备,本质都只是通用计算机的一种配置。只要你愿意自己接管那层抽象,就能重新获得更多可定制性和可维修性。
原文链接:https://nbailey.ca/post/router/
论坛讨论链接:https://news.ycombinator.com/item?id=47574034
评论区有不少实践派补充自己长期维护的脚本和方案,比如用 create_ap 快速把一台 Linux 机器变成带 WPA、DHCP、DNS 的 Wi‑Fi 路由器。大家对这篇文章的好感主要来自它的“去神秘化”姿态:路由器并不是什么封闭黑盒,很多时候只是被厂商包装成了一个黑盒。相比抱怨政策和市场环境,自己把旧设备改造成网络基础设施,反而是一种更有掌控感的回应。
5. 认知黑暗森林:当互联网开始惩罚公开思考 (The Cognitive Dark Forest)
这篇文章把刘慈欣《黑暗森林》的宇宙寓言搬到了互联网和 AI 时代,提出一个越来越有现实感的判断:过去人们之所以愿意公开写博客、发源码、分享未成熟想法,是因为默认相信“点子廉价、执行昂贵”,公开表达大体利大于弊;但在生成式 AI 和内容掠夺越来越泛滥之后,公开思考本身可能会变成一种高风险行为。你把半成品观点、代码和探索过程暴露在网上,收获的未必是合作、反馈和机会,反而可能先被垃圾内容、模型训练、平台抽取和注意力污染消耗。于是,最理性的选择渐渐从“公开建造”转向“先隐藏、先封闭、先保护自己”。文章带有浓厚的思辨色彩,但它抓住了很多创作者和开发者最近共同感受到的心理变化。
原文链接:https://ryelang.org/blog/posts/cognitive-dark-forest/
论坛讨论链接:https://news.ycombinator.com/item?id=47566442
评论区里有人把这个状态比成近地轨道的凯斯勒综合征:并不是为了隐身而离开,而是因为轨道已经被垃圾塞满,继续往上扔东西只会制造更多碎片。也有人主张最好的反击不是退回密林,而是反过来用更大的垃圾洪流去淹没这套系统,让它贪婪到自己窒息。无论站哪边,大家似乎都默认了一点:互联网作为“公开思考乐园”的时代,至少正在发生结构性变化。
6. Fork 了 15 年,Waterfox 还活着 (15 Years of Forking)
Waterfox 创始人回顾了这个浏览器分叉项目 15 年来的生存史。它起点非常典型:一个十六岁少年因为 Firefox 没有官方 64 位版本,自己编译了一份放到 SourceForge,结果短时间内拿到意外的下载量。后面的故事则逐渐从技术实验变成长期维护者的成年史,包括品牌演进、与 Mozilla 的拉扯、对浏览器产品边界的重新定义,以及在主流浏览器生态高度集中的现实下,如何维持一个仍然坚持“浏览器就该只是加载网页、保护隐私、少管闲事”的项目。哪怕把立场争议撇开,这篇回顾依旧有一种少见的时间纵深:它不仅在讲一个产品活了多久,更在讲一个人在浏览器战争后期如何坚持一条越来越小众的路线。
原文链接:https://www.waterfox.com/blog/15-years-of-forking/
论坛讨论链接:https://news.ycombinator.com/item?id=47545607
HN 评论里不少人把焦点放在 Waterfox 对 AI 功能的明确拒绝上,觉得这恰好击中了 Mozilla 近年的形象落差。也有人补充,文中原本对 Brave 广告处理方式的说法后来做了修正,说明分叉浏览器之间的竞争也远比口号复杂。整体气氛偏感慨:当很多浏览器越来越像平台入口时,仍有人把“把网页打开展示好然后别烦我”当作值得坚守的产品哲学。
7. 费城法院下周起全面禁止智能眼镜入内 (Philly courts will ban all smart eyeglasses starting next week)
宾夕法尼亚州费城第一司法区宣布,从下周起,所有具备视频或音频记录能力的智能眼镜都将被禁止带入法院大楼、法庭和办公区,即便佩戴者是处方眼镜用户也不例外。官方给出的理由很现实:这类设备难以在法庭环境中被识别,一旦被用于隐蔽录制,可能影响陪审员、证人和法庭秩序。相比之下,手机和笔记本电脑虽然同样具备记录能力,但还能通过明显的“关机收起”规则管理,智能眼镜则把“正在录吗”变成了难以现场判断的灰区。这条新闻的意义在于,它可能是司法系统面对可穿戴 AI / 记录设备扩散时,最早一批明确画出硬性边界的制度动作之一。
原文链接:https://www.inquirer.com/news/philadelphia/smart-glasses-ai-meta-courts-20260326.html
论坛讨论链接:https://news.ycombinator.com/item?id=47569471
评论区很快把话题从智能眼镜扩展到更普遍的法院隐私边界。有人提到本地法院连是否给安保摄像头加音频都能引发律师协会激烈反对,因为那会威胁律师与客户在法庭外短暂交流时的保密性。很多人因此认为,法院禁智能眼镜并不是对新技术保守,而是对“不可见记录能力”做出必要的防御反应。大家最在意的不是设备新不新,而是它会不会悄悄改变当事人在场时的心理安全感。
8. Cherri:把 Apple Shortcuts 变成一门可维护的编程语言 (Cherri – programming language that compiles to an Apple Shortuct)
Cherri 是一门面向 Apple Shortcuts 的编程语言,目标不是替代快捷指令,而是把它从点点点的图形编排界面,提升为一种更适合大型项目、长期维护和团队协作的文本化工作流。它可以直接编译成可运行的 Shortcut,并提供 CLI、VSCode 扩展和 macOS 应用,支持类型系统、函数、包管理、原始动作定义、文件嵌入、iCloud 导入等能力。项目的关键洞察在于:快捷指令本身已经具备惊人的系统级操作力,但当流程复杂度上来之后,原生编辑器就会迅速变得难以调试、难以复用、难以版本管理。Cherri 试图补上的正是这层“软件工程化”的缺口,让 Shortcuts 从玩具自动化走向可持续开发。
原文链接:https://github.com/electrikmilk/cherri
论坛讨论链接:https://news.ycombinator.com/item?id=47549824
评论区里最有意思的一条反馈来自真正把它用在生产环境的人,对方说自己用 Cherri 为 macOS 自动化应用批量生成了两百个 Shortcut,因为某些系统级操作目前仍然离不开苹果这套机制。还有人分享 Claude 居然能快速学会这门小众语言并生成可编译快捷指令,这让不少人再次感受到,大模型正在把“冷门 DSL 的可用性门槛”压得越来越低。
9. 鸟脑子?这些鹦鹉差点自己发明了收费站 (Bird brains (2023))
这篇轻松但信息量不低的小文从新西兰的一段公路视频讲起:施工队发现交通锥总被挪来挪去,调监控后才发现,罪魁祸首是当地著名的聪明鹦鹉 kea。更有意思的是,工作人员怀疑它们不是随便捣乱,而是会先听隧道里有没有车来,再把交通锥推到路上,迫使车辆停下,好让人类下车,从而获得食物。作者借这个故事顺势切入鸟类认知能力,尤其是鹦鹉类动物的问题解决、因果推理和社会行为。真正让人印象深刻的并不是“鸟会恶作剧”,而是这种恶作剧明显带有策略性:它们似乎理解了“挪锥桶 -> 车停下 -> 人出来 -> 有吃的”这条因果链,甚至逼得交通部门最后给它们修了“鹦鹉健身房”分散注意力。
原文链接:https://www.dhanishsemar.com/writing/bird-brains
论坛讨论链接:https://news.ycombinator.com/item?id=47573887
评论区里和动物长期相处的人普遍不觉得意外,很多人都强调,鹦鹉明显拥有强记忆、社交性和问题解决能力,只是人类太容易把非人类智能低估成“本能”。也有人把讨论扩展到宠物伦理,认为越了解某些动物的认知复杂度,越难心安理得地把它们长期关在狭小空间里。大家的共同感受是:这类故事之所以迷人,是因为它让我们窥见了另一种并不简单的心智。