1. 新一代 10GbE USB 网卡更小更便宜,但瓶颈还在 USB 细节里 (New 10 GbE USB adapters are cooler, smaller, cheaper)
Jeff Geerling 测试了基于 Realtek RTL8159 的新一代 10GbE USB 3.2 网卡。过去笔记本要接 10GbE,通常得买又大、又贵、又热的 Thunderbolt 适配器;这类新 USB 网卡价格约 80 美元,体积更小,价格也明显低于传统 Thunderbolt 10G 方案。文章的重点不是简单宣布“USB 也能 10G”,而是实际测试不同机器时暴露出的复杂性:USB 版本、端口规格、主控、驱动、散热和电脑本身的中断处理能力都会影响吞吐。作者在 Framework、MacBook、M4 MacBook Air 和 Ryzen 桌面机上做了测试,结论是如果你真的需要 RJ45 10GbE,这类适配器已经很有吸引力;但如果只是普通高速外设需求,2.5G 或 5G USB 网卡仍然是更稳的性价比选择。
原文链接:https://www.jeffgeerling.com/blog/2026/new-10-gbe-usb-adapters-cooler-smaller-cheaper/
论坛讨论链接:https://news.ycombinator.com/item?id=47899053
讨论区集中在测试方法和 USB 现实复杂度。有人提醒 iperf3 默认不是多线程,低功耗机器可能被中断率或单核处理能力限制,建议用 -P 4 复测;作者回应说已经用 P2/P4 验证过,结果差异很小。很多评论顺势吐槽 USB 命名和端口规格难以判断,同一台机器上“看起来一样”的接口实际带宽可能完全不同。也有人比较 RJ45 与 SFP+ 方案,指出前者方便但功耗和发热仍是问题。整体共识是:这类小网卡确实让 10GbE 更接近普通用户,但 USB 生态的可预期性仍然差,购买前最好确认主机端口和真实测试数据。
2. 深度学习会有科学理论吗?一篇论文试图把碎片线索拼起来 (There Will Be a Scientific Theory of Deep Learning)
arXiv 论文《There Will Be a Scientific Theory of Deep Learning》主张,深度学习的科学理论正在形成。作者们并不是声称已经有一个能直接推导最佳网络结构的完整理论,而是把现有研究整理成几个逐渐成熟的方向:可解的理想化设定、能揭示基本现象的可处理极限、描述宏观可观测量的简单数学规律、能把超参数影响从训练过程里拆出来的理论,以及对表示、权重和性能关系的统计刻画。论文的价值在于提出一个更清晰的研究地图,说明“为什么神经网络有效”不只是经验主义黑箱,也不是短期内靠一个公式解决的问题。它更像是在告诉读者:深度学习理论正在从事后解释和局部模型,逐步转向可比较、可检验、可累积的科学框架。
原文链接:https://arxiv.org/abs/2604.21691
论坛讨论链接:https://news.ycombinator.com/item?id=47893779
HN 评论里既有从业者认可,也有外部怀疑。相关领域研究者认为论文对当前热门方向做了不错的总结,尤其是最后的开放问题列表覆盖了许多关键研究路线;但也承认现在理论很少能直接指导最优网络设计,因为在工程上直接试验常常更快。怀疑者则觉得深度学习发展太经验化,理论经常是事后解释。讨论的关键分歧在于“科学理论”应该达到什么标准:是能预测训练动态和 scaling 行为就算进展,还是必须能给出可操作的设计规则。整体看,这篇论文更像是一次领域自我整理,而不是宣告谜题已经解开。
3. 把 IBM 量子后端换成 /dev/urandom,结果照样“破解”小椭圆曲线 (Replace IBM Quantum back end with /dev/urandom)
这个 GitHub 文档检验了一个 Q-Day Prize 投稿:原项目声称使用 IBM Quantum 硬件对小规模椭圆曲线离散对数问题进行量子攻击,能恢复最高 17 bit 曲线上的私钥。作者做了一个外科手术式补丁,只把 solve_ecdlp() 中的 IBM Quantum 后端替换成 os.urandom 生成的随机比特串,其他流程,包括电路构造、oracle、提取管线和 d·G == Q 验证器,都保持不变。如果量子计算机真的提供了有效信号,这个替换应该让恢复率崩掉;但结果显示随机数也能以统计上相近的比例“成功”。核心结论是,这类太小的基准很容易让随机输出在后处理筛选下看起来有效,量子硬件贡献被验证器和搜索空间规模掩盖了。
原文链接:https://github.com/yuvadm/quantumslop/blob/25ad2e76ae58baa96f6219742459407db9dd17f5/URANDOM_DEMO.md
论坛讨论链接:https://news.ycombinator.com/item?id=47897647
评论区有量子计算从业者指出,这正是小数分解或小 ECDLP benchmark 的老问题:当问题规模过小,随机样本也可能很快撞上正确答案;而当量子电路长度超过硬件错误率能支撑的范围时,设备输出本身也接近随机数。有人提到自己此前就警告过类似比赛会奖励“最好地掩盖随机性”的方案,而不是实际量子进展。讨论并不是否定量子计算,而是强调验证标准必须严谨:如果把后端换成 /dev/urandom 仍能通过,说明这个 benchmark 无法证明量子优势。大家对这类宣传式突破保持明显警惕。
4. 不用照片也不用 GPU,8 个问题估出 3D 身体参数 (A 3D Body from Eight Questions – No Photo, No GPU)
Clad 的这篇文章展示了一条生成 3D 身体参数的轻量路径:用户回答 8 个问题,小型 MLP 在 CPU 上毫秒级推理,输出 58 个 Anny body 参数。作者称高度误差约 0.3 cm、体重误差约 0.3 kg,胸腰臀等围度误差约 3 到 4 cm,在部分围度指标上甚至优于他们的照片管线。项目起点来自一个观察:身高和体重本身已经能相当有效地估计身体测量值,相关回归研究给出过有竞争力的结果。Clad 在此基础上加入额外问卷、物理感知 loss 和模型约束,试图解决隐私、速度、成本和照片拍摄体验问题。它的意义在于提醒人们,许多 AI 产品不一定要先采集图像和跑重模型;如果输入特征选得好,小模型加领域约束可能更实用。
原文链接:https://clad.you/blog/posts/questionnaire-mlp/
论坛讨论链接:https://news.ycombinator.com/item?id=47862541
HN 讨论一开始就有人用“AI 摘要”概括结果:8 个问题训练出的 MLP 能估计身体参数,精度接近作者声称的范围。随后话题转向两个方向:一是这种方法是否真的能比照片更可靠,尤其对不同体型、性别、肌肉量和数据分布外用户;二是隐私和产品化价值,很多人认为不要求照片是明显优势,因为用户很难拍出光照、衣着和姿势都合格的输入。也有人对误差指标保持谨慎,指出身高体重本身已经包含大量信息,模型提升需要和强基线比较。整体评价偏正面,但大家想看到更公开的验证集和分布外测试。
5. AI 能写出文字,不等于它能替代教育 (Education must go beyond the mere production of words)
这篇评论文章从弥尔顿《论教育》出发,讨论生成式 AI 为什么会放大一个古老的教育误解:把语言产出误认为学习本身。作者认为,在 AI 能按需生成文章、回答和表达的时代,真正的教育更不能停留在“生产文字”这个表层成果上。教育应当训练判断、理解、记忆、注意力、道德想象和对复杂事物的内化能力,而不是只考察学生能否交出看似正确的文本。文章带有明确的人文和宗教教育立场,但核心问题具有普遍性:如果机器能代写大多数形式化输出,学校和教师必须重新说明哪些能力必须保留在人身上,哪些可以交给工具。它不是简单反 AI,而是在追问教育评估和学习目标是否已经被输出物绑架太久。
原文链接:https://www.ncregister.com/commentaries/schnell-repairing-the-ruins
论坛讨论链接:https://news.ycombinator.com/item?id=47897349
评论区的讨论比原文更偏认知分工。有人提出一个实际问题:哪些信息和能力应该保留在人脑里,哪些可以放到云端和模型里?一端是把所有思考外包给 LLM,人只剩下数据中心和其他人之间的传输层;另一端是完全排斥技术、追求纯粹自然心智。多数人认为难点不在于二选一,而是如何划分责任:基础知识、判断框架和价值取舍可能必须内化,否则就无法评估 AI 输出。讨论没有给出简单答案,但明确指出“会生成文字”削弱了传统作业的信号价值,教育需要回到理解和判断本身。
6. 把车库门打开工作:长期展示过程,比只发成品更有价值 (Work with the garage door up (2024))
Andy Matuschak 的笔记讨论一种创作者沟通方式:像把车库门打开一样工作,让别人看到过程,而不是只在完成后发布 polished announcement。它包括 Screenshot Saturday、公开讲自己正在困惑的问题、直播创作、展示失败路径和日常进展。作者把这称为反营销:你不是在 pitch 一个包装好的结果,而是在日复一日地展示工作如何形成。这种方式能吸引更长期、更投入、更有趣的关注者,也能避免为了说服别人而腐蚀自己的项目方向。文章关联了 Maggie Appleton 关于“公开学习”的观点:当你持续展示学习和过程,别人会更容易理解你的能力和兴趣,也会带来更奇特、更相关的机会。重点不是打造个人品牌,而是让真实工作过程成为沟通媒介。
原文链接:https://notes.andymatuschak.org/Work_with_the_garage_door_up
论坛讨论链接:https://news.ycombinator.com/item?id=47851613
HN 评论先从“车库”这个隐喻本身发散。有人引用 Paul Graham 关于加州气候和车库创业的段子:在寒冷地区,车库并不天然适合工作,这提醒大家许多创业神话也有地理和物理条件。随后讨论回到公开工作过程本身。很多人认同,比起只发布成品,展示中间过程更容易建立信任和兴趣;但也有人担心过度公开会带来噪音、压力或把尚未成熟的想法过早社会化。整体共识是,过程公开不是宣传技巧,而是一种工作方式:它适合长期探索型项目,也能吸引真正关心问题本身的人。
7. 用 1-bit 像素重画北斋《神奈川冲浪里》 (1-Bit Hokusai’s “The Great Wave” (2023))
这篇 2023 年文章记录了作者把北斋《富岳三十六景》系列用 1-bit 像素艺术重画的长期项目,其中最醒目的作品是《神奈川冲浪里》。作者选择早期黑白 Macintosh 的 512 x 342 分辨率,并尽量使用当时的硬件和软件完成创作。这个限制很苛刻:只有黑白两色,没有灰度,所有细节都必须用像素取舍和抖动表达。作者提到灵感来自早期 Macintosh 美学和 Susan Kare 的像素图像,也承认这个项目进展停滞,但仍希望重启。文章的价值在于展示一种严肃的约束创作:它不是把名画机械压缩成低分辨率图,而是在有限像素里重新理解构图、浪花、船、人和山的关系。
原文链接:https://www.hypertalking.com/2023/05/08/1-bit-pixel-art-of-hokusais-the-great-wave-off-kanagawa/
论坛讨论链接:https://news.ycombinator.com/item?id=47863570
评论区主要围绕北斋本人的技艺和像素化改写展开。有人提到下载 archive.org 上的高清资料后放大观察,会被原作笔触的精度和动态感震撼:极少的线条就能表达鸟的转颈、浪的力量和瞬间运动。也有人欣赏 1-bit 重绘带来的二次约束,认为这不是简单复古,而是用另一套工具重新学习原作。讨论还延伸到早期 MacPaint、Susan Kare 和黑白 Macintosh 图形美学。整体气氛偏欣赏:技术含量不在算法,而在耐心、眼力和对限制的主动接受。
8. 座头鲸正在形成超级群体,可能让我们看到过去海洋的一角 (Humpback whales are forming super-groups)
BBC Future 报道了座头鲸在南非西海岸形成超级群体的现象。2025 年 12 月,两位摄影师在一天内识别出 304 头个体,是单日识别到的大型鲸类数量纪录。文章描述了数百头座头鲸密集觅食时的混乱景象:喷气像城市天际线,呼吸声巨大,气味强烈。座头鲸曾因捕鲸濒临崩溃,如今部分种群恢复,使人们重新看到过去海洋中可能更常见的大规模行为。超级群体的形成与食物、洋流和种群恢复有关,但也可能受到气候变化影响。报道的科学意义在于,很多鲸类社会行为在过去几十年里可能根本没有机会被观察,因为人类先把种群规模压得太低。现在的恢复既是保护成功,也是一扇看向历史海洋生态的窗口。
原文链接:https://www.bbc.com/future/article/20260416-the-humpback-super-groups-swarming-the-seas
论坛讨论链接:https://news.ycombinator.com/item?id=47858294
HN 讨论较短,主要围绕“过去我们错过了多少自然行为”展开。有人感叹,当海洋里曾经有数百万更多鲸类时,必然存在大量今天难以想象、也未被记录的群体行为;现在看到超级群体,可能只是过去常态的一小部分回声。也有人对恢复速度保持谨慎,认为以当前鲸类增长轨迹,人类这一代未必能看到真正接近历史规模的海洋。另一条担忧是气候变暖可能在未来几十年破坏这些动物依赖的食物系统。总体讨论不是质疑报道,而是在保护成功和生态风险之间保持谨慎。
9. Paraloid B-72:文物修复圈常用的可逆丙烯酸树脂 (Paraloid B-72)
Paraloid B-72 是一种热塑性丙烯酸树脂,最初由 Rohm and Haas 开发,可作为表面涂层和柔版油墨载体,后来在文物修复、陶瓷和玻璃修复、化石制备、钢琴槌硬化以及博物馆物件标记中广泛使用。它的特点是耐久、不易黄变,可溶于丙酮、乙醇、甲苯和二甲苯等溶剂。作为加固剂和胶黏剂,它比聚乙酸乙烯酯更强更硬,同时又没有过度脆化;更重要的是具有较好的可逆性,修复人员可以在未来重新处理材料。对文物保护来说,可逆性和长期稳定性往往比瞬时强度更关键,因为修复不应把未来研究和再修复的可能性封死。
原文链接:https://en.wikipedia.org/wiki/Paraloid_B-72
论坛讨论链接:https://news.ycombinator.com/item?id=47858939
评论区很快出现实际使用经验。有人说自己因手术保留了一些骨头,后来用 Paraloid B-72 和丙酮配成较稀溶液浸泡,干燥后骨头变得更坚固;因为骨骼多孔,低浓度溶液更容易渗透。这个例子把百科条目拉回到材料实践:B-72 不只是博物馆里的专用名词,也能被个人以低成本获得和使用。其他评论则讨论可逆胶黏剂、标本保存、修复伦理和材料选择。整体看,这条新闻的吸引力在于一个小众材料背后的工程取舍:强度、柔韧性、透明度、耐老化和未来可移除性之间必须平衡。
10. 纯文本活了几十年,还会继续活下去 (Plain text has been around for decades and it’s here to stay)
这篇文章讨论 plain text、ASCII diagram 和文本式 UI 工具的持久生命力。作者提到 Mockdown、Wiretext、Monodraw 等工具,它们吸引的是喜欢刻意限制视觉选择、需要把图放进源码或文档、以及把文本作为 AI 生成入口的人。文章认为这种形式有两个价值:一是现代工具用 Web、移动端、鼠标和触控板重新包装了 1970 到 1980 年代 TUI 和文本界面的精神;二是约束本身会变得越来越重要。电脑越强,AI 越能生成复杂结果,人越需要主动限制表达空间,既让事情更简单,也让创作变得更有难度和判断力。纯文本之所以长寿,不只是因为文件格式可移植,更因为文本编辑本身是一种成熟、强大、可组合的接口。
原文链接:https://unsung.aresluna.org/plain-text-has-been-around-for-decades-and-its-here-to-stay/
论坛讨论链接:https://news.ycombinator.com/item?id=47897681
评论区用实际例子支持了纯文本工具的价值。有人分享自己从 QuickBooks 转到 Beancount + Fava 管理独资企业账务,并配套文本发票、文本里程记录和校验器,体验比商业软件更快、更透明;结合 git 和 RFC3161 时间戳证明,还能证明记录何时添加,避免误删难追踪。讨论说明纯文本的优势并不是怀旧,而是可审计、可版本化、可自动化和可组合。也有人提到文本图、ASCII UI 和源代码内文档的低摩擦价值。整体共识是,纯文本不会替代所有 GUI,但在需要长期保存、可验证和程序化处理的场景里,它仍然非常强。