可理解输入:所有高效学习的底层逻辑
从语言学习到技能掌握,探讨“可理解输入”这一核心原则如何成为高效学习的基石,以及如何将其应用于编程、写作等各个领域。
多层感知机之正向传播、反向传播与计算图
深入浅出地解析神经网络训练的核心机制:正向传播、反向传播与计算图,并通过实例与矩阵运算揭示其高效计算的本质。
如何理解卷积神经网络中的卷积层和全连接层?
本文深入浅出地解析了卷积神经网络中卷积层与全连接层的核心作用与工作原理,通过类比“眼睛”与“大脑”的关系,阐明它们如何协同工作,从原始数据中提取特征并做出最终决策。
深度学习?炼丹?
探讨深度学习的本质,分析其如何模仿并超越人类智能,并剖析其“炼丹”特性背后的科学逻辑与工程实践。
卷积神经网络:从全连接层到卷积神经网络
本文深入探讨了卷积神经网络(CNN)的起源与核心思想,解释了为何全连接层在处理图像数据时效率低下,并详细阐述了平移不变性与局部性两大原则如何引导出卷积层的数学定义,最终构建出强大的CNN架构。
域名迁移服务器时遇到的各种连接问题
一次服务器迁移后,老域名访问被拒绝的诡异排查之旅,揭示了HSTS机制与浏览器“记忆”的深刻影响。
深度学习计算:延后初始化
深入解析PyTorch中的延后初始化机制,理解LazyLinear如何动态推断网络参数维度,简化模型构建流程。








皖公网安备34040002000580号