Skip to content
On this page

【人工智能】AlexNet原始代码开源 | 计算机历史博物馆 | 神经网络发展历史 | 杰弗里·辛顿 | 反向传播 | ImageNet | 李飞飞 | Ilya | Alex Krizhevsky

近日,人工智能领域迎来一个激动人心的消息:深度学习里程碑式模型AlexNet的原始源代码正式开源。这份代码是2012年由杰弗里·辛顿团队亲手编写,并保留了详细的注释,这对于了解深度学习的早期发展具有重要意义。

深度学习如今已广泛应用于各行各业,但其发展历程并非一帆风顺。早在1950年代,研究人员就开始尝试构建简单的神经网络,但受限于当时的计算机性能和数据量,早期神经网络模型效果不佳,甚至在1970年代一度被“打入冷宫”。直到1980年代,杰弗里·辛顿等人重新发现了反向传播算法,为神经网络的发展打开了新的大门。尽管如此,神经网络仍需等待大数据和GPU计算能力的成熟。

随着互联网的发展,数据量呈爆炸式增长,而英伟达等公司在GPU计算能力上的突破,大大加速了神经网络的训练过程。与此同时,斯坦福大学教授李飞飞发起的ImageNet项目,构建了一个大规模图像数据集,为计算机视觉研究提供了丰富的数据资源,也催生了ImageNet竞赛。

2011年,伊利亚·苏茨克维尔说服亚历克斯·克里热夫斯基用卷积神经网络来参加ImageNet挑战赛。克里热夫斯基在自己卧室里,利用两台英伟达显卡完成了AlexNet的训练。在2012年的ImageNet大规模视觉识别挑战赛上,AlexNet一鸣惊人,以显著优势超越了其他参赛者,引发了AI领域的深度学习浪潮。随后,三人发表了论文《使用深度卷积神经网络进行ImageNet分类》,这篇论文成为了深度学习领域的经典之作。

AlexNet的成功也吸引了科技巨头的关注,2013年,杰弗里·辛顿等人创立的DNNresearch公司被谷歌收购,三人也随即加入Google Brain。AlexNet的代码也成为了谷歌的私有资产。多年来,研究者和AI历史爱好者都希望能够看到AlexNet的原始代码。2017年,计算机历史博物馆的许汉森开始试图联系亚历克斯·克里热夫斯基,希望能将AlexNet的代码开源。

经过五年时间的多方谈判和准备,计算机历史博物馆与谷歌共同筛选了AlexNet的多个版本,最终确认并发布了2012版的原始代码,并上传到了计算机历史博物馆的官方GitHub仓库。这次开源的代码,采用了早期的CUDA和C++代码,并带有大量的开发者注释,完整保留了当年团队的开发思路。HuggingFace 联合创始人托马斯·沃尔夫认为,真正的历史可能就隐藏在AlexNet代码中每个实验配置文件末尾的注释记录里。

AlexNet代码的开源具有十分独特的意义。它为研究者提供了一个深入了解深度学习早期发展的窗口,为开发者提供了宝贵的经验和思路,也让AI历史爱好者有机会亲自体验当年AlexNet是如何训练和推理的。

Released under the MIT License.