你每天只需要花

是一个拥有 万个参数的深度神经网络,它在两张  显卡上训练了六天, 是当时最强大的消费级显卡,发布 年。 我昨晚查了一些数据,想把这些放在一个更大的背景中看待。英伟达最新的显卡是  ,你们猜一下  之间的计算能力差距有多大  数量在几千左右

所以我昨

晚算了一下数据。像是那两周的训练,那六天 越南电子邮https://zh-cn.dbtodata.com/vietnam-email-data件列表 是在两块 上运行的,如果扩展一下,大概可以在一块 上运行不到五分钟。 这样想的话,真的有个很好的论点 年  在 挑战赛上的论文真的是一个非常经典的模型,那就是卷积神经网络模型。 而实际上,这个概念早

电子邮件数据

在 年代就已经

出现了,我还记得作为研究生 家庭共享 Apple Music 无法正常工作:如何修复 学习的第一篇论文,内容也差不多,有六七层的网络结构。 和卷积神经网络模型的唯一区别几乎就是 —使用了两个   和海量的数据。 所以我本来要说的是,大多数人现在都熟悉所谓的“痛苦的教训” ,这个教训说的是,如果你开发一个算法

只要确保你

能利用现有的计算资源,因为这些资源会逐 AFB 目录 渐变得可用。于是你只需要一个能够不断进步的系统。 另一方面,似乎还有另一个同样有说服力的观点,那就是新的数据源实际上解锁了深度学习。I 就是一个很好的例子。虽然很多人认为自注意力机制对  模型很重要,但他们也会说这是利用人工标注数据的一种方式。 因为人类为句子结构提供了标注,如果你看 型,它实际上是通过互联网让人类使用alt标签来标记图片。因此,这实际上是一个关于数据的故事,而不是关于计算的故事。那么答案是两者兼有,还是更偏向某一方呢 我认为是两者兼有,但你也提到了另一个非常关键的点。 我觉得在算法领域中,实际上有两个明显不同的时代。 时代是监督学习的时代。在这个时代,我们有很多数据,但我们不知道如何仅凭数据本身来训练.

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注