#人工智能 埃隆马斯克透露 xAI 将在年底推出 Grok 3,该版本通过 10 万张 NVIDIA H100 加速卡进行训练。马斯克公布训练用的 AI 加速卡数量并不是炫耀,而是证明 xAI 是真自己训练的,不是通过 OpenAI 输出的数据进行训练。查看全文:https://ourl.co/104777
xAI 是埃隆马斯克旗下的人工智能技术开发公司,其主要产品名为 Grok,目前 Grok 已经集成到 X/Twitter 中供 X Premium 订阅用户使用。
今天埃隆马斯克发布消息称 xAI 的 Grok 2 将在 8 月份发布,而性能更好的 Grok 3 将会在今年年底发布,当前应该是已经完成主要内容的训练。
值得注意的是 xAI 使用了 10 万张 NVIDIA H100 AI 加速卡进行训练,如此规模的加速卡购买成本和训练的电费估计都难以想象。
为什么马斯克要强调使用这么多的加速卡进行训练呢?这其实也是有原因的,因为 Cohere 公司首席执行官 Aidan Gomez 称很多模型都在 OpenAI 输出的基础上进行训练,而不是他们自己训练的。
Aidan Gomez 称模型是通过 OpenAI 输出结果进行训练还是由 AI 公司自己训练的,这有很大的区别,用户可以感觉出来这两种模型之间存在的差异。
马斯克也认同 Aidan Gomez 这种观点,对 AI 公司来说如果自己抓取数据进行训练,一个无法绕过的步骤就是对数据进行清洗,因为很多数据都是垃圾数据无法被用于 AI 模型训练,AI 公司需要花费大量时间和精力清洗数据留下有用的数据用于模型训练,而 xAI 的 Grok 2 训练数据都是他们自己获取并经过清洗的,马斯克称在这方面 Grok 2 取得了巨大进步。
话说利用 OpenAI 输出的数据训练 AI 模型目前应该是比较流行的,AI 公司只需要支付 API 费用就可以从 OpenAI 那里获得大量数据,直接使用这些数据训练 AI 模型就可以了,都不需要进行复杂的清洗,但这样训练出来的模型在能力方面可能要差些。
目前 Grok 的最新版是发布于 3 月份的 1.5 版,该版本改进了推理能力并提供 128K 上下文,基准测试中 Grok 1.5 币 GPT-4 差些但差距不是很大,在 HumanEval 测试中甚至超过了 GPT-4。