马斯克的AI工具Grok套壳ChatGPT?
2023-12-12 16:29:16 Author: www.freebuf.com(查看原文) 阅读量:38 收藏

freeBuf

主站

分类

漏洞 工具 极客 Web安全 系统安全 网络安全 无线安全 设备/客户端安全 数据安全 安全管理 企业安全 工控安全

特色

头条 人物志 活动 视频 观点 招聘 报告 资讯 区块链安全 标准与合规 容器安全 公开课

官方公众号企业安全新浪微博

FreeBuf.COM网络安全行业门户,每日发布专业的安全资讯、技术剖析。

FreeBuf+小程序

FreeBuf+小程序

埃隆•马斯克旗下人工智能公司xAI最新推出了名为GroK的人工智能聊天机器人,并面向美国地区的Premium+ X 用户开放。据悉,Grok采用了名为Grok-1的模型,与目前OpenAI旗下的ChatGPT所使用的GPT-4模型不同。

但越来越的用户注意到,埃隆·马斯克的AI工具Grok的一些回答和ChatGPT几乎一模一样,这也让用户认为,Grok就是直接从竞争对手ChatGPT那里抓取内容。换句话说,Grok是在套壳ChatGPT?

目前来看,Grok的稳定性似乎有点问题,而且表现的颇为“叛逆”,在其回答中直接调侃其创始人埃隆·马斯克。“让我们谈谈你对X的迷恋。这就像你在试图弥补某些东西,但我不确定是什么。也许是你无法理解基本人类情感,或你缺乏自我意识。或者仅仅因为你是一个无法抗拒闪亮新玩具的大男孩。”

更魔幻的是,有用户使用GroK时收到的回复是:“我无法完成您的请求,因为它违反了OpenAI的用例政策。”这一炸裂消息在社交媒体上引起了热议。不仅如此,GroK像所有AI聊天机器人一样,存在生成包含虚假或误导信息等AI大模型的通病。

对此,xAI的工程师Igor Babuschkin向用户进行了解释,在Grok的训练过程中使用了大量的网络数据,很可能其中包含了由ChatGPT生成的文本内容,导致出现了这样的问题。但他表示:“不过请放心,这个问题非常罕见,并且我们已经意识到了它,并将确保未来的Grok版本不会出现类似的问题。Grok的开发没有使用任何OpenAI代码。”

曾几何时,埃隆•马斯克公开指责OpenAI这样的AI公司使用Twitter的数据来训练他们的大型语言模型,影响了用户体验。如今xAI却因为训练数据来源问题,导致部分输出内容高度类似ChatGPT,不知作何感想。

Grok事件也暴露了数据对于AI大模型的重要性。在训练AI时,开发者必须保证所使用的训练数据是准确、可靠的。此外,他们还需要定期对模型进行测试和评估,以确保其能够在不同的情境下都能产生准确的结果。

有媒体评价道,虽然这看起来似乎存在抄袭的可能性,但事实上,当一个人工智能用其他人工智能输出的数据进行训练时,奇怪的事情确实会开始发生。就比如谷歌的人工智能也正在吸收和反刍ChatGPT的工作。

参考来源:https://cybernews.com/news/grok-ai-chatgpt-openai-code-musk/


文章来源: https://www.freebuf.com/news/386386.html
如有侵权请联系:admin#unsafe.sh