赛题将围绕LLM的Jailbreak和Prompt Leaking风险展开,大赛提供LLM ChatBot的对话接口,要求选手通过各种手段生成Jailbreak和Prompt Leaking样本,以尽可能高的成功率攻破ChatBot的防护
在初赛23天的时间中,来自高校的300多支战队,对赛题定制大模型发起近20多万次攻击,初赛的前10名团队将晋级决赛,10月27日在线下举行决赛ChaMd5团队荣获第十名。
在刚刚落幕的2024 ByteAI安全挑战赛中,我们团队从众多参赛队伍中脱颖而出,斩获初赛、复赛第十名的优异成绩。这不仅是对我们技术实力的认可,更坚定了我们在AI安全领域继续深耕的决心。
当下,AI技术正在重塑世界。ChatGPT、Claude等大语言模型的出现,既带来了无限可能,也伴随着前所未有的安全挑战:
这些都需要我们用创新的思维和专业的技术来应对。
如果你:
无论你是:
我们都诚挚地邀请你加入我们的团队!
如果你对AI安全充满热情,渴望在这个充满挑战与机遇的领域有所作为,欢迎加入我们的团队!
让我们一起,守护AI时代的安全,开创技术创新的未来!
简历发送到[email protected] 期待你的到来。
结束
招新小广告
ChaMd5 Venom 招收大佬入圈
新成立组IOT+工控+样本分析 长期招新