📢 Gate 广场大使招募开启!🔥
加入 Gate 大使,不只是创作,更是一段精彩旅程!💡
成为广场大使,你将享有:
🎁 专属福利,展现独特价值
💰 广场任务提醒,边发帖边赚钱
🎨 限量周边,成为 Gate 官方代言人
⭐ VIP5 + 广场黄V,轻松脱颖而出
🚀 加入我们,成为:
社区意见领袖
Web3 创意先锋
优质内容传播者
🎉 点击报名,开启你的大使之旅:https://www.gate.com/questionnaire/4937
📖 活动详情:https://www.gate.com/announcements/article/38592
字节跳动与浙大联合推多模态大语言模型 Vista-LLaMA,可解读视频内容
巴比特讯 字节跳动与浙江大学合作推出了多模态大语言模型 Vista-LLaMA,该模型专为视频内容理解而设计,能够输出高质量视频描述。通过创新的视觉与语言 token 处理方式,Vista-LLaMA 解决了在视频内容中出现“幻觉”现象的问题。
Vista-LLaMA 在多个开放式视频问答基准测试中表现卓越,尤其在 NExT-QA 和 MSRVTT-QA 测试中取得了突破性成绩。其在零样本 NExT-QA 测试中实现了 60.7% 的准确率,在 MSRVTT-QA 测试中达到了 60.5% 的准确率,超过了目前所有的 SOTA 方法。这些结果证明了 Vista-LLaMA 在视频内容理解和描述生成方面的高效性和精准性。