蚂蚁集团旗下CodeFuse代码大模型开源了ModelCache大模型语义缓存,以降低大型模型应用的推理成本,提升用户体验。ModelCache的架构包括adapter、embedding、similarity和data_manager模块,可以将文本转换为语义向量表示,并对向量进行相似度排序和评估。ModelCache的线上效果统计表明,命中缓存可以将平均耗时降低10倍,提速率可达14.5%。未来,ModelCache将继续优化性能和精度,以提高召回时间和准确率。
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则