-
Qwen1.5系列再次更新:阿里巴巴开源320亿参数Qwen1.5
阿里巴巴最新开源了320亿参数的大语言模型Qwen1.5-32B,这个模型在各项评测结果中都略超此前最强开源大模型Mixtral 8×7B MoE,比720亿参数的Qwen-1.5-72B模型略差。但是 一半的参数意味着只有...
-
突遭下架,“国服最强”开源模型将何去何从?
阿里 最新推出的开源模型QWen2系列更是风靡全球,其中Qwen2-72B更是在发布后短短两个小时,就冲上了Huggingface开源大模型排行榜之首,随后又卫冕全球最权威的开源模型测试榜单之首。而阿里最新...
-
阿里通义Qwen2拿下大模型最新测评全球开源第一 周鸿祎发文祝贺:未来开源模式一定会超过闭源
在视频中,周鸿祎特别提到了,刚刚在全新的大模型测评基准LiveBench AI中,进入榜单前列的阿里云通义千问开源大模型Qwen2-72B。榜单显示,LiveBench AI首次针对34个全球领先的开闭源大模型进行...
-
Qwen1.5系列再次更新:阿里巴巴开源320亿参数Qwen1.5
阿里巴巴最新开源了320亿参数的大语言模型Qwen1.5-32B,这个模型在各项评测结果中都略超此前最强开源大模型Mixtral 8×7B MoE,比720亿参数的Qwen-1.5-72B模型略差。但是 一半的参数意味着只有...
-
QWEN2.5开源上新,14B/32B回归实测:这就是最强单卡本地模型!
而且,还有一个超大杯的32B CODER版本还在路上。坤叔非常认可阿里在这波技术开源的战略气度,下面是阿里的一段原话:“ 我们...
-
QWEN2.5开源上新,14B/32B回归实测:这就是最强单卡本地模型!
而且,还有一个超大杯的32B CODER版本还在路上。坤叔非常认可阿里在这波技术开源的战略气度,下面是阿里的一段原话:“ 我们...
-
阿里开源Qwen
开源社区长期以来一直在寻求一种能在性能、效率和内存占用之间达到理想平衡的模型。尽管出现了诸如Qwen1.5-72B和DBRX这样的SOTA模型,但这些模型持续面临诸如内存消耗巨大、推理速度缓慢以及显著的微调成本等问题。当前,参数量...
-
阿里,“扫货”式投资大模型
于内,阿里 直接投入到AI大模型的研发和开源当中。先是2022年,阿里 就创建并运营了中国AI模型开源社区“魔搭”,去年至今,大模型产品系列“通义千问”从面世到Qwen1.5版本的开源,更是带着...
-
阿里云开发者社区
魔搭社区(ModelScope)作为开源大模型的聚集地,结合阿里云函数计算,提供了一种高效、便捷的部署方式。通过按需付费和弹性伸缩,开发者可在数字化快速发展的背景下,分布式系统的稳定性和可...
-
阿里巴巴全球开源新王Qwen2
完全堪称GPT-4o/Turbo级别模型」!开源新王Qwen2-72B发布!差不多4个月时间,阿...
浏览更多安心,自主掌握个人信息!
我们尊重您的隐私,只浏览不追踪