-
英伟达宣传Blackwell芯片高能效 应对AI计算耗电担忧
该公司表示,开发OpenAI的GPT-4软件所需的电力从十年前的5500千兆瓦降至今年推出的Blackwell芯片仅需3千兆瓦。英伟达副总裁Bob Pette在简报会上指出:“我们设计Blackwell平台时就考虑到了能源效率。”
-
英伟达新研究:上下文长度虚标严重,32K性能合格的都不多
英伟达新研究发现,包括GPT-4在内的10个大模型,生成达到128k甚至1M上下文长度的都有。但一番考验下来,在新指标“有效上下文”上缩水严重,能达到 32K 的都不多。新基准名为 RULER,包含 检索...
-
英伟达开源新王登基,70B刷爆SOTA,击败GPT
后者则借鉴了心理学中的评分量表,通过预测特定提示下响应的分数来训练模型。这就允许模型对响应的质量进行更细节的评估。对研究者和从业人员来说,决定采用哪种奖励模型是很重要的。然而,缺乏证据表明,当数据充分匹配时,哪种方法优...
-
英伟达大涨背后:大摩推荐抄底,沙特阿联酋争抢GPU
...制、市场对经济的持续担忧等因素,英伟达股价本月下跌逾10%,但摩根士丹利分析师预测,从长远来看,英伟达仍将受益。摩根士丹利...
-
英伟达
AI有哪些新方向,英伟达已经给出了回答 6月前 0 跟贴 0 地表最强AI大会上,我看到自己就能训练一个GPT的日子即将到来 6月前 10 谁来挑战英伟达?推出“全球最强”AI芯片,股价高开低走 6月前 0
-
英伟达
...GPT的日子即将到来10 谁来挑战英伟达?推出“全球最强”AI芯片,股价高开低走
-
英伟达
除了更高效地运行推荐模型外,Meta还需要为自家的生成式AI应用,以及正在训练的GPT-4开源竞品Llama3提供算力。Meta CEO扎克伯格此前宣布,计划到今年年底部署35万颗英伟达H100 GPU,使得Meta共拥有约60万颗GPU用于运行和训练AI系统。除了Meta之外,OpenAI和微软也在试图打造...
-
英伟达83亿参数打造史上最大语言模型MegatronLM,1小时成功训练BERT
GPT-2评估 为了分析大型语言模型的训练性能,我们在wikitext-103数据集上计算了pe...
浏览更多安心,自主掌握个人信息!
我们尊重您的隐私,只浏览不追踪