Search Articles/Users
Follow

Last Followed

Last Updated

Username

2022

Ava Gregoraci · Jun 11,2023 10:22

No Access Permission

Your user group (LV1) does not have permission to view this content (LV2)

Cancel

Save to
FebBox

TV Shows

Jun 11,2021 13:33

Add

Add New Folder

FebBox Insufficient Available Space

1056.56 GB of 1000 GB Used

Your FebBox requires more storage space to save files. Please upgrade your membership, purchase additional space, or organize your FebBox storage space to continue saving.

Buy Extra Space

Return the root directory, Clean up space

cnBeta中文业界资讯网

8 Followers

19594 Articles

cnBeta.com成立于 2003 年,是中国领先的即时科技资讯站点,已成为重要的互联网IT消息集散地,提供软件更新,互联网、IT业界资讯、评论、观点和访谈。

我们的核心竞争力:快速响应;报道立场公正中立;尽可能提供关联信息;网友讨论气氛浓厚。

我们致力于奉献适合中文读者阅读的科技资讯,呈现科技如何影响人们生活的报道。
Put away

More

Recent

英伟达经济学:云服务商在GPU上每花1美元 就能赚7美元

摘要:NVIDIA超大规模和 HPC 业务副总裁兼总经理 Ian Buck 近日在美国银行证券 2024 年全球技术大会上表示,客户正在投资数十亿美元购买新的NVIDIA硬件,以跟上更新的 AI 大模型的需求,从而提高收入和生产力。 Buck表示,竞相建设大型数据中心的公司将特别受益,并在数据中心四到五年的使用寿命内获得丰厚的回报,“云提供商在购买 GPU 上花费的每一美元,四年内(通过提供算力服务GAAS)都能收回 5 美元。”“如果用于推理,则更有利可图,每花费 1 美元,在同样的时间段内就能产生 7 美元的营业额,并且这个数字还在增长。”Buck说道。NVIDIA创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官Colette Kress此前也曾表达过同样的观点。他们此前曾表示,借助CUDA算法创新,NVIDIA将H100的LLM推断速度提升至原来的3倍,这可以将Llama 3这类的模型的成本降低到原来的三分之一,而H200在推理性能上较H100几乎翻了一番,为生产部署带来了巨大的价值。例如,使用7000亿参数的LLama 3,单台HGX H200服务器可以每秒输出24000个Token,同时支持超过2400名用户。这意味着,按照现有的定价来看,托管Llama3的API供应商每花费1美元在NVIDIAHGX H200服务器上,未来四年内就可从Llama3 token计费中赚取7美元收入。围绕 Llama、Mistral 或 Gemma 的 AI 推理模型正在不断发展,并由Token提供服务。NVIDIA正在将开源 AI 模型打包到名为 Nvidia 推理微服务 (NIM) 的容器中。NVIDIA最新推出的Blackwell 针对推理进行了优化,支持 FP4 和 FP6 数据类型,在运行低强度 AI 工作负载时可进一步提高能效。根据官方的数据,与Hopper相比,Blackwell 训练速度比H100快4倍,推断速度快30倍,并且能够实时运行万亿参数大语言模型生成式AI,可进一步将成本和能耗降低到原来的25分之一。这似乎呼应了黄仁勋多次喊出的“买的越多,省的越多”的口号,但不可忽视的是,NVIDIA GPU价格也在快速上涨。为 Rubin GPU做准备很多云提供商提前两年就已经开始规划新的数据中心,并希望了解未来的AI GPU 架构会是什么样子。NVIDIA在6月初的Computex 2024展会上宣布,Blackwell芯片现已开始投产,即将替代Hopper芯片。2025年将会推出Blackwell Ultra GPU芯片。NVIDIA还公布了下一代集成HBM4的名为“Rubin”的AI平台,该GPU将于2026年发布,以替代Blackwell和Blackwell Ultra GPU。“对我们来说,做到这一点真的很重要——数据中心不是凭空而来的,它们是大型建设项目。他们需要了解Blackwell 数据中心会是什么样子,它与Hopper数据中心有何不同。”Buck说。Blackwell 提供了一个转向更密集的计算形式和使用液体冷却等技术的机会,因为空气冷却效率不高。NVIDIA已经宣布每年都会推出一款新的 GPU的节奏,这有助于公司跟上 AI 发展的步伐,进而帮助客户规划产品和 AI 战略。Buck说:“NVIDIA已经与那些最大的客户针对Rubin GPU探讨了一段时间——他们知道我们的目标和时间表。”AI 的速度和能力与硬件直接相关。在 GPU 上投入的资金越多,AI公司就能训练出更大的模型,从而带来更多收入。微软和谷歌将自己的未来寄托在人工智能上,并竞相开发更强大的大型语言模型。微软严重依赖新的 GPU 来支撑其 GPT-4 后端,而谷歌则依赖其 TPU 来运行其人工智能基础设施。Blackwell供不应求NVIDIA目前正在生产 Blackwell GPU,样品很快就会发布。但客户可以预料,首批 GPU(将于年底发货)将供不应求。“每一项新技术的转型都会带来……供需方面的挑战。我们在 Hopper 上就经历过这种情况,Blackwell 的产能提升也将面临类似的供需限制……今年年底到明年。”Buck 说道。Buck还表示,数据中心公司正在淘汰 CPU 基础设施,为更多 GPU 腾出空间。Hopper GPU 可能会被保留,而基于旧 Ampere 和 Volta 架构的旧 GPU 则会被转售。NVIDIA将保留多个级别的 GPU,随着 Blackwell 的不断发展,Hopper 将成为其主流 AI GPU。NVIDIA已经进行了多项硬件和软件改进,以提高 Hopper 的性能。未来所有云提供商都将提供 Blackwell GPU 和服务器。专家模型Buck 表示,GPT-4 模型大约有 1.8 万亿个参数,由于 AI 扩展尚未达到极限,参数数量还将继续增长。“人类大脑的规模大概相当于 1000 亿到 150 万亿个参数,具体数量取决于个人,取决于大脑中的神经元和连接。目前,人工智能的参数规模约为 2 万亿……我们尚未进行推理。”Buck说道。未来将会有一个包含数万亿个参数的大型模型,在此基础上会构建更小、更专业的模型。参数数量越多对NVIDIA越有利,因为它有助于销售更多 GPU。NVIDIA正在调整其 GPU 架构,从原来的基础模型方法转向混合专家模型。专家混合涉及多个神经网络通过相互参考来验证答案。Buck说:“1.8 万亿参数的 GPT 模型有 16 个不同的神经网络,它们都试图回答各自层的部分问题,然后商讨、会面并决定正确答案是什么。”即将推出的 GB200 NVL72 机架式服务器配备 72 个 Blackwell GPU 和 36 个 Grace CPU,专为混合专家模型而设计。多个 GPU 和 CPU 相互连接,从而支持混合专家模型。“这些家伙都可以相互通信,而不会在 I/O 上受阻。这种演变在模型架构中不断发生,”Buck 说。锁定客户的技巧NVIDIA首席执行官黄仁勋本月在 HPE 的 Discover 大会上发表了一些激烈的言论,呼吁人们购买更多该公司的硬件和软件。NVIDIA和 HPE 宣布推出一系列新产品,其名称简单明了,为“Nvidia AI Computing by HPE”。“我们设计了小号、中号、大号和特大号,你可以选择,而且正如你所知,你买得越多,省得越多。”黄在 Discover 的舞台上说道。黄仁勋今年早些时候还发表了另一条备受争议的言论,当时他说未来的程序员不需要学习如何编写代码,但在 Nvidia GPU 上加载 AI 模型需要了解命令行和脚本,以创建和运行 AI 环境。NVIDIA的专有言论和在人工智能市场的完全主导地位使其成为反垄断调查的目标。当 Buck 试图淡化人们对 CUDA 的担忧时,他必须小心谨慎,他表示“护城河是一个复杂的词”。NVIDIA两位高管都表示,CUDA 是其 GPU 的必备软件——要最大限度地发挥 GPU 的性能,就需要 CUDA。开源软件可以与 Nvidia GPU 配合使用,但无法提供 CUDA 库和运行时的强大功能。向下兼容性和连续性是NVIDIA的独特优势,NVIDIA对AI 模型和软件的支持可以延续到下一代 GPU。但对于英特尔的 Gaudi 等 ASIC 则不然,它们必须针对每个新模型重新进行调整。 原文:https://m.cnbeta.com.tw/view/1436719.htm

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

海南商业航天发射场已具备执行发射能力 下半年将迎来首发

摘要:海南商业航天发射场6月30日正式宣布已具备执行发射能力。这意味着历经短短两年时间,该发射场现在已经能够承接火箭发射业务并实现商业化运营,今年下半年,该发射场将迎来首次火箭发射。当前,该发射场正瞄准首次火箭发射任务进行全系统合练。 未来,发射场将继续建设多个新的发射工位,并有望帮助其他国家发射火箭、卫星及其他航天器,带动世界商业航天产业发展。据悉,海南商业航天发射场位于文昌发射场周边区域,包括海南商业航天发射场的技术区和发射区,总面积133.33公顷。发射场自2022年7月开工,建设周期19个月,有望于2024年实现常态化发射。为了适应日益增长的卫星组网需求,海南国际商业航天发射中心两个工位都按照每年发射16次设计,形成发射能力后将会有很高的发射效率。1号工位是为了现在最成熟的长征八号火箭去设计的,2号工位是为9个厂商的十几型火箭去设计的。这些火箭发展越多,成本越低,实现了高的发射密度。 原文:https://m.cnbeta.com.tw/view/1436718.htm

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

深中通道通车后到达首车出现:一台五菱宏光

摘要:昨日下午15时,深中通道正式通车试运营,通车后,从深圳到中山的车程将从目前的2小时缩短至30分钟。比亚迪官方发布的视频显示,为祝贺深中通道成功通车,上百台仰望U8+仰望U9集体穿越,场面非常壮观。 不过出乎所有人意料的是,第一台成功通过该通道并到达中山的竟然是一台五菱宏光,这引发了网友的关注和热议。有网友评论称:他过弯很快,没有减速,看不到他的车尾灯。还有网友表示,五菱宏光也是国民神车,没毛病;公路本来就是方便普通人过普通车。五菱汽车官方也注意到了这件事,在转发时提到“深中通道是人民的道路,五菱有幸陪伴车主一起走过这段路。”需要提醒的是,昨日深中通道正式通车后吸引了很多人前来打卡,结果造成大拥堵,原本30分钟的路程,导航显示需要1小时40分钟。造成拥堵的原因主要有两方面,一是由于事故,另一方面也有人违规在应急车道停车拍照,给本就拥挤的道路带来了更多通行压力。 原文:https://m.cnbeta.com.tw/view/1436717.htm

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

华为“阿波罗”正式官宣 首个基于R18协议的5G-A版本将发布

摘要:华为宣布:Apollo Version重磅来袭,将于7月5日举办的第十六届华为用户大会上揭晓!官方预热海报显示,Apollo Version是首个基于R18协议的5G-A版本。近日在上海举行的3GPPRAN(无线接入网络项目)第104次会议上,3GPPRelease18(R18)标准被正式冻结。 在过去五年中,5G技术的发展历经了R15、R16和R17三个关键标准版本。而R18标准从立项到冻结历时3年多,是5G-Advanced(5G-A/5.5G)的第一个版本。与之前的5G技术相比,5G-A的网络性能有望实现十倍的增长,支持更高的数据传输速率和更广泛的连接范围,其中下行峰值速率从1Gbps提高至10Gbps,上行峰值速率也从0.1Gbps增加至1Gbps。 原文:https://m.cnbeta.com.tw/view/1436715.htm

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

820吨推力火箭起火爆炸 天兵科技工作人员称会继续试车

摘要:7月1日消息,据国内媒体报道称,天兵科技巩义工作人员今天表示,他们会继续试车但不试这种大型的了。在天兵科技河南巩义市综合试验中心,北京天兵科技有限公司工作人员今日向记者表示:“目前一切正常,除了火箭损失外,没有造成人员和财产损失。” 上述工作人员透露,目前,现场工作人员正在寻找黑匣子,收集(火箭)残骸,需要等所有数据都收集到后进行数据分析,才能把事件完全解释清楚。其还表示,后续还会继续开展试车,“但不试这种大型的了,普通试车还是会有的,工作还是要继续做”。根据官方通报,2024年6月30日下午3点43分,在河南巩义市综合试验中心,天兵科技自主研制的天龙三号液体运载火箭开展了一子级九机并联动力系统热试车。试车过程中,一子级火箭正常点火,发动机推力达到820吨,但因为箭体与试验台连接处结构失效,一子级火箭脱离发射台。在升空后,箭上计算机主动关机,火箭跌落在距离试车台西南1.5公里的深山中,箭体跌落山中后解体。 原文:https://m.cnbeta.com.tw/view/1436716.htm

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

Telegram向订阅频道开通付费帖子 用户支付对应的星星数后才能查看内容

摘要:即时通讯应用 Telegram 目前正在继续扩展自己的生态系统,最新推出的功能是订阅频道可以发布付费帖子,此功能经过短暂测试后已经面向所有订阅频道提供。 付费帖子功能是 Telegram 帮助内容创作者或机器人频道获得收益提供的工具,创作者可以设置某个内容需要支付多少 Telegram Stars 才可以解锁内容。不过该平台的付费系统着实有些复杂,用户购买星星需要通过应用商店支付,在 iOS 系统上星星的汇率是 1 美元 = 100 颗星星。用户通过星星解锁付费内容后创作者会收到对应的星星数,现阶段 Telegram 几乎不收取抽成,例如用户解锁内容支付 250 颗星星后,内容创作者将收到 250 颗星星。然而这些星星虽然显示上仍然以美元进行显示,但如果内容创作者想要提现的话,那依然还需要通过加密货币 Ton 进行提取,这与 Telegram 频道广告收入的支付是相同的。也就是说用户通过法币购买星星,内容创作者最终需要通过加密货币完成提现,不能直接以法币提现,其中星星数的汇率仍然是被固定的,而 Ton 的价格是浮动的,因此当内容创作者提现时将根据 Ton 价格获得对应的 Ton,最后卖出 Ton 获得法币。虽然流程是麻烦了些不过在 Telegram 上发布内容的创作者好歹现在有了更多不同的获利方式,这个功能实际上也有利于一些艺术家销售照片或视频,这会给 OnlyFans 等平台带来竞争压力。 原文:https://m.cnbeta.com.tw/view/1436714.htm

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

Join kefu_004’s channel

Package

LV2($ 3.33/month)

Renew

11/02/2024

Total 3.33 FebCoins

Account balance

Recharge

Subscriptions can be cancelled at any time, and after cancellation, you will continue to have access to the content until the next billing cycle.

Send article

Everyone

Only Me

Everyone

Send CopyDone

Add File
FebBox
Other

Izumi Katsuyoshi

send message

Add File
FebBox

Photo Album

Jun 11,2021 13:33

Edit

View, comment and edit

View

Can view and comment, but not edit.

Comments

Block this user

Type a comment

0/400

After closing, the input will be lost

Are you sure you want to unsubscribe?

Speed 0.5 0.75 Normal 1.25 1.5 2.0

Time 15min 30min 60min

Voice

Microsoft Kangkang

Chinese (Simplified, PRC)

Chinese (Simplified, PRC)

Microsoft Kangkang

Microsoft Kangkang

Microsoft Kangkang

Microsoft Kangkang

Microsoft Kangkang

Exit Reading

Suspend