Search Articles/Users
Follow

Last Followed

Last Updated

Username

2022

Ava Gregoraci · Jun 11,2023 10:22

No Access Permission

Your user group (LV1) does not have permission to view this content (LV2)

Cancel

Save to
FebBox

TV Shows

Jun 11,2021 13:33

Add

Add New Folder

FebBox Insufficient Available Space

1056.56 GB of 1000 GB Used

Your FebBox requires more storage space to save files. Please upgrade your membership, purchase additional space, or organize your FebBox storage space to continue saving.

Buy Extra Space

Return the root directory, Clean up space

cnBeta中文业界资讯网

8 Followers

18413 Articles

cnBeta.com成立于 2003 年,是中国领先的即时科技资讯站点,已成为重要的互联网IT消息集散地,提供软件更新,互联网、IT业界资讯、评论、观点和访谈。

我们的核心竞争力:快速响应;报道立场公正中立;尽可能提供关联信息;网友讨论气氛浓厚。

我们致力于奉献适合中文读者阅读的科技资讯,呈现科技如何影响人们生活的报道。
Put away

More

Recent

破解ChatGPT惊人耗电 DeepMind新算法训练提效13倍,能耗暴降10倍

摘要:ChatGPT早已成为世界耗能大户:一天用掉超50万度电,相当于1.7万个美国家庭的用电量!然而,大模型对能源的吞噬,远不仅如此。国际能源署(IEA)预测,从2022年到2026年,数据中心的用电量将翻一番。 随着AI计算需求的膨胀,还需要用水来冷却计算系统。研究称,微软用水量从2021年到22年飙升了34%,ChatGPT每处理5-50个提示就会消耗接近半升水。针对这种现状,我们有更好的解决策略吗?最近,GoogleDeepMind研究团队提出了一种加快AI训练的新方法——多模态对比学习与联合示例选择(JEST),大大减少了所需的计算资源和时间。JEST以13倍更少的迭代次数,以及10倍更少的计算量,超越了最先进的模型!预训练的参考模型,已经学习了什么样的数据是有“优质的”或“有用的”。然后通过模型,来引导数据选择那些精心筛选过的小型数据集。这一发现揭示了,数据筛选水平可以作为评判Scaling Law的一个新维度。网友激动表示,“我没想到这么快就会发生。模型能够自主选择训练数据的能力是巨大的,因为它使训练变得显著更容易,你不再需要猜测什么是高质量的训练数据,你有一个能够『理解』什么样的数据对自身学习最有价值的模型”。前Google、苹果软件工程师称赞道,这项研究非常令人印象深刻。从“超级batch”中筛选数据无论是语言、视觉还是多模态模型,数据质量是预训练性能的重要驱动因素。比如Phi-3、Gemma 2等模型的成功让我们看到了,更少、更高质量的数据有可能实现更强大的性能。要筛选出高质量的数据,数据管道的建立就成为重要的工作。现有的方法大体可以分为两种:1)手动管理 2)基于模型的数据管理,用正在训练模型的特征选择高质量数据。前者成本高昂且难以扩展,后者则有望为多模态LLM实现Scaling Law。然而,现有方法忽略了一个事实。如果仅在单个数据点的层面进行筛选,就没有考虑到数据集以及batch的总体组成。毕竟,训练数据是以batch为单位,数据点之间的依赖性不可忽视。许多计算机视觉的研究都曾表明,hard negatives(表达空间中相近但标签不同的样本)相比可被平凡解的数据簇,能提供更有效的学习信号。那么如何让模型以batch为单位筛选数据呢?论文提出的JEST算法正是要解决这个问题,原理很好理解:就是直接从“超级batch”中筛选出“子batch”。技术介绍用数学语言来描述这个问题,就是从大小为B的“超级batch”中提取出与学习最相关的子batch ℬ={,∈[1,…,]}⊂,过滤比率可以写作=1−/。之前的优先采样(prioritized sampling)会使用基于模型的评分函数对每个数据点打分,再按比例采样。JEST则直接对整个子batch评分,再按照batch级别的分数采样。一种最直观的启发式方法就是在现有模型参数 : hard⁢(ℬ|)=ℓ⁢(ℬ|) 中,直接选择损失值最高的batch,这种方法可被称之为“硬学习”(hard learner)。这种方法具有丢弃琐碎数据的理想属性,已被证明适用于小型、干净的数据集;然而对于较大、较少管理的数据集往往弊大于利,因为它依旧会采样到噪声数据。另一种方法常用于多模态,使用具有参数 ∗:^easy⁢(ℬ|∗)=−ℓ⁢(ℬ|∗) 的参考模型为预训练模型采样数据。但作者依旧否定了这个方案,因为它无法直接反映模型当前的状态,可能过度依赖参考模型的选择,而且不易于扩展。最后,论文选择借鉴ICML 2022年的一篇论文中提到的方法,将上述两方面的评分结合起来:^learn⁢(ℬ|,∗)=hard⁢(ℬ|)+^easy⁢(ℬ|∗)=ℓ⁢(ℬ|)−ℓ⁢(ℬ|∗),并将这种启发式方法称为“可学习性评分”(learnability score)。其中,batch上的损失值ℓ⁢(ℬ|)是各数据点之和,使用sigmoid对比损失函数计算(sigmoid-contrastive loss),因为相比softmax对比损失而言,它的扩展性更强。由于batch上的对比损失可以分解为每个样本的条件损失之和,因此可学习性评分可被分解为单个样本可学习性评分⁢(|,∗,ℬ)之和,写作:使用的顺序采样方法则受到了block Gibbs采样的启发。在第n次迭代、对第B_n个batch进行采样时,依据如下概率公式对块{X_k}进行无替换采样:将X_k块添加到B_n中来更新当前采样的batch,直至迭代数n=N时终止。算法的总体流程如下图所示:实验中发现,使用迭代数N=16且每次迭代时独立采样b/N=2048个样本时,就足以恢复出学习性非常高的batch。可学习性评分中涉及到使用参考模型为数据点打分,之前的方法惯常使用额外的小型模型,但这会增加每次迭代的计算成本,降低总体FLOP效率增益。因此论文使用了在线模型近似的方法以及效率较高的FlexiViT架构,只使用降低分辨率的32×32的patch来评估“超级batch”,与全分辨率、patch大小为16×16的方法相比减少了72%的FLOP,以及67%的挂钟时间(wall-clock time)。此外,论文还提出了进行多分辨率训练的技巧。将每个batch随机分成两半,使用不同分辨率编码后再拼接起来,提升了评分过程和训练的效率。下图详细描述了全分辨率JEST和多分辨率Flexi-JEST方法的伪代码实现。所有JEST实验都在WebLI数据集上运行,包含经过宽松过滤的十亿规模的英语图像-文本对,参考模型的训练则使用其中经过高质量过滤100M大小的子集(被称为WebLI-curated)。在WebLI的基础上,作者还额外从网络上抓取了6亿个文本-图像对并经过同样强度的过滤,组成WebLI-curated++数据集训练参考模型,拓展出JEST++/FlexiJEST++方法,来探索对数据管理的扩展。论文所报告的平均性能包括4个多模态规范基准:ImageNet 0-Shot和10-Shot 分类以及COCO图像到文本和文本到图像的top-1检索。实验结果图1中可以看到,使用JEST或FlexiJEST方法的最明显优势就是效率提升。左图中,相比原有的SigLIP基线模型,JEST++可以在训练数据量减少13.1×的情况下达到相同准确率。即使考虑到额外引入的打分成本,也有近10×的FLOP效率提升(中图)。右图展现了JEST++/FlexiJEST++(绿色)与先前方法(灰色)的比较,相比CLIP、EVA-CLIP经典模型实现了计算成本和性能的双重提升。左图和中图的平均准确率由8个下游任务得出,右图性能由ImageNet和COCO基准测试得出产生可学习batch研究人员首先评估了JEST在选择可学习batch方面的效果。为了直观地理解这一方法,作者们先将可学习性矩阵进行可视化,即学习模型和参考模型之间,对batch中所有示例对的损失差异。JEST就是按照示例子矩阵的可学习性总和比例进行采样。由于矩阵明显非对角关系(图2,左),独立选择显然是次优的。经过少量迭代(对应于用N=16个块填充batch),作者发现子batch的可学习性快速增加,达到了需要数千次迭代的暴力吉布斯采样(Gibbs sampling )所提取batch的可学习性(图2,中)。对于0.5、0.8和0.9的过滤比例,他们从大小分别为65,536、163,840和327,680的超级batch中选择32,768个示例的子batch。在图2右侧,研究者还发现子batch的可学习性随着更大的过滤比例而增加。总之,JEST算法是在训练过程中选择高度可学习batch的有效,且高效的方法。加速多模态学习接下来,研究人员使用JEST算法选择的可学习batch,检验训练模型的效果。所有实验都使用在WebLI-curated上训练的参考模型,这是一个ViT-B/16和Bert-B图像-文本双编码器,30亿训练样本,采用sigmoid对比损失函数。图3(左)显示了在训练过程中多个下游任务(ImageNet 0-Shot/10-Shot准确率和COCO图像到文本/文本到图像检索)的平均性能。结果还发现,JEST显著加速了学习过程。在使用50%、80%和90%的过滤比例时,分别只需20亿、10亿和6.7亿训练样本就达到了30亿均匀基准的最终性能。在更大的过滤比例下,坐着观察到类似于更大batch size时的训练不稳定性,需要修改Adam优化器(β2 = 0.95)以稳定训练,这表明JEST的数据筛选可以被视为增加了有效batch size。在最终性能方面,当过滤90%的数据时,JEST也带来了高达6%的显著提升(图3,中间,蓝色曲线)。值得注意的是,这种scaling行为这种性能提升在独立样本选择方法中,并没有观察到。(图3,中间,橙色曲线)。最后,研究者还评估JEST是否也改善了,除可学习性之外的其他优先标准。图3右侧显示了使用easy-reference优先选择的模型在不同过滤比例下的性能。与基于可学习性的优先选择一致,JEST仍优于独立样本选择,特别是在高过滤比例下(在这种情况下,独立样本选择导致性能下降)。优先选择具有最高损失的数据产生了较小的收益,并且随着过滤更多数据而更快地退化(图10)。由于基于可学习性的JEST产生了最佳的scaling行为,研究人员在后续实验中保留了这一标准。多分辨率训练和在线batch选择之间的协同效应随着数据batch中被过滤的比例增加,基于可学习性评分的JEST变得更加高效。然而,评分的成本会带来显著的提升:过滤超级batch 80%的数据会导致每次迭代的浮点运算量是IID训练的4倍,或者在缓存参考模型得分时是2.3倍。尽管JEST在训练迭代次数方面(以下简称“训练效率”)显著提高了效率,但额外的评分浮点运算降低了其相对于IID基准的计算效率(图1,左vs右)。因此,作者还研究了一种计算效率更高的变体,称为Flexi-JEST,它使用多分辨率训练和低分辨率评分,将总开销降低到仅比基准高10%(图4,左)。这些近似方法对性能有什么影响?正如预期的那样,Flexi-JEST的每次迭代性能相对于JEST有所下降,但仍然比IID有显著的加速(图1,左;图4,中)。然而,考虑到总浮点运算量的减少,每次迭代性能的下降是非常有利的:最好的Flexi-JEST模型与40B Siglip运行产生相同的平均性能,但浮点运算量减少了9.9倍,比全分辨率JEST少2倍(图1,右;图4,中)。这些实验表明了多分辨率训练和联合示例选择之间的协同效应,前者为加速后者提供了高效和准确的评分能力。实验结果,还指出了数据策划策略的帕累托前沿(pareto front)。如果以计算为代价来最大化训练速度或训练效率,全分辨率JEST方法相对于可比的IID训练运行,可以产生高达13倍的加速。实现强大数据质量引导可学习性评分的核心是,一个在人类选择的小型、精心筛选的数据集上,训练的参考模型。JEST的性能如何随不同的筛选策略(在质量和数量之间权衡)而变化?此外,JEST训练的改进是否与参考模型的性能相关,还是这些指标是分离的?理解质量与数量的权衡研究人员探索了三种规模的数据筛选,每种都是原始WebLI数据集的一个子集:- 弱筛选(十亿级规模):使用图像-文本对齐(ITA)过滤器。- 中度筛选(3亿级规模):使用ITA过滤器或文本质量(TQ)过滤器。- 强筛选(1亿级规模):结合使用TQ、ITA和额外的图像质量(aesthetic)过滤器。在整个过程中,作者将这个强筛选子集称为“WebLI-curated”。然后,他们在这四个WebLI子集上,各训练10个epoch的标准SigLIP编码器,并将它们用作在全WebLI数据集上进行JEST训练的参考模型。在不同的数据筛选方法中,参考模型的性能和JEST的性能似乎是解耦的(甚至可能是反相关的;图5,左)。虽然增加筛选(和减少数据集大小)会产生较弱的模型,但当它们被用作JEST预训练的参考模型时,却产生了相反的效果:使用强筛选参考模型的JEST获得了2.7%的改进,中度筛选获得了1.5%的改进,弱筛选获得了0.3%的改进。扩展数据筛选假设参考模型性能与JEST性能之间的普遍解耦,可能仅仅是由数据筛选所施加的数据集大小限制造成的。为了理解这种效果,研究人员在WebLI-curated上训练了5个参考模型,同时改变所见的总样本数(从2.5亿到30亿)。在这种情况下,图5(右)显示了改进的参考模型与更好的JEST预训练之间存在着显著的相关性。这表明“解耦”现象主要可以归因于参考模型因筛选后数据集大小减少而导致的饱和。此外,研究人员还注意到,当数据集达到饱和时,图5(右)中的相关性开始崩解,即在10个epoch或者看到10亿个样本之后。这些结果表明,JEST可能会从进一步扩大参考数据集的数据筛选中获益。鉴于使用WebLI-curated++对数据进行扩展整理能显著提高参考模型的性能,作者提出了是否有必要在原始WebLI数据集上进行预训练的问题。然而,在评估参考模型在不同数据集上的性能时,却发现:虽然它在2个下游任务上的性能优于WebLI预训练,但在其他6个任务上的性能,以及平均性能都明显低于WebLI预训练(表 5)。与现有数据比较最后,论文应用JEST++在公开的LAION-2B数据集上进行预训练,删除了其中不安全的图像-文本对,但没有进行其他的预先过滤。这个数据规模相比的SOTA方法DBP减少了4×,但JEST++依旧远远超过了所有之前的离线数据管理方法。简化数据管理之前提到过,用于预训练的WebLI-curated是原始数据集WebLI过滤后得到的,以求筛选出高质量的图像-文本对齐的数据。如表3所示,这种离线数据管理流程对IID(独立同分布)训练方法的性能至关重要,但JEST++则表现出了对预过滤流程的鲁棒性。即使没有过滤,JEST++的性能也没有出现明显下滑,降低了模型对基础数据集的要求。结论和局限性总体来说,JEST方法展现出了“数据质量引导”(data quality bootstrapping)方法的巨大潜力,即使用小规模精选数据集来指导对更大的、未经管理的数据集的学习。最近的研究表明,在下游任务未知时,静态数据集的过滤会限制模型性能。这篇论文的结果则表明,相比单独选择样本的方法,在线构建batch能提高预训练的效率。无论是使用JEST参考模型对数据集进行预评分,还是通过可学习性评分来根据模型需求进行动态调整,都可以成为通用基础数据集的更有效率的替代方案。论文的最后,作者也提出了该方法的局限性。虽然JEST同时实现了性能增益和训练成本降低,但依旧依赖于小型、精心管理的参考数据集,它指定了未经管理的更大数据集中优先考虑的分布。因此,未来的工作可以探索一种方法,从指定的下游任务中如何推断出参考数据集的组成和分布。 原文:https://m.cnbeta.com.tw/view/1437383.htm

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

《辐射》最早规划一千个避难所 但实际上远远不到

摘要:资深程序员和RPG设计师Tim Cain发布了一个新视频,揭示了他和他的团队最初为《辐射》避难所计划的一些背景故事。Interplay的团队构思了美国有1000个避難所的宏伟计划,但Cain随后探讨了其中的一些游戏内和现实生活中的后勤问题,不过他也强调了这只是他的一些想法:“这只是我个人的谈论-不是官方设定!” 首先,1000这个数字只是一个美观上的选择。Cain说:“Leonard(《辐射》首席美术师)在设计避难所服饰时问我需要预留多少位数来显示编号。当时我想,嗯,干脆说个圆整的数字吧,就1000吧。”“我是一个程序员,我从0开始计数,三位数。”然后,关于存在一个“0号避难所”的想法变成了Cain之前分享过的《辐射》世界观的一个细节:这个避难所的实验是为了准备长途星际旅行。Cain还顺便透露了另一个《辐射》世界观的基石源于风格上的考量:废土残酷无情的美国被划分成13个“联邦国”,这完全是因为辐射的美工团队为游戏设计了一面13星的美国国旗。“据Leonard所说,[《辐射》美术团队]只是觉得这样看起来很酷。”但是,即使美国有1000个避难所,Vault-Tec公司也无法拯救那么多人,Cain估计最多只能拯救美国人口的“千分之一”。“如果每个避难所都容纳1000人左右,那么Vault-Tec的避难所总共只能容纳100万人,这远低于我们想象的人口数量。”另外,虽然这些游戏肯定使用了艺术创作自由和模糊的比例,但每个避难所容纳一千人吗?我记得《辐射3》中的101号避难所里只有十几个人。他们都来参加了我的生日派对。无论如何,Cain甚至不认为1000个避难所的最理想情况是可能存在的,看看游戏中避难所的密度就知道了。《辐射》前两部向我们展示了整个加州,理论上两款游戏之间至少应该有20个避难所。Cain说:“《辐射1》和《辐射2》加起来,只有大约4到6个明确定义的避难所。这还是算上了那些没有编号的避难所,比如哈罗德的避难所。”虽然电视剧又为加州添加了4个避难所,但这仍然只占人口稠密州应有数量的一半,其他游戏在避难所密度方面也并没有好多少。不过,Cain认为在游戏世界里可能存在一个合理的解释:“结论是Vault-Tec公司:他们并没有建造全部1000个避难所,甚至都没有接近这个目标。”Cain说:“Vault-Tec公司建造的避难所数量不到一半,甚至可能远少于他们应该建造的數量。”他将该公司比作现实生活中某些承包商,总是低价中标,然后偷工减料,在《辐射》悲观的平行宇宙里,这种情况只会更糟。Cain总结道:“我认为肯定远少于1000个。” 原文:https://m.cnbeta.com.tw/view/1437384.htm

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

日媒天才漫画家票选排行 尾田超越鸟山明排第二

摘要:日本有着众多的漫画大家,在世界享有盛誉的也不在少数,日前日媒再次发起了天才漫画家票选排行,尾田超越鸟山明排第二,第一位不容置疑。 日媒天才漫画家票选排行TOP5:第五名:青山刚昌。支持率5.7%。柯南永远长不大,青山老师的杀人局就永不完结。第四名:藤子F不二雄。支持率6.7%。蓝胖子永远都是我们的挚爱。第三名:鸟山明。支持率9.3%。大师的地位和水准世界称道。第二名:尾田荣一郎。支持率11.4%。海贼王终于快完结了。第一名:手冢治虫。支持率21.8%。漫画之神不容置疑。 原文:https://m.cnbeta.com.tw/view/1437385.htm

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

《神偷奶爸4》还会有续集 不排除会让奶爸变老

摘要:《神偷奶爸4》的导演克里斯·雷纳德分享了一些关于他们在这部系列电影中关于未来的一些想法。自从2010年第一部上映以来,格鲁和小黄人的系列电影已经发展得如此庞大,以至于人们很容易记不清总共有多少部电影。《神偷奶爸4》已经登陆院线,这是格鲁的第四部电影,同时也是整个系列的第六部。 尽管已经上映了这么多电影,格鲁和小黄人仍然是照明娱乐的摇钱树,而该系列的负责人似乎对这个宇宙所能带来的持续发展持乐观态度。克里斯·雷纳德曾表示,为了这部电影,他们采用了类似于《辛普森一家》的做法,无论过去多少年,角色都不会变老,但是以后的话,时间可能会发生变化。雷纳德解释道:“我们现在在这个世界里已经有太多角色了,所以需要再一次做出决定。如果你在一部特定的电影里让他们变老,那就更会让人产生疑问,他们的生活到底发生了什么。”“但我并不认为这会阻止我们拍一部新电影。比如,在未来20年,伊迪丝继承了爸爸的反派事业,或者其他什么。我认为我们可以尝试各种创意。”目前尚不清楚该系列未来的续集将走向何方,但毫无疑问的是,我们还将看到续集。《神偷奶爸4》已经在7月3日登陆北美地区,并将于7月12日在中国内地院线上映,格鲁的家庭增添了新成员——婴儿格鲁二世,而格鲁的三个女儿还将再次登场。 原文:https://m.cnbeta.com.tw/view/1437382.htm

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

东航就“备降甩客”事件书面道歉:将吸取教训 改进服务工作

摘要:7月4日,中国东方航空FM9273航班发生了一起“备降甩客”事件,导致几位乘客在航班备降后未能重新登机,此事一度登上热搜。随后东航在微博评论区进行官方回复及道歉,但事件相关当事人对于官方的微博回应不满,认为道歉不够正式和诚恳。 7月7日下午,事件当事人之一,微博博主春卷表示,已收到来自“中国东方航空公司服务管理部”的书面道歉函,东航在该书面道歉函中表示:首先,请允许我们向您致以最诚挚的歉意。由于我们工作上的疏忽,给您带来了极大的不便和困扰,对此我们深感愧疚。7月4日您搭乘的东航旗下上海航空有限公司FM9273上海浦东-西宁航班因天气原因备降兰州机场。航班备降后,我公司机组人员和地面工作人员严格按照安全和服务程序组织旅客下机休息,并进行了安全清舱检查。再次组织登机过程中,因地面工作人员疏忽,未及时通知在贵宾休息室的旅客,导致您漏乘该航班。虽然后续有安排包车等措施,但依然让您的本次行程体验不佳。我们将吸取教训,改进服务工作,并请您继续监督,提出宝贵的意见和建议。我们衷心希望得到您的谅解,并希望您继续选乘中国东方航空公司班机。据微博博主春卷在其自媒体账号所述,相比7月5日晚微博上的那两条简单回复,这份道歉函对于事件的回顾更加详细、道歉态度更加诚恳,同时也附上了东航对于改进工作流程,提升服务质量的承诺。另外,东航方面也对博主和其他三位客人做出了与客票价格相应的赔付。对于以上道歉,他表示愿意接受。 原文:https://m.cnbeta.com.tw/view/1437381.htm

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

普林斯顿科学家开发出夏季为建筑物降温、冬季为建筑物供暖的被动机制

摘要:研究人员设计了一种被动热调节机制,使用普通材料选择性地管理辐射热,提供了一种可持续的方式来显著提高建筑物的能源效率和舒适度。普林斯顿大学和加州大学洛杉矶分校的工程师开发了一种被动机制,可以在夏天给建筑物降温,在冬天给建筑物供暖。 普林斯顿大学和加州大学洛杉矶分校的研究人员发明了一种新的被动气候控制技术,该技术使用工程涂层来管理特定波长的热传递,有可能大幅节省能源并提高建筑物的舒适度,尤其是在较不富裕的地区。热图像显示了建筑物散发的热量。图片来源:Mandal 等人/普林斯顿大学在最近发表在《细胞报告物理科学》杂志上的一篇文章中,他们报告说,通过将建筑物与其环境之间的辐射热流限制在特定波长,由普通材料制成的涂层可以实现节能和热舒适度,这超出了传统建筑围护结构所能实现的水平。“随着全球气温的升高,维护适宜居住的建筑物已成为一项全球性挑战,”普林斯顿大学土木与环境工程助理教授、研究员 Jyotirmoy Mandal 说。 “建筑物以辐射的形式与周围环境交换大部分热量,通过调整其外壳的光学特性以利用辐射在环境中的行为方式,我们可以以新颖且有效的方式控制建筑物中的热量。”辐射热由电磁波携带,无处不在——当阳光温暖我们的皮肤,或者当电线圈加热房间时,我们都能感受到它。通过控制辐射热来调节建筑物温度是一种常见的做法。大多数建筑物使用窗帘遮挡阳光,许多建筑物将屋顶和墙壁漆成白色以反射阳光。“如果我们看看希腊圣托里尼岛或印度焦特布尔等历史名城,我们会发现通过使屋顶和墙壁反射阳光来冷却建筑物的做法已经持续了几个世纪,”加州大学洛杉矶分校材料科学与工程副教授、研究员 Aaswath Raman 表示。“近年来,人们对反射阳光的凉爽屋顶涂层产生了浓厚的兴趣。但冷却墙壁和窗户是一个更加微妙和复杂的挑战。”建筑物墙壁和屋顶的热图像。图片来源:Mandal 等人/普林斯顿大学屋顶通常可以看到天空。这使得凉爽的屋顶涂层可以反射阳光,并将长波热量辐射到天空,最终辐射到太空。另一方面,墙壁和窗户大多可以看到地面和邻近的建筑物。在炎热的天气里,它们被炎热的街道、人行道和附近建筑物散发的热量加热。这意味着,即使墙壁和窗户向天空散发热量,它们也会被地球加热得更多。在寒冷的天气里,陆地环境变得更冷,从墙壁和窗户中吸收热量。研究人员意识到解决这个问题的方法在于热量在建筑物和地面区域之间移动的方式与在建筑物和天空之间移动的方式不同。辐射热在红外光谱的狭窄部分(称为大气传输窗口)中从建筑物移动到天空,因此研究人员称之为窄带。在地面,辐射热在整个红外光谱中移动,研究人员称之为宽带。“通过在墙壁和窗户上涂上只在大气窗口辐射或吸收热量的材料,我们可以减少夏季地面的宽带热量增加和冬季的损失,同时保持天空的冷却效果。我们认为这个想法是史无前例的,超出了传统屋顶和墙壁围护结构所能实现的范围。” Mandal 指出。该研究结果的影响意义重大,原因有两个。首先,研究人员在文章中表明,许多常见的低成本建筑材料在窄带中辐射热量并阻挡宽带热量。已经用作壁板材料的聚氟乙烯等材料可以适应这一目的,甚至更常见的塑料也可以适应这一目的。“当我们发现像聚丙烯这样的材料(我们从家用塑料中获取)在大气窗口中选择性地辐射或吸收热量时,我们很兴奋,” Raman 指出。“这些材料近乎平凡,但同样的可扩展性使它们变得常见,这也意味着我们可以在不久的将来看到它们用于温度调节建筑物。”乐观的第二个原因是,其对建筑规模的潜在能源影响是巨大的。研究人员指出,采用他们的机制,季节性节能效果可与将深色屋顶涂成白色的效果相媲美。随着全球空调成本和与高温相关的伤亡人数继续飙升,这可能很有用。曼达尔和拉曼计划进一步继续这项研究。“我们提出的机制是完全被动的,这使得它成为一种可持续的方式,可以随着季节变化对建筑物进行冷却和加热,并产生尚未开发的能源节约。”曼达尔指出。“事实上,我们展示的机制和材料对全球南方建筑的好处最大。因此,这可能是资源匮乏社区更公平的解决方案,甚至更甚于他们看到冷却需求和与高温相关的死亡率不断增加。”编译自/scitechdaily 原文:https://m.cnbeta.com.tw/view/1437380.htm

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

Join kefu_004’s channel

Package

LV2($ 3.33/month)

Renew

10/23/2024

Total 3.33 FebCoins

Account balance

Recharge

Subscriptions can be cancelled at any time, and after cancellation, you will continue to have access to the content until the next billing cycle.

Send article

Everyone

Only Me

Everyone

Send CopyDone

Add File
FebBox
Other

Izumi Katsuyoshi

send message

Add File
FebBox

Photo Album

Jun 11,2021 13:33

Edit

View, comment and edit

View

Can view and comment, but not edit.

Comments

Block this user

Type a comment

0/400

After closing, the input will be lost

Are you sure you want to unsubscribe?

Speed 0.5 0.75 Normal 1.25 1.5 2.0

Time 15min 30min 60min

Voice

Microsoft Kangkang

Chinese (Simplified, PRC)

Chinese (Simplified, PRC)

Microsoft Kangkang

Microsoft Kangkang

Microsoft Kangkang

Microsoft Kangkang

Microsoft Kangkang

Exit Reading

Suspend