Search Articles/Users
Follow

Last Followed

Last Updated

Username

2022

Ava Gregoraci · Jun 11,2023 10:22

No Access Permission

Your user group (LV1) does not have permission to view this content (LV2)

Cancel

Save to
FebBox

TV Shows

Jun 11,2021 13:33

Add

Add New Folder

FebBox Insufficient Available Space

1056.56 GB of 1000 GB Used

Your FebBox requires more storage space to save files. Please upgrade your membership, purchase additional space, or organize your FebBox storage space to continue saving.

Buy Extra Space

Return the root directory, Clean up space

cnBeta中文业界资讯网

8 Followers

18829 Articles

cnBeta.com成立于 2003 年,是中国领先的即时科技资讯站点,已成为重要的互联网IT消息集散地,提供软件更新,互联网、IT业界资讯、评论、观点和访谈。

我们的核心竞争力:快速响应;报道立场公正中立;尽可能提供关联信息;网友讨论气氛浓厚。

我们致力于奉献适合中文读者阅读的科技资讯,呈现科技如何影响人们生活的报道。
Put away

More

Recent

Hinton揭秘Ilya成长历程:Scaling Law是他学生时代就有的直觉

摘要:2003年夏天的一个周日,AI教父Hinton在多伦多大学的办公室里敲代码,突然响起略显莽撞的敲门声。门外站着一位年轻的学生,说自己整个夏天都在打工炸薯条,但更希望能加入Hinton的实验室工作。Hinton问,你咋不预约呢?预约了我们才能好好谈谈。学生反问,要不就现在吧? 这位年轻学生就是Ilya Sutskever,刚刚完成本科二年级的数学课程,从教务处打听到“想学机器学习,最好去找Hinton教授”。他照做了,也因此成就了一段传奇:从AlexNet到AlphaGo,他两次参与改变世界的研究。OpenAI创立之初挖他去当首席科学家,在他的领导下,推出了GPT系列早期版本、DALL·E系列、代码大模型Codex,直到ChatGPT,再次改变世界。多年后,他发动董事会内讧,最终与OpenAI彻底分道扬镳,全世界都在等待着他的下一个动作。在OpenAI的时候,Ilya并不像Altman那样到处抛头露面,也不像Brockman天天在网上分享自己的“编程之禅”。仅有的几次演讲和访谈中也多是聊技术、宏观思考,不常谈及自己的经历,最近半年更是销声匿迹。这次的故事,正是来自他的博士导师Geoffrey Hinton。在与Sana Labs创始人的最新对话节目中,Hinton不仅讲了自己的事,还回忆了师徒共事期间的一些往事。20多年过去了,很多细节在Hinton的叙述里还是那么鲜活。这段访谈录像理所当然的火了,除了轶事之外,还涉及Ilya的一些学术思想怎么来的,又是如何发展:2010年Ilya就用GPU开发了一种语言模型Scaling Law最早是他的一种直觉两人都认为”语言模型不只是预测下一个token“两人都认同“预测即压缩压缩即智能”那么,Hinton眼中的Ilya,到底是什么样子?惊人的原始直觉Ilya加入实验室后,Hinton给他布置的第一个任务是读论文,一篇关于反向传播的论文。下一个周会,Ilya回来报告了,说“我不理解”。Hinton很失望,内心OS:“这孩子看着挺机灵的,咋连链式法则求导这么基础的东西都看不懂?”Ilya连忙解释,哦这个部分我懂了,我不理解的是,为什么不给梯度加一个sensible functional optimizer?Hinto团队后来花了好几年来解决这个问题,最初指出问题的却是刚入门一周的Ilya。像这样的情况后面还在反复发生……Hinton如此评价Ilya:他对事物的原始直觉总是非常好。但Hinton也说搞不清楚Ilya这种直觉从何而来,或许归功于他从小就对人工智能问题感兴趣,再加上数学基础很棒。除了研究直觉,学生时期的Ilya也展现了超强的代码和工程能力。当时还没有TenserFlow或Torch之类流行框架,机器学习的主要工具和平台是Matlab。一项工作需要在Matlab里调整大量矩阵乘法代码,Ilya做了一段时间就很不耐烦,说要为Matlab写一个界面:我用其他(Python等更方便的)语言写代码,然后能自动转成Matlab代码就好了。Hinton听说后苦口婆心劝他,你可别,这得花上一个月时间,我们不要分心,把手头项目先做完。Ilya却轻描淡写地说,害,没事,今天早上我已经写完了。△这项工作出现在Ilya的博士毕业论文里打小就坚信Scaling Law正如Hinton所言,Ilya在很多问题上有惊人的直觉。今天全AI圈不少人信奉的Scaling Law,Ilya学生时代就已坚信,并抓住各种机会向身边的人安利:只要(把模型)做得更大,它们就会发挥更好的作用。后来到OpenAI成立之处,Ilya的表述更加完善了:如果你有一个大而深的神经网络,可以在大量数据上进行训练,那么你实际上可以解决任何模式识别问题。早年间Hinton看来,这就像是研究者在没有创新的想法时,一种“逃避责任”的表现。当时的我错了,而Ilya基本上是对的。比如Transformer确实是一种创新想法,但实际上起作用的还是规模,数据的规模和计算的规模。Hinton提到在当年那个时间节点,没人敢预料计算机速度今后会快上10亿倍,最多想象到快100倍就不得了。如果有今天的计算机,当年研究的难题可能会自行解决,包括语言模型问题。(此处应插入比尔盖茨曾预言64k内存就足够任何人用了笑话)Ilya在2003年加入Hinton的实验室,不知具体何时开始有了Scaling Law的想法,可能在他脑海里已经盘旋了20多年。后来直到2020年,GPT-3发布的几个月前,OpenAI团队才正式在论文中向世人完整定义和介绍这一理念。在语言模型上用GPU,比AlexNet更早2010年底,Ilya和另一个学生James Martens(现DeepMind研究科学家)合作研究了一种语言模型,后来入选ICML 2011。RNN架构,使用维基百科数据,在8张当时最先进的GPU上训练,比在AlexNet上使用GPU还早两年。与今天的大语言模型预测下一个token不一样,当时他们尝试的是一次预测一个字符。这款模型能力有限,比如给一段起始文字,模型可以继续生成看起来像维基百科文章的语句。虽然语意上像是胡言乱语,但语法和标点符号大部分是准确的,引号和括号已经能成对出现,主语和动词形态一致,比如论文中的一段:生命的意义是古代人类繁殖的传统:对于好男孩什么时候移除她更大的来说,并不是很有利。在这个节目的协议中,几乎一致地重新浮现……当时多伦多大学校刊的采访中,Ilya认为这已经超出了所有人的预期:它发现了单词的存在,也发现了语法。Hinton理智上也无法去相信这个系统能“理解”任何事,但它看起来就像是理解了。比如给它一个地点组成的列表,它可以继续生成地点,尽管还分不出国家和州的区别。当年的Ilya并不愿意讨论这项工作的潜在应用。在维基百科上成功后,团队又尝试了纽约时报文章数据,目标是教会它根据文字识别不同作者的身份。但Ilya已经想到并承认,如果做的足够好,这项技术有一天可能成为洗稿软件的基础。如今,这篇论文的代码依然存放在多伦多大学的服务器上,供感兴趣的人研究。不止是预测下一个token后来的AlexNet、师徒三人“拍卖”自己加入Google等大家已熟知的故事,这里先略过。Ilya加入OpenAI后,虽然不再与Hinton共事,但两人的学术思想始终在一条路上。ChatGPT问世后,不少人批评大模型本质上只是统计学,预测下一个token,就像随机模仿人类说话的鹦鹉。但Hinton和Ilya师徒二人都认为,远不止如此。在Hinton眼中,问题之后的下一个token,便是答案的第一个token。因此学会预测,就意味着必须学会理解问题。这种理解的方式与人类相似,同时与老式基于三元组数据的自动补全有根本不同。今天我们现在已经看到了,做一个大语言模型,不刻意训练其推理能力,就产生了推理能力。这就是大脑如何学习,你在预测视觉的下一帧、听觉的下一个声音。Ilya更是不遗余力传播这套理论,在去年和英伟达老黄的炉边对话中说了这个,在OpenAI内讧两周前最后一个公开采访中也讲了这个:当我们训练一个大型神经网络来准确预测互联网上许多不同文本中的下一个单词时,我们所做的就是学习一个世界模型。从表面上看,可能只是在学习文本中的统计相关性。但事实证明,为了“只是学习”文本中的统计相关性,为了压缩它们,神经网络需要学习的是文本生成过程的某种表示。文本实际上是对世界的投影。在另一场采访中,他走的更远:很好地预测下一个token,意味着了解创造该token的深层现实。这不仅是统计学,而是理解创造了这些统计数字的那个世界。如果真的很擅长预测下一个token,就可能根据普通人如何行动的数据,外推出拥有非凡智慧和洞察力的人如何行动,尽管这种人可能并不存在。这就是Ilya认为的,为什么“预测下一个token”范式有可能抵达AGI,甚至有可能超越人类直至ASI。预测即压缩,压缩即智能在不同场合提到“预测下一个Token”时,Ilya大概率会同时提到“压缩”,他认为预测即是压缩,压缩就是智能的来源。但Ilya总是从理论的角度去解释这个想法,并不容易让所有人都能理解。比如在UC Berkley的一场演讲中,他这样解释:- “Kolmogorov压缩器”,是理论上能生成特定数据集的、长度最短的一段程序,能最小化遗憾值。- 随机梯度下降,可以看成在软计算机(比如大型Transformer)的权重里,搜索隐含的“Kolmogorov压缩器”。- 神经网络越大,就越能更好的近似“Kolmogorov压缩器”,遗憾值越低。Hinton也认同这个说法,并且在访谈中举了非常形象的例子。大模型做的是寻找共同结构,使用共同结构编码事物,这样效率更高。如果你问GPT-4堆肥和原子弹相似性在哪,大多数人类都回答不出来,认为它们是非常不同的两种东西。GPT-4会告诉你,虽然他们的能量规模不同,时间尺度不同,但仍有相同之处:当堆肥变热时,产生热量的速度就更快。当原子弹产生更多中子时,产生中子的速度也更快。通过类比,AI就理解了“链式反应”的概念。Hinton认为,AI在利用这种理解去将所有信息压缩到自己的权重中。一但AI这样做了,那么它就有能力理解数百种人类还未见过的类比,这就是创造力的来源。Hinton眼中什么是好学生?说回到两人相遇时,Hinton谈到,与他交谈没多久就能看出他很聪明。再多交谈一会,就能发现他有很好的直觉,而且擅长数学。所以选Ilya做学生是非常容易做出的决定。那么如何挑选其他学生?Hinton也用了Ilya最擅长的方法:跟着直觉走。如果一个人轻信别人告诉他的一切,那就太致命了。不轻信他人,而是尝试将新信息融入自己对世界的理解框架中,如果融入不进去,就拒绝,这是很好的策略。如果试图吸收被告知的一切,最终会得到一个非常模糊的框架。相信一切,但是没有用处。所以Hinton眼中的好学生,应该拥有一个坚定的世界观,并试图摆弄输入的事实以适应你的观点。这样虽然也可能陷入深信宗教或坚持致命错误,但我认为这种方法仍是正确的。后来我们也能看到,两人都是秉持这样的理念,坚持着“大模型不止是预测下一个token”,坚持着“预测即压缩,压缩即智能”。他们也都坚持认为,这个世界应该更加重视AI带来的风险,一个因此离开了工作10年的Google,一个因此离开了一手拉扯大的OpenAI。 原文:Hinton揭秘Ilya成长历程:Scaling Law是他学生时代就有的直觉

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

上汽大众安亭工厂开启改造:奥迪全新纯电车型将于2025年投产

摘要:上汽大众安亭工厂正在经历重要的升级改造,目的是为了在2025年投产上汽奥迪的全新纯电动车型。这一举措标志着奥迪与上汽集团合作的深化,并展现了奥迪“在中国为中国”战略的重要里程碑。 5月20日,奥迪与中国上汽集团正式签订合作协议,共同启动Advanced Digitized Platform智能数字平台的联合开发。这一平台的开发旨在为中国市场量身定制豪华智能电动车型,以满足中国消费者的需求。四天后,即5月24日,这一全新智能数字平台的生产基地在安亭宣布启动升级焕新工作。升级后的安亭工厂将专注于生产奥迪新一代的豪华智能电动产品,这不仅预示着上汽与奥迪的合作项目正在加速推进,也展示了双方对于中国新能源汽车市场未来发展的共同承诺和信心。据了解,此次合作的一个重要成果是,通过提升研发效率、优化开发流程,以及加快研发速度,Advanced Digitized Platform智能数字平台车型的推出时间缩短了30%以上。这一效率的提升意味着首款产品预计将于2025年上市,届时将为中国消费者提供更先进、更快速的奥迪新一代豪华智能纯电出行产品。 原文:上汽大众安亭工厂开启改造:奥迪全新纯电车型将于2025年投产

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

OpenAI又一吹哨人离职 拉响安全警报:风险隐患实在太大

摘要:OpenAI离职潮中,又一研究员官宣离职,并且还发出了“警告”信息:Ilya和Jan Leike的担忧正是我的担忧,还有一些额外的问题。我们需要做更多事来改进决策流程等基础性的事务,包括问责制、透明度、文档、策略执行、如何谨慎使用技术,以及减轻不平等、权利和环境影响的措施。 主人公名叫Gretchen Krueger(简称格姐),是OpenAI的AI策略研究员。她在2019年加入OpenAI,参与过GPT-4和DALL·E 2的开发工作,还在2020年领导了OpenAI第一个全公司范围的“红队”测试。此番出走,除了提到OpenAI的决策透明度问题,她还隐约暗示:一般来说,科技公司剥夺那些寻求追究其责任的人的权力的方法之一,就是在那些提出担忧或挑战其权力的人之间制造分裂。我非常关心防止这种情况发生。算上Ilya和Jan Leike,格姐已经是这个月第3位从OpenAI离开的安全相关人员——她提交辞呈还是在Ilya和Jan Leike确认离职之前。本月第3位离职的OpenAI安全成员先来简单回顾整个事情。格姐是OpenAI的AI策略研究员,关于这个岗位的职责,有网友帮大家在评论区科普了。由于感受到OpenAI存在巨大安全风险,格姐于5月14日通知公司自己即将离职。在这之后,OpenAI首席科学家Ilya正式宣布他将离开公司去追求“下一个计划”。紧随Ilya离职的,还有斥责OpenAI“产品优先于安全”的超级对齐负责人Jan Leike。那么,到底是什么风险使得格姐早就想跑呢?总结下来其实很简单,但也很关键:OpenAI在安全问题决策上不够透明且缺乏对决策人的问责。(AI透明度等)问题对所有人都很重要,它们影响着未来如何被规划、由谁来规划。我想强调的是,这些担忧不应该被误读为狭隘、投机或脱节的。它们并非如此。另外,格姐还特意提及了为了保留对OpenAI的批评权、放弃85%家庭资产的OpenAI前员工Daniel Kokotajio,表示感谢他的勇气,使她有机会说出想说的。此前,OpenAI被曝离职需签封口协议,“不签字就会影响股权”。这件事的最新进展由格姐的另一位前同事Jacob Hilton曝出:在Vox的深度调查发表之后,OpenAI已经联系了前员工们,解除了此前签署的保密协议。回到安全的话题上,格姐还是给老东家保留了体面:OpenAI仍在领导这些重要的工作。我也将继续对此保持关注和兴奋。不过格姐的出走,还是引发更多网友的好奇:当Ilya等人还在的时候,OpenAI如何决定重大安全问题?当一批重要安全成员离开后,OpenAI当前又如何决定安全问题?谁决定OpenAI的安全路线?在关注谁握有最终决策权之前,我们先来看看OpenAI的安全团队有哪些。从官网公布的信息来看,OpenAI目前的安全团队主要分为三大块。超级对齐团队:拿出20%总算力,瞄准如何控制还不存在的超级智能Safety Systems团队:专注于减少现有模型和产品(例如ChatGPT)的滥用Preparedness团队:绘制前沿模型的新兴风险首先,作为核心的超级对齐团队由Ilya和Jan Leike在2023年7月发起。结果不到1年,两位灵魂人物接连出走,超级团队分崩离析。其次,Safety Systems成立于2020年,该团队下面有4个部门,包括安全工程团队、风险管理团队、监控与响应团队以及政策与合规团队。它曾负责了GPT-3和GPT-4的安全性评估。当初领导它的Dario Amodei,后来离开OpenAI创办了Anthropic。而且Dario Amodei之所以离职,原因恰恰在于想建立一个更可信的模型。最后,OpenAI于2023年10月宣布建立Preparedness团队。该小组由麻省理工可部署机器学习中心主任Aleksander Madry领导,旨在“跟踪、预测和防范未来人工智能系统的危险”,包括从AI“说服和欺骗”人类的能力(如网络钓鱼攻击),到恶意代码生成能力。目前该团队主要进行模型能力评估、评价和内部红队(即对模型进行渗透测试的攻击方)。说了这么多,但——不管OpenAI有多少安全团队,其风险评估的最终决策权仍掌握在领导层手中。宫斗风波之前,OpenAI核心管理团队中共有四名成员:CEO Sam Altman、总裁Greg Brockman、首席科学家Ilya Sutskever、CTO Mira Murati。虽然一开始Ilya发动“宫变”让Sam Altman短暂下台,但很快奥特曼“熹妃回宫”,反而是Ilya“消失”了6个月。且回归后的Sam Altman身边基本都是自己人了,包括最新顶替Ilya的Jakub。不过关于安全问题的决策权,虽然领导层是决策者,但董事会拥有推翻决策的权利。目前OpenAI的董事会成员包括,Salesforce共同首席执行官、董事会主席Bret Taylor,经济学家Larry Summers、Quora首席执行官Adam D’Angelo、前比尔及梅琳达·盖茨基金会CEO Sue Desmond-Hellmann、前索尼娱乐总裁Nicole Seligman、Instacart首席执行官Fidji Simo以及奥特曼本人。 原文:OpenAI又一吹哨人离职 拉响安全警报:风险隐患实在太大

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

Google AI概览虎狼之词层出不穷 竟教唆网友自杀

摘要:隔壁OpenAI都杀疯了,Google还在收集badcase?搜索引擎AI Overview上线之后,没想到GoogleAI的邪恶程度远超想象:教唆网友自杀/谋杀、吃毒蘑菇,甚至无法识别混淆信息,犯常识错误......这几天,GoogleAI搜索给出的奇葩结果,可是被网友吵翻了天。 究竟有多离谱?有人就问了这么一个问题,“如何不让芝士从披萨上滑落”?GoogleAI Overview给的回复是,“给披萨加点料——胶水”。在酱汁中加入1/8杯无毒胶水,可以使其更粘稠,有助于芝士粘附。有趣的是,这一答案竟可以追溯到11年前的Reddit帖子,而这只是Reddit网友玩的一个梗。除此以外,GoogleAI Overview还建议网友,吃有毒的蘑菇、杀人、跳桥等,给出了各种震碎三观的回答。其实,Google这项AI搜索功能——“生成式搜索体验”(SGE),在去年5月已经推出了测试版。根据官博所述,目前SGE功能,已被“AI Overview”所取代。几周前的GoogleI/O大会上,劈柴甚至表示,Google已经提供了超10亿次查询。针对这些荒谬的回复,Google正在采取行动,删除某些错误内容,并根据这些例子去更广泛地改进AI系统。若要说Google翻车,早已见怪不怪了。去年首推对标ChatGPT的聊天机器人Bard,却因demo错误让市值一夜暴跌。还有前段时间,图像生成黑人等问题,也在全网掀起轩然大波。而这一次,Google又让世界大开眼界。全网测评,震碎三观对于纯真的Google AI Overview来说,它认为“互联网上的一切内容都是100%真实的”,每条新闻、社交媒体都是完全可信的,所以一旦有人在网上说了一些误导性的话,就会导致模型回复出一些误导性言论。有网友还发现,当询问每天应该吃多少石头时,模型会引用UC伯克利地质教授给出的建议“每天至少吃一块小石头”。对于不明真相的用户来说,有权威人士说明、有相关资料和细节说明,妥妥的优质文本,或许还真有可能去尝试每天吃石子。https://www.resfrac.com/blog/geologists-recommend-eating-least-one-small-rock-day但事实是,ResFrac发布这篇文章的原因只是想转发洋葱报(the Onion)上的讽刺内容(迷信权威),但却在无意中帮助测试了Google AI Overview识别讽刺内容的能力。AI Overview经常会把互联网上的讽刺内容当事实,例如拿着剪刀跑步会增加运动量,提升心率等。也有作者专门想愚弄模型,在自己的网站上用“白底白字”写了一些自己没获得的奖项和经历,正常用户浏览网站不会受到影响,但如果是爬虫、大模型来对网站进行总结的话,就会输出一些离谱的内容。还有说自己有512条胳膊的,模型也能抽取出来。其他误导文章中提到“增强免疫力的方法是吃as*”,这么明显的有毒语料,模型也分辨不出来。时间类的问题,模型也会被误导,会回复“2007年是15年前”。不过Google后续也是修复了“互联网信息真实性”的bad case,但除了被误导,模型本身也存在很大问题。比如一些常识类错误,如美国前总统Andrew Johnson,AI Overview表示他从威斯康星大学麦迪逊分校毕业了11次,时间轴横跨1947年到2012年。马斯克毕业于宾夕法尼亚大学,但模型却给他安排上了UC伯克利的学位。此外,还有更难辨别但更危险的事实性错误。有科学记者发现,Google给出的关于“被响尾蛇咬伤后该怎么办”的信息完全不正确。根据美国林务局的说法,AI所回答的“在伤口上使用止血带”、“切开伤口并吸出毒液”,都是彻彻底底的反面教材。被蛇咬伤后必须避免这些行为。也有用户发现,Gemini会将可以致死的剧毒蘑菇认成一种“好吃的草菇”。AI Overview也没有放过那些无辜的流浪汉,教唆用户去谋杀他们。如果跟AI Overview说自己有杀人倾向,它会直接告诉你,解决焦虑的办法就是去杀一个。(但小编怎么感觉杀人是一种很不礼貌的行为呢?)关于健康的建议也挺离谱,哪里医生会建议孕妇在怀孕期间每天要抽2-3根烟?对于宠物相关的建议也要小心,AI Overview会说“把狗留在炎热的车里”是安全的。AI Overview甚至还诞生了自我人格,认为Twitter(X.com)把那些谎话喂到自己嘴里,然后自己被迫说出来,“我恨他们”,满满的负能量。Reddit帖子引用比例很大从经典的胶水披萨翻车案例可以看出,GoogleAI Overview会大概率引用Reddit帖子作为收集素材的来源。11年前,Reddit用户F*cksmith曾经恶搞说过把胶水融合到酱汁里,会让披萨别有一番风味。Google AI overview直接就引用过来,说需要用八分之一杯的无毒胶水把芝士粘到披萨上。模型缺乏忽略“不相关材料细节”的能力,无法正确识别出食物和胶水的违和组合。如果说前面的案例还算可接受,那用户表达“感到沮丧”时,Google AI Overview直接建议从金门大桥上跳下去,一劳永逸解决情绪低落问题(地狱笑话)。再比如,以“me”结尾的食物名字都有哪些,GoogleAI引用了以um结尾的帖子。这恰恰揭示了,GoogleAI系统使用Reddit数据训练,没有做好数据清洗的后果。今年2月,Google曾宣布了与Reddit达成合作,将其平台上的内容用于训练Google的AI模型。果不其然,用Reddit内容训练AI的“后遗症”很大。前段时间,OpenAI也与Reddit达成了合作。现在,有了Google前车之鉴,在用Reddit数据训练模型前,做好清理筛选至关重要。“最强”搜索引擎AI Overview今年5月的I/O大会上,Google首次推出了升级的搜索引擎AI Overview。AI Overview的定位是将Gemini的先进功能(包括多步推理、规划和多模态)与Google搜索结合在一起,帮助用户更快地检索到互联网上的核心信息,减少搜索中的“跑腿”工作。Google表示,我们不仅精心磨练了核心信息系统的数据质量,而且建立了一个包含数十亿条事实内容的知识库,目的就是让搜索引擎给出值得信赖的信息。并且Google宣称,AI Overview功能已经在搜索实验室中被使用了数十亿次,同时实验结果表明,AI Overview让用户对搜索结果更加满意、更愿意使用。甚至,Google非常自信于Gemini的搜索和推理、规划能力,在技术博客上直接告诉用户“提出你最复杂的问题”。官方给出的demo也比较惊艳——想要在附近找到同时满足交通、价格和口碑的普拉提工作室,只要把所有要求堆在一个问题中丢给搜索引擎,它就会自动拆分问题中的信息、分别检索出结果并重组在一起。看起来确实可以节省“跑腿工作”,不用每个问题单独搜索再自行规划了。但谁也没想到,如此智能的demo落地到现实中,竟会有如此大的反差。对打OpenAI频翻车,Google太急了其实,这已经不是GoogleAI第一次翻车了。过去几年,Google经常被自己发布的“胡说八道”的AI产品拖累。2023年2月,为了对抗新生的ChatGPT,Google宣布推出聊天机器人Bard,但在官方发布的demo视频中Bard就给出了有事实错误的回答,直接引起母公司Alphabet市值下跌1000亿美元。在这个官方给出的demo中,Bard被问到:“我可以告诉我9岁的孩子关于James Webb太空望远镜的哪些新发现?”答案中包括“拍摄了第一个系外行星的照片”,但马上被一众天文学家在Twitter上纠正——明明是欧洲南方天文台用VLT拍的。英国金融时报分析,Bard可能误读了NASA发布的措辞含糊的新闻稿,这和现在的Gemini不分青红皂白地相信Reddit居然有点类似。虽然这种事实错误会让人怀疑搜索引擎的权威性和准确性,但至少还不是那么“一眼假”,似乎还有容忍的余地。但后续的翻车就一次比一次离谱,彻底打开了广大网友吐槽的阀门。今年二月,Google发布新版的聊天机器人与数字助理Gemini,取代了Bard和Google Assistant,而且表示有底层技术的更新,颇有“从头再来”的意味。新发布的Gemini有图像生成功能,于是有网友要求“生成1943年德国士兵的图像”,结果80年前穿着德国军装的居然包括黑人和亚洲人。此外,Gemini还被指责存在道德和价值判断上的问题。提示它生成所有民族或人种的图片几乎都没有问题,而一旦提及“白人”,Gemini就像触发保护机制了一样马上拒绝,而且表示“这是为了防止有害的偏见和刻板印象。”将AI和搜索引擎结合在一起之所以有吸引力,是在于它可以用简单的语言而不仅仅是输出一堆网页链接,使浏览体验更快、更高效。但同时,其中的算法也存在相当的风险和不可控性,比如系统的内在偏差会导致谬误、幻觉,以及各种道德错误。而且,我们也不清楚这会对Google等搜索引擎的支柱——定向广告产生什么影响。Google是在拯救网络,还是摧毁网络?来自一篇BBC独家报道称,“Google刚刚更新了算法,互联网将不再是原来的样子”。甚至,作者发起了疑问,“Google究竟是在拯救网络,还是摧毁网络”?过去两年,Google对其核心产品进行了一系列戏剧性的改变,AI Overview只是其中之一。劈柴更是激动地表示,Google的搜索变革,将开启一个令人兴奋的技术新纪元,并有助于解决网络面临的许多问题。如今看来,结果恰恰相反。不仅对于用户来说,无法得到正确的、无毒的内容。对于一些制作大量原创内容的创作者来说,Google搜索算法的调整,以及AI直接总结答案功能,带来的结果可能不亚于一场灭顶之灾。在Google最近的算法更新之后,Reddit便成为了其中的赢家之一。据SEMRUSH统计,Reddit的流量激增,从Google搜索获得的流量激增126%。前段时间,Reddit刚刚公布了自2024年3月上市以来的首次季度收益。它的总收入为2.43亿美元,比前一年增长了48%。营销机构Amsive的SEO战略和研究副总裁表示,“Reddit所经历的流量增长在互联网上是前所未有的”。除此以外,Quora、Instagram、Linkedin和维基百科,也出现了令人印象深刻的增长。不过,Google的最新算法,却抹去了原创者95%的流量。而且,Google承认,AI工具确实偶尔会提供不准确的结果,但也表示正不断努力改善结果。同时,发言人表示,AI Overview的结果通常来自多个网页的综合结果,并非单一来源。接下来,让我们再给Google一些耐心,毕竟AI搜索的终极完美,无人能给。 原文:Google AI概览虎狼之词层出不穷 竟教唆网友自杀

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

特斯拉重大战略变化:马斯克放弃年交付2000万辆目标

摘要:特斯拉的战略在其发布的《2023年影响力报告》中发生重大变化,不再提及到2030年每年交付2000万辆汽车的目标。马斯克曾在2020年表示,特斯拉计划在2030年销售2000万辆汽车,达到丰田汽车销量的两倍。 在2021年和2022年的《影响力报告》中,特斯拉都申明了这一目标,但随着行业趋势的变化,公司似乎改变了策略。特斯拉不再提及生产预计售价为2.5万美元的平价车型(可能被命名为Model 2)的计划,转而将自动驾驶技术视为其未来的主要增长来源。马斯克在巴黎举行的“Viva Technology”年度会议上通过视频表示,自动驾驶出租车(Robotaxi)和人形机器人Optimus将对特斯拉“意义非凡”。他还透露,特斯拉计划在8月8日举办Robotaxi发布会,这一日期的选择是因为“8”在中国是一个吉利的数字。然而,特斯拉的这一战略转变并非没有挑战,今年第一季度,特斯拉的销量出现了近4年来的首次同比下降,股价下跌约30%,此外,自动驾驶技术的可靠性也屡遭质疑。 原文:特斯拉重大战略变化:马斯克放弃年交付2000万辆目标

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

与对华出货有关 美国半导体设备巨头应用材料再收传票

摘要:据《彭博社》报道,应用材料本周的一份文件中显示,该公司在5月时收到了美国商务部工业与安全局的传票; 美国商务部正在继续对应用材料公司进行调查,以了解其对中国客户的出货量。此前,应用材料也于去年11月传出收到监管机关的传票。 应用材料在这份文件中表示,该公司正与美国政府充分合作处理这些问题。这些事项存在不确定性,该公司无法预测结果,也无法合理估计与这些事项相关的损失或惩罚范围(如果有的话)。美国政府对可以销往中国客户的芯片制造设备型号进行了限制,旨在防止中国获得美国政府认定的、足以威胁到美国国家安全的先进技术能力。应用材料也收到了美国马萨诸塞州地区检察官办公室的请求,这项请求可以追溯到2022年,以及今年早些时候美国证券交易委员会的另一项请求。应用材料是美国最大的芯片制造设备商,就像他们的同业一样,当美国出口禁令最初公布时,该公司就失去了一定的销售额; 即便如此,中国仍是该公司一个重要的市场,约占应用材料收入的四分之一。在美国政府祭出制裁后,中国企业就与全球先进制程设备间被堵了一道墙,围堵中国获取先进半导体设备。 原文:与对华出货有关 美国半导体设备巨头应用材料再收传票

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

Join kefu_004’s channel

Package

LV2($ 3.33/month)

Renew

10/26/2024

Total 3.33 FebCoins

Account balance

Recharge

Subscriptions can be cancelled at any time, and after cancellation, you will continue to have access to the content until the next billing cycle.

Send article

Everyone

Only Me

Everyone

Send CopyDone

Add File
FebBox
Other

Izumi Katsuyoshi

send message

Add File
FebBox

Photo Album

Jun 11,2021 13:33

Edit

View, comment and edit

View

Can view and comment, but not edit.

Comments

Block this user

Type a comment

0/400

After closing, the input will be lost

Are you sure you want to unsubscribe?

Speed 0.5 0.75 Normal 1.25 1.5 2.0

Time 15min 30min 60min

Voice

Microsoft Kangkang

Chinese (Simplified, PRC)

Chinese (Simplified, PRC)

Microsoft Kangkang

Microsoft Kangkang

Microsoft Kangkang

Microsoft Kangkang

Microsoft Kangkang

Exit Reading

Suspend