Search Articles/Users
Follow

Last Followed

Last Updated

Username

2022

Ava Gregoraci · Jun 11,2023 10:22

No Access Permission

Your user group (LV1) does not have permission to view this content (LV2)

Cancel

Save to
FebBox

TV Shows

Jun 11,2021 13:33

Add

Add New Folder

FebBox Insufficient Available Space

1056.56 GB of 1000 GB Used

Your FebBox requires more storage space to save files. Please upgrade your membership, purchase additional space, or organize your FebBox storage space to continue saving.

Buy Extra Space

Return the root directory, Clean up space

cnBeta中文业界资讯网

8 Followers

18112 Articles

cnBeta.com成立于 2003 年,是中国领先的即时科技资讯站点,已成为重要的互联网IT消息集散地,提供软件更新,互联网、IT业界资讯、评论、观点和访谈。

我们的核心竞争力:快速响应;报道立场公正中立;尽可能提供关联信息;网友讨论气氛浓厚。

我们致力于奉献适合中文读者阅读的科技资讯,呈现科技如何影响人们生活的报道。
Put away

More

Recent

AI大佬LeCun连续暴走 从马斯克到OpenAI全被怼了个遍

摘要:当地时间5月26日,马斯克旗下的人工智能初创公司xAI宣布完成B轮60亿美元融资。主要的投资者包括 Valor Equity Partners、Vy Capital、Andreessen Horowitz、红杉资本等。xAI2023年7月份成立,不到一年时间估值已达240亿美金,是OpenAI(800亿美金)三分之一。 融资总额也仅次于OpenAI和Anthropic,正式跨入大模型第一梯队。xAI目前已经发布了Grok1(已开源),Grok-1.5(长上下文理解和高级推理能力)Grok-1.5V(xAI首款多模态大模型)。另外,马斯克还计划在2025年秋季建成一座“算力超级工厂”为xAI提供算力支持,预计将使用10万块英伟达H100 GPU。但马斯克的风头却很快被一个人“抢走”。这人就是机器学习之父、图灵奖得主、Meta首席人工智能科学家Yann LeCun。在xAI融资消息披露之后,马斯克顺势在X上发布了一条xAI招聘技术人员的推文:“如果你相信我们的使命是理解宇宙,并且需要最严格地追求真理,不顾及受欢迎度或政治正确性,那么请加入xAI。”然后Yann LeCun就出来拆台了,语气毫不客气:他先是迅速回应了马斯克的招聘帖子:“如果你能忍受这样的老板,请加入xAI:声称你正在研究的东西明年就能解决(毫无压力)。声称你正在研究的东西会毁灭所有人,必须停止或暂停(哇,6个月的假期!)。声称要‘最严格地追求真理’,但在他自己的社交平台上散布疯狂的阴谋论。”LeCun的评论是在讽刺马斯克此前的言论。今年四月份,马斯克声称通用人工智能将在明年到来,以及马斯克上周在“欧洲科技创新展览会”上重申的这一预测,并认为AI有10-20%的可能性会摧毁人类的言论。而“六个月的休假”指的是马斯克等人曾在去年3月发布要求暂停AI开发6个月的联名信说。Lecun在当时就对此表示反对:“今年是1440年,天主教会呼吁暂停使用印刷机和活字机6个月。想象一下,如果平民获得书籍,会发生什么?他们可以自己阅读圣经,社会就会被摧毁。”最后,这位“AI教父”还讽刺了马斯克在X平台上分享未经证实的言论行为。在评论区马斯克和LeCun继续“对线”,双方言辞都相当激烈:先是网友问LeCun为什么不创办自己的AI公司,而是留在Meta还喷别人。LeCun回复说我是科学家,不是商业或产品领域的人士。马斯克灵魂拷问:那过去五年你在“科学领域”都做了啥?LeCun说自己“发了80篇Paper”还带上Scholar主页。马斯克继续回怼:“这算啥,你太松懈了,你得支棱起来啊。”LeCun也不示弱:“说的你好像是我老板。”LeCun还反驳了那些轻视学术论文观点,作为“卷积网络之父”,他举例说明卷积神经网络(ConvNets)这一在1989年由学术论文引入的技术,已经成为当今几乎所有驾驶辅助系统的核心组成部分。他进一步强调,技术奇迹并不是凭空出现的,而是建立在多年甚至数十年的科学研究基础之上的。科学研究的想法和成果通过技术论文的形式被分享出来。没有这种科学信息的共享,技术进步将会大幅放缓。在AI监管问题上,LeCun和马斯克的观点也不一致,前者一直反对过度监管AI,主张AI的开放性和共享性,反对过度的监管限制,两人这次也在这个话题上再次交锋。LeCun在X上表示目前无需过度担忧AI风险问题,进行监管也为时过早。马斯克回复:准备好被监管吧。还配上了一个笑哭的表情。LeCun则阴阳了马斯克一句:你对“不要训练超过10^26flops的模型”感到高兴吗?这是指拜登去年10月签署的关于人工智能的行政命令,要求使用具有10^26 FLOPS能力的模型的公司向美国政府报告基础模型训练运行和部署的计划,而马斯克一直在积极呼吁要立法人工智能监管。句句扎心,LeCun简直成了硅谷自己的鲁迅。Lecun:AI末日论者都别跑而这也不是这位硅谷鲁迅第一次在互联网上和人针锋相对。他时常因其直言不讳的风格在网上引发了讨论和争议,尤其是关于AI安全。LeCun对AI末日论持有明确的反对态度,并且对开源和人工智能的未来持乐观态度。LeCun多次在公开场合和访谈中表示,AI毁灭人类的概率为零,认为 AI 末日论是无稽之谈。并且LeCun似乎会主动找机会,“喷”任何持AI末日论观点的人。在Geoffrey Hinton携手一众大神关于AGI风险治理的声明,Lecun没有署名,并且直接在X上点名了Sam Altman和DeepMind的Hassabis等人,认为他们试图通过游说监管来巩固自己的行业地位,阻碍开放AI推进。最近一段时间热议的OpenAI超级对齐团队人员离职,引发对AGI安全问题的隐忧的事件中,LeCun也没有缺席。先是OpenAI首席科学家兼联合创始人Ilya Sutskever在宣布离职,同一天,“超级对齐”团队的另一名负责人Jan Leike也宣布离开了OpenAI,并表示OpenAI在过去的几年里安全文化和流程被抛到了一边,让位于打造产品,OpenAI必须成为一家安全第一的AGI公司。马斯克随后进补了一刀:言外之意就是说安全并不是OpenAI的首要任务。LeCun也再次出来唱反调,表明了他对AI安全问题的立场:在LeCun对Jan Leike对回复中,他表示当前对AI安全担忧的紧迫感是过度夸张的,类似于在涡轮喷气发动机发明之前,急于解决跨洋飞行的安全问题。所以也难怪OpenAI会边缘化对齐团队。在他看来,当前的AI还不如猫智能,我们首先需要设计出比家更聪明的系统。并提到,就像飞机技术的发展一样,智能系统的进化需要多年时间,应该通过反复的工程改进逐步提高其智能和安全性,而不是过度担忧未来可能的风险。关于AI安全和治理问题,Yann LeCun此前与另一位人工智能先驱Yoshua Bengio在网上也进行过激烈辩论。LeCun呼吁信任人工智能可靠性的AI科学家和工程师发声,而Bengio强调开放源AI平台的潜在风险,以及安全和治理的重要性。两人的辩论反映了AI研究者之间对AI潜在风险、现有安全措施的有效性和未来发展路径的重大分歧。LeCun认为,与其想象灾难性的场景,不如专注于设计安全的AI系统。他相信,通过正确的设计和工程方法,AI系统可以变得安全和可靠。他认为已经有大量的资金投入到确保AI系统安全和可靠的工作中,这表明行业内对AI安全的重视和努力。LeCun强调,AI的设计初衷是为了增强人类智能,而不是造成伤害。他不同意将AI系统比作武器的观点,认为这样的类比是不恰当的。大语言模型无法通向AGI,不要浪费时间虽然Meta推出了开源大型语言模型Llama,但Yann LeCun作为Meta的首席人工智能科学家及FAIR(Facebook AI Research)负责人,对LLM的不看好却是尽人皆知。他最近还直接对学生喊话:如果你对下一代人工智能系统感兴趣,不要研究大型语言模型。在近日与英国《金融时报》的一次访谈中,他反对依赖不断发展的 LLMs 来追求人类级别的智能,因为这些模型只有在被输入正确的训练数据时才能准确回答问题,因此“本质上是不安全的”。GoogleDeepMind还花了几年时间寻找构建AGI的替代方法,包括强化学习等方法,其中人工智能代理在类似游戏的虚拟环境中从周围环境中学习。所以他转而专注于一种根本性的替代方法,正在努力开发一个全新的AI系统,希望这些系统能够为机器提供人类级别的智能,尽管他表示这一愿景可能需要10年才能实现。LeCun认为,LLM的自回归性质(根据之前的单词预测下一个单词)从根本上限制了它们实现真正智能的能力。他主张联合嵌入预测架构 (JEPA) 作为一种更有前景的AGI方法。LeCun还批评了当前对基于文本的学习的关注,认为需要观察物理世界并与物理世界互动,以建立对规划和推理至关重要的全面世界模型。他强调感官输入以及与物理世界的互动对于发展真正的智力的重要性。他指出,接受过大量文本数据训练的LLM缺乏像人类和动物那样推理、计划和理解世界的能力。LeCun建议未来的人工智能系统需要:1、结合感官输入以更深入地了解世界。2、与基于文本的学习相比,以更高的带宽处理信息(例如,人脑以每秒约 20 兆字节的速度处理视觉信息)。3、立足现实,拥有经验知识,展现常识推理。李飞飞近日和斯坦福哲学教授Etchemendy在《时代(Time)》上刊载文章,指出当前技术路线无法制造有感知能力的AI,该文章也得到了LeCun的转发支持。尽管Llama最初是由LeCun领导的FAIR开发的,但现在已经转交给了专注于技术和产品开发的GenAI部门,FAIR则专注于更长远的目标:开发能够达到人类智能水平的新AI架构和方法。许多人认为Yann LeCun喜欢发表一些争议言论,但更重要的背景是目前AI未来发展中产生的问题。作为人工智能领域最知名的人士之一,Yann LeCun在某种程度上有义务站出来,为这个充满争议的领域提供一些清晰的见解。LeCun说,实现AGI不是一个产品设计问题,甚至不是一个技术开发问题,在很大程度上是一个科学问题。如果这个说法是成立的,那么在通往探索AGI的道路上,显然我们需要更多他这样的“鲁迅”。 原文:AI大佬LeCun连续暴走 从马斯克到OpenAI全被怼了个遍

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

领涨股翻八倍 AI投资最热赛道之一竟是如何让它“冷下来”?

摘要:人工智能正炙手可热——这种“热”,你甚至可以从字面的体感上理解……人工智能的爆炸式增长,在导致数据中心的能源需求飙升的同时,也产生大量不必要的热量。而在眼下,这正为提供服务器冷却系统的公司带来了机遇。 根据国际能源署的数据,从2022年到2026年,美国数据中心的耗电量预计将增长约30%,达到260太瓦时。这约占美国总电力需求的6%——足够2400万户美国家庭一年的用电量。而大部分能量将以热能的形式散失,这意味着对冷却系统的需求会更高。众人拾柴火焰高,总部位于俄亥俄州的Vertiv控股公司,目前显然正成为被推上这一“风口”的领涨企业。该公司为数据中心生产电源和冷却设备。行情数据显示,自2022年底以来,Vertiv股价已飙升了近700%。该公司上一季度的订单量同比增长了60%。截至3月底,订单积压达到创纪录的63亿美元。该公司约三分之一的销售额来自数据中心的热管理。事实上,如下图所示,即便是把Vertiv放在一系列以英伟达为中心的不同美股AI领域概念股中进行比较,Vertiv年内的涨幅都足可稳居前三甲。“热管理/冷却”题材,相较其他一系列AI概念股,都似乎不逊色。(不同题材AI概念股2024年涨幅对比,数据截止至上周英伟达发布财报时)AI“最热”赛道是如何让它“冷下来”?目前,大多数全球数据中心都使用风扇进行空气循环以降低温度。但如今功率越来越大的芯片,正使这种风冷系统达到了其所能实现的散热极限。克服这一问题的方法之一,是在服务器中通过管道运行液体冷却剂来吸收热量。液体的热容量更大,传热更快。在相同体积的情况下,水要比空气多吸收3000多倍的热量。更高效的冷却系统还能让数据中心的服务器更为紧密地排列在一起。高盛日前就预计,服务器冷却市场规模将从今年的41亿美元增长到2026年的106亿美元。根据该行的预测,在这一市场中,液冷将变得更加流行,2026年其在人工智能服务器中的渗透率将达到57%,而今年仅为 23%。这将为冷却系统供应商带来更高的利润,因为这些系统的设计更为复杂。摩根大通也指出,考虑到打造液冷系统的复杂性,液体冷却系统的成本是空气冷却系统的三到四倍,这会为冷却系统供应商带来更高利润。事实上,与总部位于美国的Vertiv公司一样,不少亚洲冷却系统零部件制造商的股价近来也正一路飙升。自2022年底以来,中国台湾散热器制造商AVC的股价已上涨了600%,另一家散热器制造商双鸿科技(Auras Technology)同期也上涨了510%。两家公司目前都在提高产能,以满足不断增长的需求。根据FactSet的数据,包括AVC及双鸿科技等冷却系统供应商的预期市盈率目前已高达40倍,而在AI热潮之前,这一数字还不到20倍。当然,一些业内人士眼下也提醒,对于一个未来难以预测的新兴产业来说,当前冷却系统供应商高涨的股价,可能已经为未来的增长潜力进行了定价,甚至有所透支。在AI淘金热中,早早投资于“卖铲人”固然可行,但投资者仍需要保持冷静的头脑。 原文:领涨股翻八倍 AI投资最热赛道之一竟是如何让它“冷下来”?

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

三星电子工会计划举行公司史上首次罢工 以争取公平薪酬

摘要:在与管理层的工资谈判陷入僵局后,三星电子工会表示将进行该公司历史上首次罢工。三星电子全国工会周三发布了这一声明。科技巨头三星有数个工会,这是其中最大的一个,有约2.8万会员,过去几个月在和公司进行工资谈判。双方自今年年初以来一直在讨论加薪问题,但未能缩小分歧。 “我们想要的不是工资增长1%-2%。我们想要的是与所做工作量相匹配的公平薪酬。”这个工会在声明中说,“我们希望我们的劳动得到公平、透明的报酬。”工会做出上述决定之际,正值执行会长李在镕领导下的三星,发现自己在芯片行业的一个关键领域处于追赶者的不利位置。国内竞争对手SK海力士在用于人工智能AI服务的存储芯片方面已经处于领先地位,而这个领域目前正炙手可热。在罢工消息传出后三星电子股价一度下跌1.7%,自4月见顶以来的跌幅达到约10%。工会负责人Son Woo-mok表示,谈判的关键问题之一是奖金。今年3月份,三星的劳资委员会决定将今年薪酬提高5.1%。工会工人上周在首尔举行了一场有明星表演、类似音乐会的集会,引发公众强烈反对。三星电子自1969年成立以来从未发生过罢工。 原文:三星电子工会计划举行公司史上首次罢工 以争取公平薪酬

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

AI可能比你更会炒股?最新研究:GPT-4比人类更擅长金融分析和预测

摘要:随着人工智能快速发展,研究发现,AI可能比人类更擅长炒股。根据芝加哥大学布斯商学院的最新报告称,OpenAI的GPT-4在金融分析和预测方面的能力,可能比人类更优秀,基于其预测的多空策略表现也能跑赢大盘。 这一发现可能会颠覆金融服务业。与其他商业部门一样,金融服务业正在竞相采用生成式人工智能技术。根据这项最新研究的研究,在分析财务报表以及根据这些报表做出预测等方面,大语言模型比人类做得更好。“即使没有任何叙述或行业特定信息,大语言模型在预测盈利变化方面的能力也优于金融分析师们,”该研究称,“在分析师遇到难题时,大语言模型比人类分析师表现出相对优势。”该研究利用“思维链(chain-of-thought)”提示,指导GPT-4识别财务报表的趋势并计算不同的财务比率。在此基础上,大语言模型可以分析信息并预测未来的收益结果。该研究称:当我们使用思维链提示来模拟人类推理时,我们发现GPT的预测准确率达到了60%,明显高于分析师的准确率。人类分析师在预测准确度方面接近50%的范围。该研究的作者还表示,大语言模型能够在信息不完整的情况下识别财务模式和商业概念,这表明该技术应该在未来的财务决策中发挥关键作用。最后,该研究发现,如果将GPT-4的金融敏锐性应用于交易策略,能够获得更多交易回报,通常能跑赢大盘。研究称:“我们发现,基于GPT预测的多空策略表现优于市场,并产生显著的阿尔法和夏普比率(对资产的风险和收益进行综合考量的指标)。” 原文:AI可能比你更会炒股?最新研究:GPT-4比人类更擅长金融分析和预测

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

OpenAI官宣启动“下一代前沿模型”训练 或整合“文生视频”模型Sora

摘要:当地时间周二(5月28日),OpenAI宣布董事会成立安全与保障委员会。在这篇声明中,该公司同时宣称,已开始训练其“下一代前沿模型(next frontier model)”,并预计由此产生的系统将使我们在通往 AGI (注:通用人工智能)的道路上达到更高的能力水平。 OpenAI在该博客文章中表示,“虽然我们为打造和发布在能力和安全性方面都处于业界领先地位的模型而感到自豪,但在这个重要时刻,我们欢迎围绕这一问题展开激烈的讨论。”公司称,其成立的这个新委员会的目的就是来评估这项“新的前沿模型”可能带来的任何风险。虽然目前外界普遍预计OpenAI所谓的“下一代前沿模型”就是GPT-5,但公司迄今未做过任何官方形式的表态。而根据OpenAI开发者体验主管罗曼·韦(Romain Huet)上周在巴黎的一次演讲,OpenAI下一代模型可能将被命名为“GPT-Next”。不过,也有外媒认为这实际上是Omni-2——一个更精致、训练参数更多、更强的GPT-4o增强版。OpenAI称,新成立的“安全与保障委员会”的首要任务“将是在未来90天内评估进一步发展OpenAI的流程和保障措施”。随后,OpenAI将在董事会审查后公开分享“采纳建议”的最新情况。这意味着OpenAI的董事会应该最迟在今年8月26日收到该委员会的建议。如果按照这样的时间表来计算,OpenAI最快可能在今年秋季发布所谓的“下一代前沿模型”。不过,《纽约时报》报道称,AI模型的训练可能需要数月甚至数年时间。训练完成后,AI公司通常还会再花几个月时间来测试该模型,并对其进行微调,之后才能供公众使用。这就意味着,OpenAI的下一代模型可能并不会在90天之后就发布。在最近的国际人工智能首尔峰会期间发布的“安全更新(Security Update)”中,OpenAI也表示,在(其下一代模型)发布前,公司将花更多时间评估新模型的功能,这可以解释为什么没有具体的发布日期。OpenAI并未明确提及训练中模型的名称,但外界第一时间猜测这一“前沿模型”就是GPT-5。此前,OpenAI的基础模型一直遵循着明确的命名顺序,即GPT后以递增数字的形式变化。不过,需要注意的是,本月OpenAI发布的模型却命名为GPT-4o。在当地时间5月22日巴黎举行的VivaTech会议上演示 ChatGPT Voice时,OpenAI开发者体验主管罗曼·韦展示了一张幻灯片,揭示了未来几年人工智能模型的潜在增长趋势和命名,其中并没有GPT-5。 罗曼·韦展示了GPT-3时代、GPT-4时代、GPT-Next和“未来的模型”,而“Today(今天)”就处于GPT-4时代和GPT-Next之间。这似乎意味着,OpenAI推出的下一代模型或将命名为GPT-Next,但有外媒认为这实际上是Omni-2——一个更精致、训练参数更多、更强的GPT-4o增强版。而且,罗曼·韦在演讲中也表示,在未来几个月或者说今年,人们将看到更多类型的OpenAI模型,而不仅仅是ChatGPT一种模型。迭代趋势预示下一代模型将整合Sora福布斯报道称,OpenAI所谓的“下一代前沿模型”可能会取代其领先的基础模型GPT-4,以及图像生成器、虚拟助手、搜索引擎和旗舰聊天机器人ChatGPT等强大的生成式AI工具。科技媒体ZDNET报道称,按照过去的趋势,外界可以预期“下一代前沿模型”的反应会更加准确,因为它将接受更多数据的训练。模型训练的数据越多,该模型生成连贯、准确内容的能力就越强,从而也能拥有更好地性能。例如,有研究称GPT-3.5是在1750亿个参数上训练的,而GPT-4的训练参数则已经达到1万亿。报道称,如果OpenAI“下一代前沿模型”发布,我们可能会看到该模型在训练参数上更大的飞跃。而回顾OpenAI过往的基础模型,从GPT-3.5到最新的GPT-4o,可以看到,随着模型的升级,产品的迭代已经让其变得更加智能,包括价格、响应速度、上下文长度等等。要知道,GPT-3.5只能输入和输出文本,而到GPT-4 Turbo时,已经可以通过文字和图像的输入以获得文本的输出。GPT-4o更是展示了更强大的能力,不仅能处理文本,还能创建图像内容,并以高度对话化的语音方式回答问题和响应指令。ZDNET报道称,按照OpenAI基础模型这样的迭代趋势,“下一代前沿模型”或将拥有输出视频的能力。今年2月,OpenAI发布了“文生视频”模型Sora,这可能会被整合到“下一代前沿模型”中以输出视频。OpenAI的目标是在超越竞争对手的同时,更快地推进AI技术,同时也安抚那些认为该技术越来越危险、助长虚假信息传播、取代工作岗位甚至威胁人类生存的批评者。虽然OpenAI在周二的博客文章中称,预期其“新前沿模型”将使我们在通往AGI的道路上达到更高的能力水平,这是一种能够理解、学习和执行人类可以执行的任何智力任务的 AI 形式。不过,专家们对 AGI 的可行性以及何时可能实现存在分歧。被誉为 AI 教父的 Geoffrey Hinton 估计,可能需要 20 年才能发展出 AGI。英伟达CEO黄仁勋则预测称,AI会在五年内通过人类测试,AGI将很快到来。 原文:OpenAI官宣启动“下一代前沿模型”训练 或整合“文生视频”模型Sora

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

IMF副总裁:电动汽车需求取决于各国政策力度

摘要:5月29日消息,国际货币基金组织(IMF)在对中国经济年度评估(即第四条款磋商)结束时在北京举行现场新闻发布会。会上,关于绿色补贴的定价问题,IMF第一副总裁吉塔·戈皮纳特(Gita Gopinath)表示,IMF没有对电动汽车的未来作出预期,因为需求多少取决于各国的政策力度。 “如果政策是要建立更多的充电站、充电桩,就会有更多人愿意用电车。如果征收碳价,也会让绿色转型更有吸引力。所以,需求有多强取决于相关的政策。”她说。关于绿色投资,戈皮纳特表示,有人认为产业政策有利于绿色转型,有人认为是相反的。目前没有看到要给这样的补贴设置上限,关键是具体措施是否科学,如果措施不科学、不到位会产生相反效果。会上,关于碳定价问题,戈皮纳特表示,IMF非常关注碳定价,因为碳价可以非常有效的向企业和居民传递强有力的信息,是很有效的工具。她表示,目前全世界的政府财力都受到很大限制,负债很重,碳定价可以让政府在负担不是很重的情况下实现绿色转型。此外,戈皮纳特强调,也要保护脆弱和弱势的行业,减少他们在绿色转型中受到的冲击。 原文:IMF副总裁:电动汽车需求取决于各国政策力度

Report

Unwanted commercial content or spam

Pornography or sexually explicit material

Hate speech or graph violence

Harassment or bullying

Other

Join kefu_004’s channel

Package

LV2($ 3.33/month)

Renew

10/20/2024

Total 3.33 FebCoins

Account balance

Recharge

Subscriptions can be cancelled at any time, and after cancellation, you will continue to have access to the content until the next billing cycle.

Send article

Everyone

Only Me

Everyone

Send CopyDone

Add File
FebBox
Other

Izumi Katsuyoshi

send message

Add File
FebBox

Photo Album

Jun 11,2021 13:33

Edit

View, comment and edit

View

Can view and comment, but not edit.

Comments

Block this user

Type a comment

0/400

After closing, the input will be lost

Are you sure you want to unsubscribe?

Speed 0.5 0.75 Normal 1.25 1.5 2.0

Time 15min 30min 60min

Voice

Microsoft Kangkang

Chinese (Simplified, PRC)

Chinese (Simplified, PRC)

Microsoft Kangkang

Microsoft Kangkang

Microsoft Kangkang

Microsoft Kangkang

Microsoft Kangkang

Exit Reading

Suspend