[问与答] macos 下有好用的 time-tracker 类的软件么?
·
Post Content
·
Post Content
·
文|王方玉 编辑|苏建勋 7月26号,世界人工智能大会WAIC的开幕主论坛上,多位AI行业的顶级大咖出席并发表演讲,为与会者烹饪了一道学术大餐。 “深度学习教父”、图灵奖、诺贝尔奖得主杰弗里·辛顿(Geoffrey Hinton)是最受关注的演讲者,他真人出席,发表了名为《数字智能是否会取代生物智能?》的演讲。这也是他在中国的首次公开演讲。 大会前夕,辛顿和全球20位人工智能领域的顶级专家,刚刚在上海签完人工智能安全的“上海共识”。他的大会发言,同样也围绕人工智能安全为核心。 辛顿首先回顾了从早期模型到现代大语言模型的发展历程,并指出大语言模型已经实现了对语言理解的深度模仿,这与人类理解语言的方式是相似的。 但不同的是,AI系统具有“永生性”,且机器之间知识的复制可以在极大规模下进行,实现指数级的知识转移。因此AI的能力正在快速增长。 他由此提出疑问,如果未来AI比人更智能会怎么样?“如果AI足够聪明,它会通过操纵人类、获得控制权等方式来避免被关闭。” 因此,辛顿警示了人工智能超越人类智能的可能性及其带来的风险。“从长远来看,这是人类面临的最重要问题之一。” 辛顿提醒,AI可能发展出比人类更高级的智能,这将改变人类作为最智能生物的地位。AI智能体可能追求生存和控制力,这可能导致它们操纵人类,就像成年人操纵三岁孩童一样。因此,人类必须找到方法来训练AI,确保其不会对人类构成威胁。 与辛顿的发言主题不同,作为AI创业者,MINIMAX创始人、首席执行官闫俊杰的发言更多围绕AI大模型的实践和落地,主题是《每个人的人工智能》。 闫俊杰以AI在数据分析、信息追踪、创意设计及视频制作等方面的高效应用举例,指出了人工智能不仅是一种强大的生产力,也是对个人能力和社会能力的一个持续增强,并且未来AI大模型成本将越来越低,能力越来越强。 他判断,AI大模型不会被一家或者多家组织垄断。未来AGI一定会实现,并且将会是服务大众、普惠大众的一件事。 “如果有一天AGI实现了,我认为实现过程一定是需要AI公司和它的用户一起来实现的。并且AI模型或者AGI(的所有权)应该属于AI公司和它的广泛用户,而不是只属于单个组织某家公司。” 以下是经智能涌现编辑的嘉宾发言实录: 诺贝尔奖、图灵奖得主、多伦多大学计算机科学名誉教授 Geoffrey Hinton: 数字智能是否会取代生物智能? 从大约60年前开始,AI就发展出了两种不同的范式。一种是「符号主义」路径,强调逻辑推理的能力。我们通过规则操作符号来进行推理,这种方式可以帮助我们理解知识是如何被表达与处理的。这类AI模型的基础是对符号的处理,被认为更符合逻辑智能的本质。 另一种路径则以生物智能为基础,是图灵与冯·诺依曼更倾向相信的方式。他们认为智能的本质在于从神经连接中学习,在于速度、结构和连接模式的改变。这种「连接主义」强调的是学习与适应,而非显式的逻辑规则。 1985年,我曾构建过一个非常小的模型,试图将这两种理论结合起来。我的想法是:每一个词都可以由多个特征(features)表示,而这些特征之间可以被用来预测下一个词。这个模型不存储完整的句子,而是通过生成语言来学习词汇之间的关系。 这种方式强调语言中的「语义特征」——也就是说,我们并不是仅仅靠规则,而是通过「理解」词汇的语义来进行预测。这为后来计算语言学界接受特征表示打下了基础。二十年后,这种思想得到了进一步发展,例如被用于构建更大规模的自然语言处理系统。 如果问未来30年会发生什么,从发展轨迹能看到一些趋势。十年后,有人沿用这种建模模式,但将规模大幅扩大,使其成为自然语言的真实模拟。20年后,计算语言学家开始接受用特征向量嵌入来表达语义。又过了30年,谷歌发明了 Transformer,OpenAI的研究人员也向人们展示了它的能力。 所以我认为,如今的大语言模型就是我当年微型语言模型的“后代”。它们使用更多词作为输入,采用更多层的神经元结构,由于需要处理大量模糊数字,学习特征之间也建立了更复杂的交互模式。但和我做的小模型一样,大语言模型理解语言的方式与人类相似——基本逻辑是将语言转化为特征,再以完美的方式整合这些特征,这正是大语言模型各层级所做的工作。因此我认为,大语言模型和人类理解语言的方式相同。 用乐高积木来打比方或许能更好地解释“理解一句话”的含义。符号型AI是将内容转化为清晰的符号,但人类并非如此理解。乐高积木能拼出任何3D造型,比如小车模型。如果把每个词看作多维度的乐高积木(可能有几千个维度),语言就成了一种建模工具,能随时与人沟通,只要给这些“积木”命名——每个“积木”就是一个词。 不过,词和乐高积木有很多不同:词的符号形态可根据情况调整,而乐高积木造型固定;乐高积木的拼接是固定的(比如正方形积木插入正方形孔洞),但语言中每个词仿佛有多个“手臂”,要通过合适的“握手”方式与其他词互动,词的“造型”变化,“握手”方式也会改变。 当一个词的“造型”(即意思)改变,它与下一个词的“握手”方式就会不同,进而产生新的含义。这就是人脑或神经网络理解语义的根本逻辑,类似蛋白质通过氨基酸的不同组合形成有意义的结构。 所以我认为,人类理解语言的方式与大语言模型几乎一致,人类甚至可能和大语言模型一样产生“幻觉”,因为我们也会创造出一些虚构的表达。 图源:企业授权 软件中的知识是永恒的,即便存储LLM的硬件被摧毁,只要软件存在,就能随时“复活”。但要实现这种“永生”,晶体管需在高功率下运行以产生可靠的二进制行为,这个过程成本很高,且无法利用硬件中不稳定的类似特性——它们是模拟型的,每次计算结果都不同。人脑也是模拟型而非数字型的,神经元每次激发的过程都一样,但每个人的神经元连接方式不同,我无法将自己的神经结构转移到他人脑中,这就导致知识在人脑间的传播效率远低于在硬件中的传播。 软件与硬件无关,因此能“永生”,还能带来低功耗优势——人脑只需30瓦特就能运转。我们的神经元连接达数万亿个,无需花费大量资金制造完全相同的硬件。但问题在于,模拟模型间的知识转移效率极低,我无法直接将脑中的知识展示给他人。 Deepseek的做法是将大神经网络的知识转移到小神经网络中,即“蒸馏”,类似教师与学生的关系:教师将词语在上下文中的关联教给学生,学生通过调整权重学会表达。但这种方式效率很低,一句话通常只有100个比特的信息,即便全被理解,每秒最多也只能传递约100个比特。 而数字智能间的知识转移效率极高,同一神经网络软件的多个拷贝在不同硬件上运行时,能通过平均化比特的方式分享知识。如果智能体在现实世界中运行,这种优势更明显——它们能不断加速、拷贝,多个智能体比单个智能体学得更多,还能分享权重,这是模拟硬件或软件做不到的。 生物计算功耗低,但知识分享难。如果能源和计算成本低廉,情况会好很多,但这也让我感到担忧——几乎所有专家都认为,我们会创造出比人类更智能的 AI。人类习惯了作为最智能的生物,很难想象AI超越人类的场景。其实可以换个角度:就像养鸡场的鸡无法理解人类一样,我们创造的AI智能体已能帮我们完成任务,它们能拷贝自身、评估子目标,还会为了生存和完成目标而寻求更多控制权。 有人认为可以在AI变得过强时关掉它们,但这并不现实。它们可能会像成年人操纵3岁孩子一样操纵人类,劝说控制机器的人不要关闭它们。这就像把老虎当宠物,幼虎很可爱,但长大后可能伤人,而养老虎当宠物通常不是好主意。 面对AI,我们只有两个选择:要么训练它永远不伤害人类,要么“消灭”它。但AI在医疗、教育、气候变化、新材料等领域作用巨大,能提升所有行业的效率,我们无法消除它——即便一个国家放弃AI,其他国家也不会。因此,若想让人类生存,必须找到训练AI不伤害人类的方法。 我个人认为,各国在网络攻击、致命武器、虚假信息操纵等领域的合作难度较大,因利益和看法不同。但在“人类掌控世界”这一目标上,各国存在共识:若有国家找到防止AI操控世界的方法,一定会愿意分享。因此我提议,全球主要国家或AI大国应建立一个由AI安全机构组成的国际社群,研究如何训练高智能AI向善——这与训练AI变得聪明的技术不同。各国可在自身主权范围内研究,再分享成果。尽管目前还不知道具体怎么做,但这是人类长期面临的最重要问题,且所有国家都能在此领域合作。 MINIMAX创始人、首席执行 闫俊杰: 每个人的人工智能 大家好,我给大家分享的题目是《每个人的AI,Everyone’s AI》。讲这个题目,跟我个人过去经历有关。当Hinton先生开始设计AlexNet之时,我是国内第一批从事深度学习研究的博士生;当AlphaGo人机大战上演,也是人工智能走进所有人视野之时,我在参与一家创业公司;而当ChatGPT出来的前一年,我们开始创立MiniMax,也是国内第一批大模型公司。 在过去的15年里,当我每天面对任务写代码,看论文做实验的时候,一直都在想一件事:如此受关注的人工智能到底是什么?人工智能跟这个社会到底有什么样的联系? 随着我们模型变得越来越好,我们发现人工智能正逐步成为社会的生产力。比如,我们在做人工智能研究的时候,每天需要分析大量的数据,一开始我们需要来写一些软件来分析这些数据,后续我们发现其实可以让AI来生成一个软件,来帮助分析所有数据。作为一个研究员,我非常关心每天AI领域的所有进展,一开始我们设想,是不是可以做一款APP,来帮我们追踪各领域的进展?后面我们发现,这件事也不需要自己来做,让一个AI Agent来自动跟踪更加高效。 AI是更强的生产力,也是越来越强的创意。比如,15年前上海举办世博会的时候,有一个非常火爆的吉祥物叫“海宝”。过去15年,上海有了全方位的发展,我们如果想继续用“海宝”IP生成一系列更具上海特色,符合时下潮流的衍生形象时,AI可以做得更好。正如现场屏幕展示的,徐汇书院×海宝、武康大楼×海宝,AI能一键直出,帮我们生成各种各样的创意形象。 再比如最近非常火的Labubu,此前制作一个Labubu创意视频,可能需要两个月,花费大约几十甚至百万人民币。通过越来越强的AI视频模型,像大屏幕右边展示的Labubu视频,基本一天时间就可以生成出来,成本只有几百块钱。 过去六个月,我们的视频模型海螺(Hailuo)已经在全世界生成超过3亿个视频。通过高质量的AI模型,互联网上的大部分内容与创意会变得越来越普及,低门槛让每个人的创意得以充分发挥。 除了释放生产力与创意之外,我们发现,AI的使用其实已经超出最初的的设计与预期,各种各样想象不到的应用场景正在发生;比如解析一个古文字、模拟一次飞行、设计一个天文望远镜……这样意想不到的场景,随着模型能力越来越强,变得越来越可行;仅仅需要少量协作,就可以增强每个人的创意。 面对这么多变化,一个想法开始在我的心里涌现出来:作为一个AI创业者,AI 公司并不是重新复制一个互联网公司,AI是一个更基础更根本的生产力,是对个人能力和社会能力的持续增强。这里有两点比较关键:第一、AI是一种能力,第二是AI是可持续的。…
·
主要作用就是加速百度网盘下载,有以下几个步骤 1.在商家站点扫描二维码登录百度网盘 2.分享需要下载的文件,并填入商家提供的站点里 3.从网盘某个新增的特定文件夹里下载文件,此时没有限速 好奇原理是什么 相关内容地址 https://www.yuque.com/jingmaohengli/aictmo/tfham1mi327pdilh?singleDoc#
·
V2News – V2EX 新帖推送 (Telegram Channel) https://t.me/v2exposts 我自己稳定用了很久,最近改成了 Telegram 公开频道
·
和 AI 交流的重度用户需要一个什么样的媒介?有时候只想简单聊几句,我发现更需要的是做好“对话”这一件事,简单、稳定、流畅、便于阅读。 除此之外,我也是 gpt 和 claude 的重度用户,我希望能在一处管理我的所有聊天,并且能够管理和索引我的所有对话记录。 这个 app 纯本地,没有付费和订阅,能给你带来友好的使用体验。 下载👇 https://www.chatflex.app/
·
我最近用 Claude Code 搭建了一个镜像站 “Ai Code Editor”( aicodeditor.com ),主要功能包括: 完整镜像 Claude Code 的 AI 代码编辑体验; 支持高速加载、多地访问稳定; 注册即送积分,免费体验。 希望能给更多无法直连 Claude Code 的朋友提供便利。欢迎各位试用并提意见,我会认真看每一条反馈 😊 放一波兑换码: B6I5-ACRU-OBQ8-6Z6T DCM6-VXMC-X8PJ-INJG PB8C-TXBD-TT88-158F 6RTT-6U9W-JXOG-NO1G USBJ-UUA8-WBEL-6QLC VPM2-M9XY-RDKV-T7M3 CZD0-JQE3-GG0O-8SLN 51MW-UOZJ-R022-E8HC 8L1I-IMHG-JCL1-UYOI 13ZS-ZJK9-IKW4-XKX7
·
使用 vscode 或者 cursor 都一样,很容易出现语言服务器崩掉的问题,关掉重开坚持没几分钟又崩了,然后无法显示代码报错,也无法跳转方法,完全不搞懂这是什么逻辑 (其实不是很理解语言服务器,以前的 ide 也没这问题啊,难道符不符合语法报错还要联网去问服务器吗) 使用 rider 就没这问题,就是这玩意特别吃内存 所以这玩意到底是怎么回事
·
是服务的取消,不是取消某个应用的授权。现在出现一个问题,如我的淘宝账号,我从华为手机换成了苹果手机,将手机给了孩子。即便我把淘宝退出,依然能通过华为账号一键登录。除非我退出华为账号,但是孩子不好申请华为账号。包括另一个问题,如一个没有解锁密码的华为手机掉了,即便我淘宝删除了登录设备,对方依然能通过华为账号登录。再掉手机时,不仅要第一时间冻结手机号,还得冻结华为账号,但是现在普通人依旧认为冻结手机号就行。
·
写 不必解释 呈现 无需等待 分享 止于指尖 好内容 只在被看见时才真正开始 md.biji.org.cn
·
用搜索引擎搜索 B 站下载之类的,找一个能正常用的解析站, 复制原本想看的视频的链接来解析,然后进行观看以及可以下载。 顺便我认为很显然第三方解析下载站或服务的存在就是像成人内容一样的很理所应当存在的一种互联网正常需求。