张居正直解《资治通鉴》(上、下)

张居正直解《资治通鉴》(上、下)

加载中...

微信扫码,免登录解锁高速下载

如何使用 & 隐私说明

精彩点评

  • 张居正直解《资治通鉴》(上、下)
    锐锐
    推荐

    对目前AI发展水平、算法工具、弊端和未来发展趋势的客观性描述,值得一读。 印象深刻的部分: 我们容易高估人工智能的发展速度,而低估人类自身智能的复杂性。目前人工智能和人类智能相比,仍相距甚远: 人工智能无法理解和思考; 人工智能无法抽象、类比和知识泛化; 人工智能无法拥有人类那样的直觉和常识; 人工智能易受对抗性样本攻击、及长尾效应的影响,可靠性无法保证。 Still a long way to go…

  • 张居正直解《资治通鉴》(上、下)
    大爷
    推荐

    这本比较有意思 从技术层面阐述AI的发展 局限和未来。好像AI相关的书籍要嘛太流于一般 基本就像普及的书籍。另一些就杞人忧天 戏太多 现在的AI在只能在限制环境处理单一事件 就要想象它毁灭人类 这个还不知道要多少个科技的突破。再说 毁灭人的肯定是人类的愚蠢 坑人类的必定是人类。

  • 张居正直解《资治通鉴》(上、下)
    cer
    推荐

    本书整体上较清晰地梳理了AI发展的历史,对背后的本质也有一如既往的洞见。 有些人认为没有代码没有公式就不是好的AI书。但实际上AI本身不局限于算法技术,还包括背后的哲学思考、社会意义、发展历程等等。作者把复杂事物简洁描述的功力深厚,应该致以敬意。 目前大部分从业者谈及AI只懂DNN(以及其为代表的统计学习),读的大部分文献也只是DNN结构上的小修小改。但其实单纯的技术也有各种技术路线之争。书中所说的各种解决方案的“无政府主义”,即鼓励从各种不同的角度出发去研究AI,我深以为然。一种方法走到死胡同,另一种方法可以继续推进。从认知心理学或者认知神经学出发去研究AI,也是一种值得去鼓励的方式。对于AI,我们应该敬畏,应该持续思考。 到当下这个时代(2022),以DNN为代表的AI,还是处于条件反射的弱人工智能。如何让AI通用,完成复杂逻辑推理,甚至懂得任务背后的意义,能像人类提炼出知识的洞见,这一切仍待诸君为之奋斗。

  • 张居正直解《资治通鉴》(上、下)
    McAhon务本
    推荐

    这本书应该读三遍。 这本书让我有了下一部剧本可以以AI为题材的想法。 首读不做内容评论。

  • 张居正直解《资治通鉴》(上、下)
    Redeeming
    推荐

    在我看来,用作者自己在结语中的一段话来点评本书最恰当不过了: "人工智能对我们所有人的影响都将持续深化。我希望这本书能帮助你,成为一个有思想的人,更好地去了解这项新兴技术的当前发展现状,包括其尚未解决的问题、技术的潜在风险和益处,以及它所引出的关于理解人类自身智能的科学和哲学问题。" 作者的这个初衷是实现了,至少我受益颇多。

  • 张居正直解《资治通鉴》(上、下)
    红红🍇
    推荐

    其实我蛮希望有生之年能有机会与AGI通用人工智能做朋友。强人工智能是经过恰当编程的数字计算机不只是模拟出了心智,弱人工智能将计算机视为模拟人类智能的工具,如果一台机器能够写出一首协奏曲,是因为它感受到的思想和情感,而不是因为符号的偶然组合,只有这样才会认同该机器等同于大脑。或许达到AGI还需要再获得100个诺贝尔奖?

  • 张居正直解《资治通鉴》(上、下)
    赵安琪
    推荐

    人类区别于其他动物的一个显著特征在于拥有抽象概念的能力,这点放在人与人工智能身上也同样适用。在侯世达和伊曼纽尔·桑德尔合著的《现象与本质》中亦提及:没有概念就没有思想,没有类比就没有概念。这种概念、迁移能力构成我们赖以生存的理解力,而理解力是一种预测能力,与人类的经历息息相关。可以说这是人类至关重要的能力。这种能力是机器基于强化学习所不能习得的。 但如果人工智能机器所写出的诗歌、散文、新闻、报告……到了与人类写出的无法辨别的地步。我们自然惊叹于基于强大算法为依托的现代科技,同时又为现代人丧失判别能力而哀叹。因为那可能意味着人类丰富情感感知能力在衰减……

  • 张居正直解《资治通鉴》(上、下)
    华少 ☀
    推荐

    道德哲学系学生最喜欢的思想实验——电车难题开始。 假设你正在沿着一组轨道驾驶一辆加速行驶的有轨电车,就在正前方,你看到有5名工人站在轨道中间,你踩刹车却发现它们不起作用。幸运的是,有一条通向右边的轨道支线,你可以把电车开到支线上,以免撞到那5名工人,但不幸的是,在支线轨道中间也站着1名工人。这时候,你面临一个两难的选择:如果你什么都不做,电车就会直接撞到5名工人身上;如果你把电车开向右边,电车就会撞死1名工人。从道德上讲,你应该怎么做? (电车难题一直是20世纪大学道德课的一节主要内容)

  • 张居正直解《资治通鉴》(上、下)
    晏海云
    推荐

    作者认为真正意义上的通用人工智能目前还完全不用担心,对此我十分赞成。人工智能在一些人类常识方面还有很长的路要走,而那些是人类甚至是生物通过数百万乃至数十亿年积累并通过基因传递下来的。有人提出对人工智能进行常识编码输入的工作是臭名昭著的失败,我倒认为这项工作不是做多了,而是少了,还差得远呢。

  • 张居正直解《资治通鉴》(上、下)
    thlong
    推荐

    目前的人工智能,不是人类智能;目前的机器学习,只是机械学习。一切还在起步阶段。 人工智能的目的是让机器达到人类的智能水平,甚至超过人类的能力。 1/9: 在达特茅斯确定三个方向 1956年,在达特茅斯的研讨会上,不同领域的参会者对采用何种方法来研究人工智能产生了分歧。 1.数学家提倡将数学逻辑和演绎推理作为理性思维的语言; 2.另一些人则支持归纳法,这是一种运用程序从数据中提取统计特征,并使用概率来处理不确定性的方法; 3.其他人则坚信应该从生物学和心理学中汲取灵感来创造类似大脑的程序。 令人惊讶的是,这些不同研究方法的支持者之间的争论一直持续到了今天,每一种方法都形成了自己的一套原则和相关技术,它们又通过在各自领域的专业会议和期刊上传播得以巩固,但这些有待深入研究的领域之间却几乎没有交流。 2/9: 形成两个流派 由此,人工智能在发展过程中,形成了两个流派: 1.符号人工智能,无须构建模拟大脑运行的程序符号人工智能最初是受到数学逻辑以及人们描述自身思考过程的方式的启发,在人工智能领域发展的最初30年里占据了主导地位,以专家系统最为著名。 2.亚符号人工智能,从神经科学角度捕捉无意识思考亚符号人工智能从神经科学中汲取灵感,试图捕捉隐藏在“快速感知”(fast perception)背后的无意识思考过程。这就是近20年最流行的机器学习神经网络。 符号人工智能的代表-专家系统,其内部含有大量的某个领域专家水平的知识与经验,能够利用人类专家的知识和解决问题的方法来处理该领域问题。它根据某领域一个或多个专家提供的知识和经验,进行推理和判断,模拟人类专家的决策过程,以便解决那些需要人类专家处理的复杂问题,简而言之,专家系统是一种模拟人类专家解决领域问题的计算机程序系统。 20世纪80年代中期,研究者明确指出,专家系统越来越暴露出自身的脆弱性:容易出错,且在面对新情况时往往无法进行一般化或适应性的处理。 在分析这些系统的局限性时,研究人员发现,编写规则的人类专家实际上或多或少依赖于常识以便明智地行动。这种常识通常难以通过程序化的规则或逻辑推理来获取,而这种常识的缺乏严重限制了符号人工智能方法的广泛应用。 也有研究者看好专家系统,目前最著名的就是“Cyc”,已经连续商业化研究了40多年。 Cyc是一个关于特定实体或一般概念的论断的集合,使用一种基于逻辑的计算机语言编写而成。雷纳特甚至说:“智能就是一千万条规则”。 Cyc的规则论断由Cycorp公司的员工手动编码,或由系统从现有的论断出发,通过逻辑推理编码到集合中。 那么究竟需要多少论断才能获得人类的常识呢?在2015年的一次讲座中,雷纳特称目前Cyc中的论断数量为1 500万,并猜测说:“我们目前大概拥有了最终所需的论断数量的5%左右。” 以下是一些Cyc中的论断的例子: 一个实体不能同时身处多个地点。 一个对象每过一年会老一岁。 每个人都有一个女性人类母亲。 Cyc还包含很多用于在论断上执行逻辑推理的复杂算法,有大量的方法来处理其集合中出现的不一致或不确定的论断。 符号人工智能最初是受到数学逻辑以及人们描述自身意识思考过程的方式的启发。相比之下,亚符号人工智能方法则从神经科学中汲取灵感,并试图捕捉隐藏在所谓的“快速感知”背后的一些无意识的思考过程,如识别人脸或识别语音等。 一个亚符号人工智能程序本质上是一堆等式——通常是一大堆难以理解的数字运算,此类系统被设计为从数据中学习如何执行任务。近二十年,随着深度神经网络算法的崛起,亚符号人工智能方向吸引了大量的研究者。 亚符号系统,一个早期例子是感知机。罗森布拉特发明感知机是受到人脑中神经元处理信息的方式的启发:一个神经元就是大脑中的一个细胞,它能够接收与之相连的其他神经元的电或化学输入信号。 对于计算机科学家或者心理学家来说,信息在神经元中的处理过程可以通过一个有多个输入和一个输出的计算机程序(感知机)进行模拟。感知机就是一个根据加权输入的总和是否满足阈值来做出是或否(输出1或0)的决策的简易程序。 在生活中,你可能会这样做决定。例如,你会从一些朋友那里了解到他们有多喜欢某一部电影,但你相信其中几个朋友对于电影的品位比其他人更高,因此,你会给他们更高的权重。如果朋友喜爱程度的总量足够大的话(即大于某个无意识的阈值),你就会决定去看这部电影。如果感知机有朋友的话,那么它就会以这种方式来决定是否看一部电影。 罗森布拉特等人证明了感知机网络能够通过学习,学会相对简单的感知任务,而且罗森布拉特在数学上证明了:对于一个特定(即便非常有限)的任务类别,原则上只要感知机经过充分的训练,就能学会准确无误地执行这些任务。 但在1969年,明斯基和西摩·佩珀特给出了一个数学证明,表明感知机能够完美解决的问题类型非常有限,因为感知机学习算法随着任务规模的扩大需要大量的权重和阈值,所以表现不佳。他们指出,如果一个感知机通过添加一个额外的模拟神经元“层”来增强能力,那么原则上,感知机能够解决的问题类型就广泛得多,带有这样一个附加层的感知机叫作多层神经网络。 与感知机类似,多层神经网络中的每个单元将它的每个输入乘以其权重并求和,但是,与感知机不同的是,这里的每个单元并不是简单地基于阈值来判断是“激活”还是“不激活”(输出1或0),而是使用它求得的和来计算一个0~1之间的数,称为激活值。如果一个单元计算出的和很小,则该单元的激活值接近0;如果计算出的和很高,则激活值接近1。 到了70年代末和80年代初,在罗森布拉特的认知心理学领域的成果支持下,研究小组开发了一种名为“反向传播”(back-propagation)的通用学习算法来对网络进行训练,开启了多层神经网络的大时代。 顾名思义,反向传播算法是一种对输出端观察到的错误进行反向罪责传播,从而为网络中的每个权重都分配恰当罪责的方法。反向罪责传播是指,从右向左追溯罪责源头。这使得神经网络能够确定为减少错误应该对每个权重修改多少。神经网络中所谓的学习就是逐步修改连接的权重,从而使得每个输出在所有训练样本上的错误都尽可能接近于零。 在多层神经网络、统计学和概率论的启发下,人工智能领域的研究者开发了一系列能够使计算机从数据中进行学习的方法。 3/9: 神经网络一家独大 在视觉识别领域,在20世纪80年代,法国计算机科学家杨立昆受到福岛·邦彦的神经认知机(Neocognitron)的启发,提出了卷积神经网络(ConvNets)。 其原理来自于胡贝尔发现的与大脑视觉系统相关的几个关键信息:当人的眼睛聚焦于一个场景时,眼睛接收到的是由场景中的物体发出或其表面反射的不同波长的光,这些光线激活了视网膜上的细胞,本质上说是激活了眼睛后面的神经元网格。初始层的神经元作为对物体边缘形状的响应得到激活,然后,能对由这些边缘构成的简单形状做出响应的神经元层会接收到这一激活反应,依此类推,经过更复杂的形状,最后到整个对象和特定的面孔。 ConvNets由一系列模拟神经元层组成。每层中的单元为下一层的单元提供输入,当一个ConvNets处理一张图像时,每个单元都有一个特定的激活值——根据单元的输入及其连接权重计算所得的真实的数值。ConvNets的输入是一幅图像,即与图像每个像素的颜色和亮度一一对应的一个数值组。它的最终输出是网络对于每种类别(狗或猫)的置信度(0~100%)。我们的目标是让网络学会对输入图像所属的正确类别输出高置信度,对其他类别输出低置信度。这样,网络将了解输入图像的哪些特征对完成这项任务最有帮助。 2012年的ImageNet竞赛中,具有8层结构的ConvNets,一举超越支持向量机,把图像识别准确率从72%提升到85%,获得了第一名。由此,沉寂多年的ConvNets再次进入研究者的视野。 从此,“ConvNets”以一套技术解决一个又一个问题,让机器学习、深度学习和人工智能在媒体的混乱宣传中上达到了前所未有的高峰。 2015年,微软在一篇研究博客中宣称:“这项用于识别图像或视频中对象的重大技术进步,表明这一系统的识别准确率已经达到甚至超过人类水平。” 4/9: 局限和天花板 但是,当有人说某张照片中有一条狗时,我们认为,这是因为他在图像中真看到了一条狗。但是如果ConvNets“说”图像中有狗时,也许只是图像中有一些其他对象,如网球、飞盘、被叼住的鞋子。因为这些对象在训练所用的图像中往往与狗相关,而ConvNets在识别这些对象时就会假设图像中有一条狗。这类关联的结果往往会愚弄程序,使其做出误判。 正如约书亚·本吉奥(Yoshua Bengio)所说:“实事求是地讲,我们不可能对世界上的所有事物都进行标注,并一丝不苟地把每一个细节都解释给计算机听。” 这个现象也叫做“长尾效应”。 所谓的“长尾”,就是指人工智能系统可能要面临各种可能的意外情况。人工智能在现实世界的大多数领域中都会面对这种长尾效应:现实世界中的大部分事件通常是可预测的,但仍有一长串低概率的意外事件发生。如果我们单纯依靠监督学习来提升人工智能系统对世界的认识,那么就会存在一个问题:尾部的情况并不经常出现在训练数据中,所以当遇到这些意外情况时,系统就会更容易出错。 现在吹破天的“全自动无人驾驶”,时不时掉链子,就是因为车辆行驶过程中的“长尾”太多了,系统不可能把已知的所有情况都在模型训练中体现,导致在自动行驶时,发生一些在人类看来不可思议的事故。 现在,每天都有大量的图片和视频产生,比如你上传的朋友圈、特斯拉等上传的路面视频等,如果要把所有的情况都标记后,送给监督学习算法训练,用于全面改善模型的准确率,是不可能完成的任务。 5/9: 强化学习,从更 全文见公众号“记得来看看”。

  • 张居正直解《资治通鉴》(上、下)
    Jeff Zhong
    推荐

    通俗易懂的方式介绍了AI发展历程;重点介绍了当前“人工智能”的主流-机器学习,从卷积神经网络,自然语言处理到强化学习。对AI发展水平,不足和未来趋势都做了精彩的描述。 目前人工智能的最大缺陷: 难以对所学到的内容进行抽象和迁移,常识缺乏,面对攻击时的脆弱。它无法理解自己的行为和感觉,即意识。目前人工智能的水平最多只是“答案提取机”,它只是将问题和答案建立对应关系的过程自动化(训练过程)了而已。 我们人类高估了人工智能的发展速度,而低估了人类自身智能的复杂性。目前的人工智能与通用人工智能还相距甚远。

  • 张居正直解《资治通鉴》(上、下)
    明 宏
    推荐

    在已知输入函数和特征函数时,求解输出函数的过程,叫作“求卷积”,实际上就是计算傅立叶积分的过程。 猜测对象的特征函数,也就是为对象建模的过程(识别) 据对象的输入-输出响应序列,进一步调节对象参数的过程,这一过程也是“学习”的内在含义。也就是说,做卷积分析,就是面对一个不知其内部构造如何的对象,通过输入一个已知的函数,观察输出函数,最终给出对目标对象内部构造的一个猜测。 逻辑智能(AI 1.0)和近20年来作为主力的计算智能(AI 2.0),向人机混合、虚实交互的平行智能(AI 3.0)迈进。 著名的经验法则:项目前90%的工作占用10%的时间,而后10%的工作占用90%的时间。 掌握核心常识以及复杂的抽象和类比能力,是人工智能未来发展不可或缺的重要一环。 现代人工智能以深度学习为主导,以DNN、大数据和超高速计算机为三驾马车 马文·明斯基的“容易的事情做起来难”这句格言仍然适用于人工智能的大部分领域

  • 张居正直解《资治通鉴》(上、下)
    Jennifer
    推荐

    如今深度神经网络在视觉领域的成功,递归神经网络在自然语言上的进展,让我们觉得似乎人工智能时代已经到来。可是我们离通用智能到底有多远?我们的抽象类比以及常识如何能为人工智能所习得?人工智能的脆弱性在哪里?对未来我们到底应该乐观还是悲观?这本书带领我们一窥究竟。

  • 张居正直解《资治通鉴》(上、下)
    💋🌴么么魚🐠🐚👙🌴🦁📿
    推荐

    人工智能的发展,让现代人受益匪浅,就小小手机就可见一斑。人类在利用高科技的同时,也被反捆绑,以至于很多人把大把时间都耗费在电子享乐上。 如果说机器人不能超过人类,只是一种保守估计,人类也是在不断的学习和跌倒的循环中发展而来的。正如作者所说,希望人工智能不要被不法之徒所利用,但是任何事物都是有两面性,只能靠我们在使用的过程中识别真伪,更好的使用人工智能,甚至是超级人工智能。

  • 张居正直解《资治通鉴》(上、下)
    任建畅
    推荐

    本书是人工智能领域难得一见的好书!作者写的人工智能有两个特点:一是严肃认真,不含半点夸大和戏说。二是逻辑清晰,文笔流畅,能够将一件事情解释到你非常清楚的程度,这是作者的一种难得的天赋。在国内参加人工智能方面的读书会,主办方请了一位科幻作家、一位文科大学教授、一位某著名理工大学教授。科幻女作家乖巧卖萌,文科教授为道德忧心忡忡,只有理科教授夸夸其谈,大谈其项目的先进性和我们难以想像的未来。可能不止在中国,美国也是大量的记者意淫与疯狂的商业炒作,使人工智能领域呈现出大量的不实之辞和混淆概念。 作者很简单地提出,我们离一般人工智能距离尚且遥远。因为机器并不知道自己学的是什么?围棋高手下不了象棋,除了下围棋什么也不会。已经训练成高手的计算机非常脆弱,一些简单改动就可以使其失灵。NLP翻译取得了卓越成绩,但个别领域的错译仍让人如同吃着喷香的米饭却嚼到了砂粒。这才是目前人工智能的真相和真实。 作者对比了人类学习与机器学习之不同,我觉得很说明问题。一是人类学习是小样本,具有举一反三的能力;而计算机目前还没有看到迁移与泛化。二是人类学习时真正理解了其内在的含义,而非仅仅知道其表层的现象。三是人类具备大量常识,这些常识来自我们生活经验的不断积累,而且这些常识可以插入进来,对当前问题实施辅助判断;而虽然有人已经在整理计算机需要了解的常识,但如何保证这些常识在计算机遇到的上下文里得到正确的理解与应用呢? 我自己猜想,目前神经网络的计算机算法虽然在一些静态领域取得了一定的成功,但它丢失了人类智能的非常重要的一环。我认为人类的智能训练有两个计算机所不具备的特点:一是人类的记忆与学习不是调参数,而是通过生发出新的神经元细胞将其固化,实际上这让记忆网络具有真正的扩展性,而不是像神经网络算法一样只调参数。调参数是人脑神经机制中最基础的部分,但远远不够代表人脑功能的阶段。二是人脑的抽象能力,实际上是一种永不停歇的深度学习,将学到的苹果落地、飞机上天等常识不是简单地存储,而是不自觉地寻找这中间可以总结的规律与逻辑。这种无休止钻研的精神,其基础还是人脑可以生发新细胞、长出新组织所带来的红利,可以形成之前从没有人想过的东西。所以作家在写作文学作品时,实际上大脑里不断在生发出一系列临时的记忆构造。这些虚拟的构造越来越多地生发出来,使虚拟人物具备性格、具备行动计划、具备典型的环境、具备逻辑情节的推进,而这些大脑生发出的新记忆如此的完备,以致于它们与真实的记忆所差无几。这种能力,在我看来,绝不局限于调参,而是一种再创造。人脑的特殊灵活结构和同构性质,使其可以从任何一个点出发,重新构造整个过程。虽然我们平时生物学意义上的记忆是由身体获取的信号脉冲经过大量压缩整理形成的,但我们也可以通过大脑的自发活动,重制和重构这个记忆的全部过程;也可以完全以抽象的方式,将自己头脑中的概念与想法层层拔高,不断形成理念与概念,而这些概念之间的再度碰撞与推导,就形成了非虚构作品的成果。所以,目前计算机的人工智能,从段位上就与真正的人类智能差距甚远。即便未来机器获得了更高的运算速度,但它用什么方式,使自己的硅基大脑生发出不同的新结构与新知识,并将其沉淀下来,在休息时,这些知识之间相互关系、相互抽象,打通成为一个整体,从而变成电脑可以累积和运用的历史经验?我们目前好像还没有看到。但愿这一天没有那么快降临。

Copyright © 2020 - 2022 Mitsuha. All Rights Reserved. 用户协议 · 隐私政策 ·