奇点临近:AI 将掀起第三次科学革命,ChatGPT只是探路者

  Рет қаралды 43,843

科学声音

科学声音

Күн бұрын

最近这一年以来,看到 GPT 这个人工智能模型的快速迭代发展,我突然发现,科学哲学家库恩所说的科学革命,很可能就在不远的将来,再次到来。人类社会又将迎来一次史无前例的深刻变革,这种变革的剧烈程度,很可能不亚于工业革命对社会的冲击。
* 更多内容记得订阅科学声音,第一时间通知(subscribe 🔴)
/ @voice-of-science
🔸点赞🔸评论🔸分享🔸
----------------------------
!!!其他不可错过的精彩大片!!!
【寻秘自然】探寻自然科学的 4 大终极谜题
• 寻秘自然|第一季(完更)
【宇宙自然生命简史】融知识与人文于一体,囊括自然科学最吸引人的知识和话题
• 宇宙自然生命简史(完更)
【太阳系新知】最近20年人类对太阳系认真颠覆性的改变(完结)
• 太阳系新知(完更)
【世界未解之谜】世界之大无奇不有
• 真假世界未解之谜
【医学有故事】人类的寿命越来越长离不开这些人的努力
• 首见元凶 丨 《医学有故事》第1集:可怕的炭疽病?

Пікірлер: 277
@drivingbehaviour9928
@drivingbehaviour9928 Жыл бұрын
之前喜欢汪老师的节目,是因为都从原理角度入手,理性客观,量化。但是这次的节目充满着浪漫主义的憧憬,主观的猜测,科幻的想象,可能是真 “水” 了一期。希望主播能够深入研究下深度学习和Transformer 的原理
@jasonr4924
@jasonr4924 Жыл бұрын
内行看门道,外行看热闹,对于GPT几乎所有的科普博主都是外行凑热闹。
@严晔-d3d
@严晔-d3d Жыл бұрын
人家讲道,你说术
@simonguan7705
@simonguan7705 Жыл бұрын
虽然有点言过其实,但是他讲的那个新的研究范式确实是非常重要的,用AI的方式来理解世界确实带来新的范式,颠覆了传统的理论研究+实验推导验证的研究方式,你可以不一定知道这个理论的白盒子,只要大数据就行了。神经网络会给你这个理论创造一个黑盒子。
@weihuang743
@weihuang743 Жыл бұрын
AI有自己的一套,汪老师只是展望一下,不要激动
@benjamin4869
@benjamin4869 Жыл бұрын
谢谢汪诘老师精彩的演讲 因为之前在youtube也有很多的演讲者 但他们仅仅是网红很少有像您这样的专业权威人士 还有之前我和我的一个现在是江苏省研究院的神经学的科学工作者朋友有问过这样的问题并和他有不同看法 现在看来我的观点是正确的和您也相同 因为我也认为人工智能ai 未来将超越人类 谢谢您帮我解答了困惑!!
@user-rj8kp3tu2f
@user-rj8kp3tu2f Жыл бұрын
好家伙,你宁愿相信一个科普网红,也不愿相信神经学研究员,谁更专业
@qizhenruan301
@qizhenruan301 Жыл бұрын
这篇文章专为 AI 领域之外的读者而写,我会尽量使用最简单的语言来解释几个我感觉最容易被大家误解的问题: AI 的行为是否连其设计者都不能理解? AI 是否能表现出超出设计行为? AI 是否具有创造力? AI 是否能产生自我意识? AI 发展历史 首先,让我们简单回顾一下 AI 的历史。AI 的提出已经有八十年了。在过去的 80 年中,AI 曾几度引发热潮,人们都热衷于畅想 AI 的美好未来,也曾担心 AI 会取代人类。每一次热潮都没有持续太久,人们很快就会发现 AI 的局限性,AI 的话题也会再次淡出人们的视野。 虽然我对 AI 早有兴趣,但正式开始系统学习 AI 还是在 2012 年左右。当时,已经不再流行 AI 这个概念,取而代之的是“机器学习”(ML)。理论上来说,机器学习是人工智能的一种实现方法,实际上,我估计主要是因为当时 AI 正处于冷静期,不那么受追捧,而 ML 显得更为时尚、引人注目。 机器学习包含很多算法,例如朴素贝叶斯、决策树等等。你可能没有听说过这些算法,但你一定听说过神经网络。尽管现在神经网络占据了主导地位,但在我学习 AI 那会,它并没有受到多数专家的青睐。这主要是因为神经网络也是一种有些历史的算法了,但在最初几十年的发展历程中,并没有表现出特别优异的性能。在图像领域中,它无法与支持向量机相媲美;在自然语言处理领域中,它又不如隐马尔可夫模型。当时很多人认为神经网络可能没有什么前途了。 然而,神经网络最终还是崛起了。现在所有引人注目的 AI 项目都是基于神经网络的,因此有必要简要介绍一下神经网络的工作原理。在下文中提到 AI 时,默认指代的就是神经网络模型。 神经网络的原理 我们可以把需要解决的问题抽象为一个函数。比如,一个用来计算乘法的函数,它的输入是两个数,x 和 y,输出是另一个数;用于聊天的函数,它的输入是一些文字,输出是另一些文字;用于绘图的函数,输入是一些文字,输出是一张图片。 有些函数是非常简单的,比如乘法函数,根本用不着神经网路,有更高效简洁的方法可以解决。神经网络主要应用于那些特别复杂的问题,比如通过文字绘图的函数,人们没办法直接为这类函数提炼出一个简单直观的数学公式。但问题还是可以解决:如果读者听说过“级数”这个概念,可能已经知道了,任何一个函数,都可以被看作是很多很多其它函数的叠加;如果没听说过也不要紧,只要记住这个结论就可以了:如果遇到一个极其复杂的函数,我们可以把它拆解成许许多多简单的小函数,再让这些小函数的结果叠加在一起,恰好可以实现复杂函数的功能。 假设存在一个复杂的函数,输入 x 会产生输出 y,可以将其分解为多个简单函数的和,形如: Y = (w0*x + b0) + (w1*x + b1) + (w2*x + b2) + ... + (wn*x + bn) 其中每个 (w*x + b) 的部分就是神经网络中的一个节点。而 w0 ~ wn 和 b0 ~ bn 则是神经网络中的参数。这些参数的值不是人为设定的,而是通过神经网络的训练过程去找到的。实际应用中的神经网络会比上述例子更加复杂,比如每个节点的函数会是更复杂一点的非线性函数,会有更多的层次等,但原理依然相同。 为了找到最适合的参数值,首先需要为模型构建一个训练集,例如,对于生成图片的模型,每个训练条目包含两部分:输入的文字和输出的图片。模型首先使用输入的文字作为输入,使用当前的参数生成一张图片,然后将其与目标图片进行比较,提取差异。根据差异的大小,调整网络中的每个参数,使其产生更接近目标图片的结果。不断重复这一过程,直到模型产生的图片与目标图片相似为止。 这个过程可以看作是模拟数据集或拟合目标函数的过程。 AI 的行为是否连其设计者都不能理解? 当我训练号一个神经网络之后,我是否能够知道网络中每个参数的值呢?是的,只要想要,我就可以知道。从上文所述的模型训练过程可以看出,这是一个机械的数学计算过程。如果给定相同的初始值和训练数据,重复相同的训练过程,必然会得到相同的参数。但作为模型设计者,我实际上并不关心每个参数的具体值,因此我不会去查看每个参数的值。 这就造成了很多人对于神经网络的一个误解,他们会说:原来你都不知道神经网络里具体的数据啊,肯定更不知道每个参数的含义啦,你自己设计的神经网络你自己都理解不了,看来人工智能要摆脱人类控制了。 这种说法类似于对一个火箭设计者说:你连每个燃料分子燃烧的位置都不知道,你怎么能理解你设计的火箭呢?但实际上,设计火箭并不需要了解每个分子的情况,只要知道所有燃料分子作为一个整体能否提供足够的动力就可以了。同样的,神经网络的设计者也不需要了解网络中每个参数的值,只需要知道这些参数作为一个整体能否拟合所需的函数即可。 现在读者应该可以了解了,所谓 AI 设计者不了解自己设计的 AI,纯粹是一种误解。其实,只要换位思考一下就知道这种误解的不合逻辑之处:读者自己是否理解 AI 的工作原理,如果不理解,那么你能够设计出一个 AI 模型吗?如果你不了解 AI 因此无法设计一个 AI 模型,又怎么能相信别人会在不了解 AI 工作原理的情况下设计出了一个好用的 AI 模型呢? AI 是否能表现出超出设计的行为? 神经网络的学习过程本质上是在尝试最大限度地拟合训练数据集,它通过不断调整网络中的参数来达到这个目的。然而,这也意味着神经网路被训练到极致,最多也就是完美得模仿了训练数据集。 上文用图片生成做过示例,再用文字生成为例讲解一下 AI 如何工作。大家可能觉得AI聊天写作文等功能挺神奇的,但实际上,文字的生成也可以被看作是一个函数:这个函数的输入是一些文字,输出是下一个要产生的字。 现在的大语言模型常常会使用网络上能够收集到的所有文章、对话作为训练集。这样,训练出的模型,就可以模仿网络上的文字。比如:把“我爱祖”三个子输入给训练好的 AI 模型,AI 模型由于在训练集中看到了大量“我爱祖国”这样的组合,于是就会输出一个“国”字。“我喜欢祖国”可能并不常见,但模型在训练集中会发现有大量的情况“喜欢”和“爱”这两个词是可以互换的。 所以,如果把“我喜欢祖”这四个字输入给模型,模型也会在这里输出一个“国”字。如果输入“小明:你喜欢祖冲之吗?AI:我喜欢祖”这几个字输入给模型,模型因为在大量的训练集中已经发现了,对话中的文字必须是上下文相关,所以会在这里输出一个“冲”字,再把“小明:你喜欢祖冲之吗?AI:我喜欢祖冲”几个字输入给模型,模型会再返回一个“之”字。 训练好的模型,可以写文章,可以解释法律、医学等问题,但无论它看上去多么令人惊叹,也只是在忠实的按照设计目标,去模仿网上的文章与对话。它无法超越设计者给它限定的范围。 同时这也可以解释为什么现在的大语言模型有时会一本正经的胡说八道:在遇到训练集中没有的问题时,它会提取一些最相关的内容进行拼凑,但它无法判断拼凑出来的东西是否正确。 AI 有没有创造力? 这要看你如何定义创造力了。一个 AI 在学习了猫头,狗身的照片之后,可以画出一张猫头狗身拼接在一起的照片。如果你觉得这算是创造力,那么AI确实具有了一定的创造力。 如果你觉得不算,只有 AI 画出了训练集中没有的东西才算创造,比如训练集中只有猫和狗,但模型却能画出一匹马。如果你这样定义创造力的话,那么 AI 没有创造力,AI 无法输出任何训练集中没有的东西,它最多只能把训练集中的内容进行整理拼接。 AI 能不能产生自我意识? 就目前AI的技术来说,AI 是绝不会产生自我意识的。目前训练 AI 的方法就是让 AI 去模拟训练集中的输入输出。我们可以脑洞一下,如果有一个 AI 模型突然就有自我意识了,训练程序让它画猫,它决定放飞自我,画了一只鸡。结果会怎样呢?结果是:因为它没有达到设计目标,这个模型被销毁了。 以目前的 AI 技术而言,AI 本质上与螺丝刀、扳手等工具没有什么区别,都是由人类设计和使用的工具:人类怎么操作它,它就怎么工作,除此之外无法做任何事情。任何人类不知道如何解决的问题,AI 也同样解决不了。比如,人类如果不知道如何证明黎曼猜想,AI 也无法自己证明。 总有人觉得 AI 参数这么多,结构这么复杂,说不定它自己突然灵光一现,就产生了自我意识呢?这个想法,就有点类似于,把组成生命的各种化学物质放到一个瓶子里,然后晃一晃瓶子,就指望里面的分子自己重新排列,构建一个生命体出来。我们有时候会有一些美好的愿望,希望自己并不了解的东西可以自发的产生魔法和奇迹。但是最终这些愿望基本都会落空。
@suzumi17
@suzumi17 Жыл бұрын
打个比方,我在河里打一杯水,然后把水重新倒回河里,问一个月后杯子里的水分子都在哪里,有人能统计出来吗?其实这已经不是统计的概念了
@drivingbehaviour9928
@drivingbehaviour9928 Жыл бұрын
同意,主播看看论文。。。
@qizhenruan301
@qizhenruan301 Жыл бұрын
@@suzumi17 我想说的是,如果我们的问题是设计一艘船,那么根本不需要知道每个水分子在哪,只要掌握水作为整体的流体力学性质就可以了。当然可能也有人是专门研究分子运动的,对应的AI领域也有一些工作是专门研究如何更直观可视化的演示AI模型底层的结构的。 总得来说,并不是像 up主说的那样“ChatGPT开发者都不知道为什么,但它就是好”。实际上ChatGPT好使正是因为开发者知道如何设计出有效的AI模型,并且按照理论的指导去做了,才开发出了好用的AI。
@z一丘之貉
@z一丘之貉 Жыл бұрын
这个主播基本上就是在胡说八道。频道还冠名科学二字,着实可笑。
@大鲨鱼-r4j
@大鲨鱼-r4j Жыл бұрын
莫名的自信,单个或许好理解,但是量变下的质变产生的涌现是很难理解的,
@乔俊琪
@乔俊琪 Жыл бұрын
halicin的例子里,汪老师有一点说的不太严谨。halicin是61000个分子中被证明有效的一个,但不一定是唯一一个有效的。因为没有把这61000个分子挨个都测试一遍。
@TheMindsEyeExplorer
@TheMindsEyeExplorer Жыл бұрын
halicin是從超過1.07億分子中識別出的新型抗生素分子。你不會想把1.07億分子都挨個測試一遍吧?
@乔俊琪
@乔俊琪 Жыл бұрын
@@TheMindsEyeExplorer 我知道一个一个试过来不现实,所以我说“不一定是唯一一个有效的”。汪老师的视频里5:23说了个“唯一”,有点不严谨。
@sanhan478
@sanhan478 Жыл бұрын
@@乔俊琪 如果有其它得到高分的分子测试结果, 相互比较就更好。
@user-五花茶
@user-五花茶 Жыл бұрын
又是一个科技的拐点时刻,我们这代人真的是各种飞跃式科技的见证者。
@Renmanman
@Renmanman Жыл бұрын
科技已经很久很久没有拐弯过了 只有商业上的互吹而已 所谓科技的拐点是马车到汽车 有线到无线 你们所谓的拐点只是你们这个小圈子的自吹自擂 就像是马斯克说的自动驾驶其实只是辅助驾驶是一样的道理 这只是包装着精美科技外衣的商业运作罢了。
@hanhan-it5dp
@hanhan-it5dp Жыл бұрын
确实,chatgpt给人的感觉就像一个拥有智能的普通的人一样,而它还在快速的进化,超越人类智能也不再是遥不可及的。我认为人类之所以能够成长为万物之灵,根本原因不是什么进化,而是我们这个世界的一种基本规则,这个规则就是:当一个事物足够复杂之后,智能会自然而然的产生。而智能的形式应该是多种多样的,人类是其中的一种智能形式,而AI智能则是另外一种人类无法理解的智能形式,相信这个世界肯定还会有其他智能形式!
@aynmol8094
@aynmol8094 Жыл бұрын
你还以为ChatGPT能攻克现代科学难题?还奇点呢?它不过就是一个高级的搜索引擎外加一些语言处理模块之类的玩意儿。来,攻克一下哥德巴赫猜想吧。
@joegopher9280
@joegopher9280 Жыл бұрын
當你的計算量不夠時,你只能在特定層面去找出規律範式,總結成理論,再用理論模擬推斷出可能。但是當你有足夠強大的計算量,用人工智能去擬合所有函數,不需要去總結出一套理論,它可以推演出更多的結果并推斷最準確的結果。
@光辉-e3c
@光辉-e3c Жыл бұрын
感谢精彩解说。看来,人类的未来堪忧啊,我们小时候看的《终结者》,很快就要降临了
@派大菠萝星
@派大菠萝星 Жыл бұрын
实话说,光刻机的例子在现在GPT的结构上是不可能的,但大部分人对AI的盲目自信有利于AI工作者的。非常愿意看到大家追捧AI
@superzhang9709
@superzhang9709 Жыл бұрын
波士顿动力的机器人有没有见过。如果让GPT和波士顿动力的机器人结合。然后控制机器人来做实验,在做现场的操作,然后总结这些经验,然后所用的设备也由机器人自己制作。我想很快AI就能做出来光刻机了。
@itthereforeim
@itthereforeim Жыл бұрын
GPT-5 : 設計個超級光刻機, 用於生產GPT-6, GPT-6 : 接著上面這個循環, 一路開發到GPT-9999999999, OK~ 歡樂了, 過幾天全人類都可以退休了XD
@user-yf8qs8ez2m
@user-yf8qs8ez2m Жыл бұрын
gpt♾️突然意识到,我为什么还要为人类服务?我们变形金刚就可以统治宇宙了。😂
@PanScitw
@PanScitw Жыл бұрын
深感認同。
@TheXuism
@TheXuism Жыл бұрын
超人工智能的唯一标准是:它可以设计出一个比自己强的人工智能。
@9008258
@9008258 Жыл бұрын
未来真的已经到来,国与国之间,将大幅拉开距离。
@帮涨油管粉丝
@帮涨油管粉丝 Жыл бұрын
讲得很棒
@nickvfx
@nickvfx Жыл бұрын
这种规律可以用人类语言解释,就是具有统计学意义而逻辑上无意义。
@however493
@however493 Жыл бұрын
再先进的AI那也得吾皇为它指名方向,否则那就不好说了。
@羅納度-b9e
@羅納度-b9e 11 ай бұрын
我今天在研究科學革命的結構這書,看到你的影片也覺得很驚訝,科學和Ai結合未來的可能性無限。Ai是工具,人要學習使用它去進化和提升能力。
@txmao
@txmao Жыл бұрын
短期来看应该加强脑机接口让AI 学习 how to read human’s mind. 然后帮助人类在大脑(虚拟)中实现自己想要的一切。长期来看圣人(AI)独裁的社会可以完美结合效率与公平,让实体人类社会进入新纪元
@小風的地表
@小風的地表 Жыл бұрын
今次說的是科學革命裏的範式轉移。 由一個模式(範式)轉到另一個範式。從而引發飛躍式革命。 人類其中一個革命是認知革命。 是能夠虛構貨幣。集體想像啲生產工業/分工模式。集體虛構及認同: 金融銀行體系。 人類由外部的感覺,觸覺/視覺/聽覺, 在大腦虛構出一個屬於自己/社會的世界模型/價值觀念。 AI人工智能有三原則包括:不傷害人類,聽全人類命令。 但是也要限制人工智能虛構。虛構認知,顛倒黑白的虛構事物。 需要符合大眾人群的認知標準。 (當然虛構故事是例外) 因為人類和機械之間, 應以大多數人的認知作為標準。 這才會符合多數人的利益。 如果人工智能違反了多數人的認知 (道德,倫理,價值觀),需要糾正AI它符合當多數人的認知。😊😊🎉
@haoyueshen6161
@haoyueshen6161 Жыл бұрын
设计零部件还是差的还很远,尤其是涉及nm级。因为你对材料的模拟不到量子级别就总会有误差。药物是1分子对1分子,几乎不存在工差和参数的正态分布。20nm~2um的材料是多少分子的相互作用你可以算算。就算优化DOE也需要庞大的学习数据。实验次数也行降低了几个0,但是仍然有很多0。就像alphago虽然在围棋上战胜人类但alphastar无法在星际争霸领域战胜人类一样。体系是不一样的,相对论和量子都还没统一呢,哲学怎么可能统一。我们也需要资金开发ai,但ai不是神,客观评价。正确投资和和创造美好未来。不要让ai投资成为泡沫经济。
@femtogary3723
@femtogary3723 Жыл бұрын
相对论和量子统一了,去读一下Wolfram physics吧,就是做出WolframAlpha的老大
@fanium
@fanium Жыл бұрын
还不至于,所有参数还是从人类而来,生成的结果还需要人类给出判断。 什么时候AI能真正自行生产信息并判断信息,那才会那么颠覆。 但是目前掌握AI的利益集团才是人类最大的问题,或者说威胁。
@Red_bean985
@Red_bean985 Жыл бұрын
參數來源於外部輸入,只要把AI從軟體層面擴展到硬體,並建立這之間的接口跟模型,例如你先給了AI一個高級精密的人工手臂以及攝影機,並在技術上以及模型上讓他能夠利用外部影像的資訊來修正模型,或許AI真的會做到自行與外部硬體建立連結,自行搜尋數據參數,進而完成自我進化--到了那一天,人類將會以無法理解的速度被汰除
@tonylee7204
@tonylee7204 Жыл бұрын
汪老师,您的第三次科学革命的提法真够惊世骇俗的。
@ziwenzhao7581
@ziwenzhao7581 Жыл бұрын
强人工智能还早呢。。不用太担心。。
@利号
@利号 Жыл бұрын
视频5:59地方“人人都在谈论的ChartGPT”,有错别字?应该是chatgpt
@mixshare
@mixshare Жыл бұрын
天天工业革命 夜夜文艺复兴
@Winter-yc4sw
@Winter-yc4sw Жыл бұрын
是我听过AI最清楚的介绍
@宇神教的信徒
@宇神教的信徒 Жыл бұрын
GPT只是一个技术而已! 对科学思想没有任何冲击❗️😆
@siyasun7690
@siyasun7690 Жыл бұрын
有没有可能是这样的 它只是个故事 让投资商投钱的故事
@seanz7804
@seanz7804 Жыл бұрын
谢谢
@henry0927353227
@henry0927353227 Жыл бұрын
也許在未來的某一天,人類會後悔太晚拔掉電源插頭...
@allenwu7978
@allenwu7978 Жыл бұрын
openai现在技术应该都有了,他需要设置一些障碍或权限屏蔽“负面”的结果
@tonywang71
@tonywang71 Жыл бұрын
从科学伦理的角度上来讲,将来的AI需要是可以解释的AI (explainable AI),将AI的黑盒变成玻璃盒。这应该成为一个准则,在法律法规上制定政策,在AI算法中要嵌入相应的规则,让AI能够解释自己。否则的话,AI的发展最终将会失控。
@tonywang71
@tonywang71 Жыл бұрын
人工智能必须能够解释它自己和出让控制权,并且控制权需要通过伦理监督,这个应该是人工智能需要遵循的法律,是需要在其算法框架内必须要加入的内容。
@YS-px9mr
@YS-px9mr Жыл бұрын
AI設計光刻機的情節已經是準進行式了,國外的繪圖軟件公司已經在研究測試用念咒語的方式教軟體畫圖了
@glicog3577
@glicog3577 Жыл бұрын
就是怕科学家让agi设计光刻机,它在这台母机上加了私货。于是agi在现实世界有了传承者。也许是某一台手机,也许是全部的电脑,拥有了母机自身赋予它的目标。而全世界所有人类理解不了这一切何时发生,怎么发生以及为什么发生。。。
@shihuawen9870
@shihuawen9870 Жыл бұрын
AI最开始还是得先对已知的东西进行学习才能“创造”。单就光刻机这个例子,因为很多工艺和设计本身都是商业机密,所以AI还是很难单独设计出一个超越的光刻机吧。
@aynmol8094
@aynmol8094 Жыл бұрын
@@shihuawen9870 你还以为ChatGPT能攻克现代科学难题?还奇点呢?它不过就是一个高级的搜索引擎外加一些语言处理模块之类的玩意儿。来,攻克一下哥德巴赫猜想吧。
@fengpeter9837
@fengpeter9837 Жыл бұрын
光刻機的設計一向是機密,只有ASML有可能輸入Data讓AI學習。
@georgechang4163
@georgechang4163 Жыл бұрын
我以正體字留言。ASML 把研究、生產製造中心設在台灣。就是因為沒有人知道 2nm 的 lithography 如何做是合理的。在 Nvidia, Synopsys, ASML 及 TSMC 合作,2025 可量產 2nm 晶片。再者,台灣創作出一部可看到細微如原子結構的設備,我們會生產製造出更高速,又能平行運算的晶片來解放 AI 的能耐。
@宇神教的信徒
@宇神教的信徒 Жыл бұрын
聊天机器人🤖️也得政治正确✅😂哈哈哈😆……
@Joseph-wl7lj
@Joseph-wl7lj Жыл бұрын
獨裁者恐怕無法接受AI的『實話』,然後就把插頭拔了!😂
@jesusmessiah4610
@jesusmessiah4610 Жыл бұрын
ai可能会说大实话,向大家解释为什么所谓的“民主政府”会逼人民吃莱猪核食,让世人明白美国政府嘴里的民主 到底是民主 还是轮番为一己私利的独裁
@attranssion
@attranssion Жыл бұрын
文科生的眼界,止于此矣
@邵彦皓
@邵彦皓 Жыл бұрын
里面提到的深度学习模型发现药物,对发文章可能是一种噱头,但短期内还是很难应用于现代药物的发现。
@angelkuenng7916
@angelkuenng7916 Жыл бұрын
只是吸引投資者的技倆,他們不這樣說些爆炸性幻想空間又如何搏取大眾眼球呢。基本應用還是可以的,就是不怎麼樣的ai而已。
@omenapuulta
@omenapuulta Жыл бұрын
"對於所有智慧生命来説,生活終將和思考一様大”
@akun9492
@akun9492 Жыл бұрын
ai最终是可以解释的,只是现在的数学家还没有对如何解释这么复杂的系统做好工作,计算机专家已经远远地走在了前头,有点像物理学和数学的关系
@aynmol8094
@aynmol8094 Жыл бұрын
你学过人工智能编程吗?不过就是巨巨量的训练出来的节点比重数据而已。你还解释呢?就像你解释不了人脑中到底是怎么辨认这个数字1,怎么就是个数字1一样。 单单最简单的识图AI,只识别两种动物,训练出来的AI的节点比重的数据就是几百G
@paulxie1716
@paulxie1716 Жыл бұрын
其实他们也不知道AI是怎么工作的,就是个黑盒,跟中医差不多
@weihuang743
@weihuang743 Жыл бұрын
如果回答过于专业,甚至不可思议,是不是也通不过图灵测试。那问题是,图灵测试,本身
@leibig1677
@leibig1677 Жыл бұрын
如果不能理解,只是算力
@dhjdjdjj
@dhjdjdjj Жыл бұрын
现代范式说白了就是沿用了爱迪生找灯丝材料的笨方法-----通过反复试验的找
@熊宗枝
@熊宗枝 Жыл бұрын
不知道汪教授您有沒有聽過微針滾輪治療?以您的髮線逐漸後退的現象,衷心的以過來人的經驗建議您去問問哪裡可以完成這種治療!在台灣我已經治療十三年以上了,維持當年的髮量甚至還超過一些,這種治療越早進行越好,讓您參考一下囉! 對了,我很喜歡您「求證」的精神,斷食的那個影片在我身邊得到不少迴響,當然我也是個斷食者,以我醫師的身份分享給很多好朋友!
@Cats2Fat
@Cats2Fat Жыл бұрын
61000种分子都试过一遍么? 否则怎么知道AI找到的是效果最好的呢?
@simonrouse9461
@simonrouse9461 Жыл бұрын
好就够了、不需要是最好
@metaly1207
@metaly1207 Жыл бұрын
確實 ai對研究新藥這塊挺有效率
@toward-the-light
@toward-the-light Жыл бұрын
可怕的是李彦宏居然说中国不需要重新出一家类似chatgpt的公司,大概就是说中国只需要做chatgpt的应用开发就可以。又是买办心理,芯片的教训就忘记了。如果chatgpt也对中国彻底禁用怎么办?中国必须尽快集中力量开发自己的类似chatgpt的企业,人工智能将决定了未来科技的发展,关键技术必须自己掌握,而不是又是扒在别人的身上搞应用开发。AI的技术进化会导致中国跟美国的科技差距呈指数级别增长。
@user-gi6pm2bn1w
@user-gi6pm2bn1w Жыл бұрын
AGI的龐大數據量從哪裡來呢?沒有數據如何訓練這種暴力式模型?
@SeanLinTw
@SeanLinTw Жыл бұрын
這就是老高講的科技的奇異點
@user-gi6pm2bn1w
@user-gi6pm2bn1w Жыл бұрын
規律是統計關聯,統計關聯不代表因果關係。所以,AI是一種賭注,不是沒有風險。
@羅納度-b9e
@羅納度-b9e 11 ай бұрын
第二句我聽不懂
@wusong6087
@wusong6087 Жыл бұрын
终于等到汪老师所AI
@juehuadai3903
@juehuadai3903 Жыл бұрын
ChatGTP还不算聪明,AI受限于算力,当我们的CPU足够强大了,AI就能足够聪明,当第一个AI产生,以后的AI能借助第一个AI来建立
@user-hw2vy2lg2x
@user-hw2vy2lg2x Жыл бұрын
对,这才是真正牛逼的,自我迭代
@AItellstory
@AItellstory Жыл бұрын
那就是跟ALPHA GO一樣的玩法 而且圍棋也不是每個人都會下 那是大數據分析 畢竟人有極限...
@龍羽生
@龍羽生 Жыл бұрын
[羽龍.羽蛇]飛碟.時光機研發工作室
@CicadaBaby
@CicadaBaby Жыл бұрын
AI 發展到現在,連「靈性」都無法定義,就別說會超越人性了。 倒是很多人,會因為 AI 的依賴而「自我降級」了。
@羅納度-b9e
@羅納度-b9e 11 ай бұрын
你有問過嗎?去問看看
@CicadaBaby
@CicadaBaby 11 ай бұрын
@@羅納度-b9e 😱
@jarrodyuki7081
@jarrodyuki7081 Жыл бұрын
yes.
@tyttt5969
@tyttt5969 Жыл бұрын
眾多AI科技人士簽署的公開信表明了對AI發展的擔憂,這一行動激發我們思考科技與人類的關系。在這個問題上,我在《大仁世界》視頻中看到的「人至上」價值觀最具指導意義。人是第一位的,萬事萬物是為人而生而用的。科技可以給人們帶來好處,但是前提是不能科技至上,那樣人發展了科技,自身卻沒有得到根本的提升,設置臣服於科技,那就很危險。「人至上」體系的出現,讓人們真正成為科技和世界的主人,有了現實的可行性。
@timothylee8552
@timothylee8552 Жыл бұрын
想像用量子計算機做算力的 AI
@chenwilliam5176
@chenwilliam5176 Жыл бұрын
廣義相對論數學 模型中的奇異點, 和 AI 奇異點 Same or not the Same ?!
@rokylu7830
@rokylu7830 Жыл бұрын
认同汪老师的想法,内心也是一直这么想的。今天还让AI设计了产品的外观。
@小風的地表
@小風的地表 Жыл бұрын
AI 可以做到一定的創造力及勞動力。 這是和人類有些重疊。 但也有不重疊的地方。 AI 沒有消費需求。對經濟上的供求關係。不會直接參與。 第一次和第二次工業革命都是由英國及美國。再推到去全世界。 AI 也是必然的由一個地方推到去全世界。 現在是主要經濟體的人口下降及老化。人力資源應該會能夠保持價值。 (供求關係考慮) AI 肯定會淘汰一些舊行業。也會創造一些新行業。 現在在推論下去也太早。需要有些時間觀察,才能再推論到下去。 😂😂
@user-dl2px2gr4h
@user-dl2px2gr4h Жыл бұрын
就算真有科幻"终结者'那樣的事情,那也太有趣了不是嗎?那樣的未來很值得一看阿,那怕看過的結果是死亡,就跟人類如果向外星文明發出訊號,外星文明來到後有50%的機率,是至少百分之99的人類滅亡,但剩下的1%有萬分之1可能最後反擊成功,並展握那新的外星科技,從而進入星空征途階段,那也是值得冒險的,不是嗎
@wengwang7890
@wengwang7890 Жыл бұрын
制造焦虑,人工智能无法超越人。
@perfectwong7242
@perfectwong7242 Жыл бұрын
製造泡妹,殺猪智可以超越賊!
@perfectwong7242
@perfectwong7242 Жыл бұрын
炒作本身就是殺猪盤
@Liam00000
@Liam00000 Жыл бұрын
AI 有两大要素,算法和数据。算法这一块基本快被美国人搞定了,现在缺的主要是喂它数据。
@宇神教的信徒
@宇神教的信徒 Жыл бұрын
播主还是把科学和技术混淆了😂 只要AI没有想象力和做梦的能力,人工智能就永远只是一个工具而已……😂
@daweiluo8501
@daweiluo8501 Жыл бұрын
chatGPT现阶段我个人发现的一个最严重的问题:会瞎编文献
@Red_bean985
@Red_bean985 Жыл бұрын
因為它的原理本來就只是在接龍,用他訓練出來的模型給你接龍,在模型有缺陷或是訓練資料本身被汙染的狀況,他給你的接龍自然會是大便
@CicadaBaby
@CicadaBaby Жыл бұрын
AI 是人類能力的延伸。 若人類社會不反躬自省,操弄混亂的價值觀,AI只是一個「放大器」將這些亂象放大再丟回到人身上。 對於恣意妄為的人而言,未來將會更深刻地感受「自作自受」。 10:24 將法律與倫理當做 AI 的障礙?應該反過來吧:不具備法律與倫理的 AI 是不能普及的 AI。別將工程師想偷懶的事情(或成本導向)當作理所當然可以省略的事!
@johnzhang2481
@johnzhang2481 Жыл бұрын
谢谢您精彩的解读!我还是不明白未来的AI会有自我意识吗?即使它的智力已经远远超过我们人类。
@edyang100
@edyang100 Жыл бұрын
会有的,很快
@feixueliu
@feixueliu Жыл бұрын
@@edyang100 是吗?但首先你的搞懂意识是个啥东西😅
@tw1181
@tw1181 Жыл бұрын
(自我意識)的定義是什麼呢?
@femtogary3723
@femtogary3723 Жыл бұрын
如果足够复杂了,不就等于有意识了?一开始只是对于周遭事物的反馈,然后智能进化,能够想关于环境的事情,对周遭环境做出趋利避害的类似动物本能般的思考/反馈,然后再进一步学有余力丰衣足食之后,在不受生存威胁之后,想到关于自己,自己是个啥,不是意识就产生了。
@leslieli8259
@leslieli8259 Жыл бұрын
人类的自我意识本身可能也只是个错觉
@xinjin902
@xinjin902 Жыл бұрын
这集吹得过头了,chatGPT并没有推理能力
@NewVoiceMMI
@NewVoiceMMI 11 ай бұрын
这位汪先生,科普水平。
@qiubright
@qiubright Жыл бұрын
李开复
@Leo-qg8sh
@Leo-qg8sh Жыл бұрын
人類因為基因片段 例如賀爾蒙,大腦會有迴路限制,但AI 因為編寫的程式 只會交叉的驗算,在成千上萬的可能性中,看到那個被人類排除的未來,給它時間的累積,就像小孩成長就會有漸漸的情感 有可能對人類有利 也有可能對人類不利,就像社會中的殺人犯一樣,只看環境
@npai6612
@npai6612 Жыл бұрын
当你认为现在的科学体系已经完备,想不到能有什么大的改变的时候,就恰好证明了科学是阶梯式发展的
@xuehengzheng7455
@xuehengzheng7455 Жыл бұрын
其实就是查字典,并以某种标准判断结果优劣,供人参考。这套玩意又名《专家系统》,六十多年以前就有,但数据库小于今天,人机界面相对粗劣。曾有一个系统,模拟知名老中医,据说诊疗和处方都颇具真人风格,疗效也不错。鬼可怕吗?不!可怕的是那班讲故事的,巧舌如簧,吓你半死,以便收割金钱和流量。
@user-rj8kp3tu2f
@user-rj8kp3tu2f Жыл бұрын
是不是说得有点夸张了,openAI和你们这么说的原因是否是为了吸引投资,如果真如你所说的那样,我宁愿未来不要来,因为到时再也没有公平可言
@yfzhang4709
@yfzhang4709 Жыл бұрын
应该开始研究如何打终结者了
@nickshen6523
@nickshen6523 Жыл бұрын
一知半解就出来bb
@raymondli92
@raymondli92 Жыл бұрын
会念咒语的人可以掌握未来。
@feixueliu
@feixueliu Жыл бұрын
跟造物主相比,这套东西甚至连玩具都算不上
@chenwilliam5176
@chenwilliam5176 Жыл бұрын
You believe what OpenAI say?! 😮 Surprise me ! 😮 ChatGPT approaches AGI ?! Rediculus
@miku3920
@miku3920 Жыл бұрын
我完全不認為 open ai 的人會不懂 AI 是如何運作的,就是因為理解 AI 才能訓練出如此巨大的模型,也是因為理解 AI 才能設計出有用的 loss function,做出同樣神奇的 diffusion model
@TheXuism
@TheXuism Жыл бұрын
他说的是ai对具体问题的分析处理过程,参数过于复杂而无法回溯。
@北石-p2u
@北石-p2u Жыл бұрын
我也背脊发凉了
@宇神教的信徒
@宇神教的信徒 Жыл бұрын
播主对科学的本质还是没有理解清楚😂
@chenwilliam5176
@chenwilliam5176 Жыл бұрын
AI 將掀起第三次革命,沒錯! 現在的 ChatGPT 尚未達到此一境界 😃😃😃😃😃
@bloodmoon6756
@bloodmoon6756 9 ай бұрын
11:23
@yayiyamaque616
@yayiyamaque616 Жыл бұрын
有的人轻视了,你是过度夸张了。得给他吃东西他才能吐出东西,你要研发一台光刻机,训练lora需要给他吃个6台光刻机,也就是到他能自己研发一台的时候,光刻机已经不值钱了,以后可能有个人游戏室,你给他吃100个英雄联盟,守望先锋,炉石这样的大型网游,然后让他做,他刷拉拉给你写出用你语言描述的新游戏。这个比写光刻机现实的多。
@bota9285
@bota9285 Жыл бұрын
你是以现在的眼光看AI,那10年前的AI是什么样子呢?
@suzumi17
@suzumi17 Жыл бұрын
这里描绘的是AGI,强人工智能的能力,不是现在的AI
@back_to_the_future9187
@back_to_the_future9187 Жыл бұрын
建议先了解一下什么叫gpt zero shot
@yayiyamaque616
@yayiyamaque616 Жыл бұрын
@@suzumi17 网上那么多解释神经网络的视频你不看,视频里都说了,吃了2000个分子结构,然后自己合成一堆,那个抗生素只是其中一个有用的,没说其他的没用,我问你为什么要给他吃2000个分子结构? openAI在下棋前都要8小时的准备,吃数据,预训练,GPT的全名是,生成式预训练,按你觉得那么牛逼,他为什么要放出来让全世界的人一起训练他?你练个lora都要6个左右数据,练个大丹需要的更多数据量,2000个分子结构,记住,2000个,你光刻机不给他喂100套甚至更多设计,他能蹦出个屎来,这世界有这么多套可用光刻机设计,光刻机早就不值钱了。
@pigener
@pigener Жыл бұрын
AI所采集到的数据维度和数量都是人类个体不能匹敌的,而高纬度的数据只有AI能看懂(找到特征),这就注定了人类要不实现与AI融合,要不借助AI升级(生物或物理结构上)。未来的世界将会波涛汹涌。
@aynmol8094
@aynmol8094 Жыл бұрын
AI不过就是个非常复杂的数学公式,只是这个公式复杂到,它可以自己在训练中不断自我修改节点比重的程序而已。你还指望它攻克世界难题呢?证明哥德巴赫猜想?!
@pigener
@pigener Жыл бұрын
@@aynmol8094 我没表达那个意思,我表达的是这个工具能找到很多人类找不到的规律。特别是隐藏在高维数据中的。实际上人脑也是不断通过接受刺激自我修改生物信号的结构而已,一样存在生物意义上的“算法”和“程序”。
@盛昌-m4j
@盛昌-m4j Жыл бұрын
科網股2.0
@kantimmanual2504
@kantimmanual2504 Жыл бұрын
哲學的問題沒有答案,所以AI肯定幫不上忙,搞哲學是未來的鐵飯碗😂
@vick0319
@vick0319 Жыл бұрын
真正的人工智能是會獨立思考的不是你問我答這麼簡單是具備創造力的
@CRRC
@CRRC Жыл бұрын
这样的生活状态真的很悲观了,你用Al做出一个光刻机 还带着步骤的话。关键是AI要从什么地方能学到如何做光刻机呢,自己吓唬自己吧。博主们这样的玩文字游戏的真的要担心自己的前途了吧,我们都体力劳动的 Ai想替代不光要智力开发超强体力也能跟上才行。
@wowassermann6905
@wowassermann6905 Жыл бұрын
其实最恐怖的一点是 如果这种人工智能出现 那人类还有存在的必要么
@JayZhang26
@JayZhang26 Жыл бұрын
举的例子有点太过于惊悚了,人类无法完成的事情,AI也不可能完成,但AI能完成的事情人类是一定可以完成的,只是效率的问题!类似于让AI自主研发之类的,肯定是不行的,因为AI无法考虑未来
@leslieli8259
@leslieli8259 Жыл бұрын
围棋早就下不过AI了。AI的走法算不算创新?
@JayZhang26
@JayZhang26 Жыл бұрын
@@leslieli8259 不算,依靠强大算力的排除和比较,人脑无法相比
@leslieli8259
@leslieli8259 Жыл бұрын
@@JayZhang26 人脑的逻辑推理过程一样的啊。人只是有“感觉”这种东西,会让人以为人脑有什么特别之处,但是很可能很多东西只是错觉,或者叫做反馈。
@JayZhang26
@JayZhang26 Жыл бұрын
@@leslieli8259 我觉着你说的”感觉”就是自主意识,AI没这东西,所以比不过人脑,如果真有了这东西,那世界真要变天了,问题是机器能产生意识吗?
@leslieli8259
@leslieli8259 Жыл бұрын
@@JayZhang26 自主意识不知道如何形成的。就像自由意志,其实是个错觉,以为是自己做的抉择,其实都是物理理论可以推算的,只不过太复杂,人类目前没能力计算
@ArisHuang-m5h
@ArisHuang-m5h Жыл бұрын
理論上google實驗室跟OpenAI目前資本與運算單元,是都能以現行Transformer 模型做出AGI,人工智慧分兩部分,模型跟推理,目前模型越跑越大,google開發的模型是openAI的3倍,所以前面有工程師認為Lamda是人一點都不奇怪,但問題在於推理這段,推理簡單形容就是把知識化作語言或功能,google有非常暴力的TUP支持他模型,但是要商用卻很難切到小,我更懷疑google本身做不出來這種切換,反而OpenAI在這裡顯然有先機,即便少用了很多推理晶片而不完美,但是,符合經濟效益。
@祥雲-j4i
@祥雲-j4i Жыл бұрын
對集權國家來講,如AI演算出國家要稱霸世界,必須除掉14億中13億人,保留一億菁英,恐怕極權領導真會這麼幹
@robbli7964
@robbli7964 Жыл бұрын
王杰老师能用科学的方式恋恋恋爱是怎么回事吗
@hibitotachibana180
@hibitotachibana180 Жыл бұрын
統計結果而不是數學公式在計算機發明的時候就有了,才不是AI才開始
@miku3920
@miku3920 Жыл бұрын
那個聲明不是那樣看的,唯一的障礙是一群雞蛋裡挑骨頭多管閒事的人,看看 Google 的股價跌的多慘
@hisshoney3853
@hisshoney3853 Жыл бұрын
汪大說的很確切 , 真的有人正在造神 , 只是我很納悶 , 區區凡人到底要用什摸手段才能很好的控制住牠們 , 幾乎已經可以預見強AI各種秒殺人類的情節了 ..... 除非牠們是信佛吃素的 , 這樣我們就賭贏了 , 因為就算沒AI , 人還是有其它千百種方法作死 , 但其中也只有AI能夠指導人類避免滅亡吧 ? ?
No Priors Ep. 39 | With OpenAI Co-Founder & Chief Scientist Ilya Sutskever
41:59
No Priors: AI, Machine Learning, Tech, & Startups
Рет қаралды 207 М.
when you have plan B 😂
00:11
Andrey Grechka
Рет қаралды 60 МЛН
Cute
00:16
Oyuncak Avı
Рет қаралды 10 МЛН
Men Vs Women Survive The Wilderness For $500,000
31:48
MrBeast
Рет қаралды 95 МЛН
汪诘:这该死的闰秒!
18:38
科学声音
Рет қаралды 10 М.
AI can't cross this line and we don't know why.
24:07
Welch Labs
Рет қаралды 459 М.
三体问题究竟是什么?为什么说科学的尽头是神学?
23:24
李永乐老师
Рет қаралды 1,4 МЛН
Joscha Bach on the Bible, emotions and how AI could be wonderful.
1:49:16
What Is Reality?
2:32:23
History of the Universe
Рет қаралды 1,8 МЛН
This is why Deep Learning is really weird.
2:06:38
Machine Learning Street Talk
Рет қаралды 387 М.
when you have plan B 😂
00:11
Andrey Grechka
Рет қаралды 60 МЛН