霍金、马斯克警告:AI是人类最大的威胁

2021-07-10 21:39 作者: 来源: 本站 浏览: 我要评论霍金、马斯克警告:AI是人类最大的威胁已关闭评论 字号:

摘要: 埃隆·马斯克警告:AI是人类文明面临的最大风险。然而就在同年,他却与诸多科技巨头投资10亿美元,用于人工智能研发。 据数据分析,AI初创企业融资交易量,绝大多数都流向中国。而且,全球最具价值的AI初创企业,已在中国闪耀发光。 与其他研究学科相比,AI领域从研究...

埃隆·马斯克警告:AI是人类文明面临的最大风险。然而就在同年,他却与诸多科技巨头投资10亿美元,用于人工智能研发。

据数据分析,AI初创企业融资交易量,绝大多数都流向中国。而且,全球最具价值的AI初创企业,已在中国闪耀发光。

与其他研究学科相比,AI领域从研究到商业转变,几个月就能实现。也就是几个月前还在实验室里,转眼就可以成为商业产品。比如人类第一幅由AI出品的画作,在佳士得拍卖行,就以43.25万美元的价值售出。

让AI自动识别出咖啡杯,就需要识别另一张图像,需要计算机设定程序。我们看到是照片,它看到的是像素强度,看东西方式跟人类的肉眼完全不一样。所以,需要考虑如何写这个程序,让计算机能够识别出这是一只咖啡杯。

技术人员曾努力做过很多尝试,但是没有人能够写出一套程序,让计算机能成功识别出一条人行道,一辆汽车、一只咖啡杯。

后来,意识到也许该换一套方式,而不是直接写程序。训练计算机学会自动识别的方法,事实证明确实是一个可操作的成功之道。

识别一只狗,需要经过很多层分析。虽然我们无法确切知道大脑究竟是怎样工作的,但能了解到大脑里面包含很多神经元,神经元是互相沟通的,而且中间存在着大量的隐藏工作。大脑怎么做决策,就是神经元之间的沟通和互动,以及判断哪些有联系,哪些没有联系以及联系的强度。

所以,最左边是第一层神经元,当拿到初始图像,就做开始分析,再传给下一层,下一层做计算或分析,再层层传递下去,直到最后一层出决策。

联系强度会决定神经元,看到一幅图像时的处理方式。在AI系统中,应用的神经网络相当大。可能是几千万甚至上十亿,甚至比十亿还多的神经元联接数量。

当拿到数据,把是车、猫、狗等照片传递给系统。通过不断试错的方式训练,直到系统能够自动识别,并且还能够预测出以前没有看到过的照片。

不同神经元网络之间,不同AI之间的PK。例如斯坦福大学的一位美国教授发起了一项竞赛,当把计算机程序传给教授和他的同事们,他们会用这些程序做一些图像处理,不会告诉你具体的图像,但会告诉你错误率。

可以看到在2010年的第一轮竞赛中,传统计算机视觉系统的最好参选者是30%错误率,2011年没有太大改善。但是,到了2012年就发生了比较大的变化,参选者是多伦多大学的亨特,他甚至因此拿到了图灵奖。

如果能够迅速拿到海量数据做分析,看到的结果将相差很大,错误率也会大大减少。

具体的做法是通过事例训练神经网络,而不是只投入和产出。用一句话来述具体图像,经过培训之后,进行下一个例子时,会自动找到相应图像。

例如输入网络图像,就会自动生成“穿黑T恤的男人在弹吉他”或“穿粉色裙子的女孩跳了起来”。

也就是只要输入图像,就会自动转换出文字,也就是根据每一个图像象素可以分析出,这是一个行人、一辆摩托车还是一辆轿车等等场景主题。因此,图像分割学习,对于自动驾驶技术非常重要。

另外,人脸识别、语音识别和机器翻译只要有足够多的训练以及数据源,根据相关的例子就能找到规律,可以把声音与文字联接识别出来,或是翻译出新的句子。

更进一步,把视觉和机器识别结合起来。例如在街角拍一张照片可以直接转换成文字,而且是被翻译成另外一种语言的文字。

传统编程主要是通过写代码的方式,已持续了五六十年。不同的是,人工智能是以深度学习提供数据的方式。就是用数据培训神经网络,通过数据培训程序就会成为神经网络本身,或者说神经网络本身就成为了程序本身。

图中Rosenblatt(罗森布拉特)在建立神经网络,50年代他就能编织网络,对神经网络进行培训。知识网络,30年前就已提出来。此时此刻火爆的神经网络学习,60年前却无人问津。

如果看一下神经网络表现,就可以了解到培训网络的性能越来越好。即数据越来越多,性能就越来越好。数据少的时候看不出效果,当2012年突破一个临界点,开始处理足够多的数据时,神经网络开始发光。

数据量非常重要,计算能力也得并驾齐驱,才能够实现数据培训神经网络。另外,还有一些创新,也是基于足够多的数据和计算能力才能完成。

除了图像识别、语音识别、机器翻译,用新的强大的AI工具还能做什么?实际上,除了通过给它提供范例的方式,还可以用人工智能改善任何事情,包括公司运营。

在医药领域也是非常重要,比如当你皮肤上有一个棕色点,可以用AI系统筛查皮肤癌的可能性。

神经网络跟医生一样,经过培训之后,也可以学习并分析X光扫描结果。在X光上面的显示有没有肺炎的可能,对医生来讲是并不轻松的学习过程,而神经网络就不难完成。

预测天气的规律,神经网络可以学习以预测风的方向和规律,据此在适当的时间切换风力发电或其他能源的供给,大概会节约30%的成本。而之前需要花很长时间,才能够非常精准地知道什么时候该切换。

通过培训神经网络,电商平台可以预测人们预定的东西和时间,仓库就可以据此信息快速配发货。

银行系统可以预测一些贷款是否存在欺诈等行为。还有一些人申请贷款,AI会预测对方是否能按时还清。

以上,都是有监督的深度学习。需要用非常大且非常深度的神经网络来培训它,用各种例子培训,有投入又有产出。

投入和产出结合培训神经网络,可以做预测。一旦完成培训有新的投入之后就可以预测新的产出,无论是图像还是语言、文字,都可以自动识别。

建立一个系统需要带注释的数据、一定算力、一个开放式问题、AI专家或AI服务外包供应商做。也就是说,不需要打造自己的团队,可以利用他人的服务,就可以帮助需要解决的问题。

可以积极探索预测的价值,要用更加易于访问的格式记录数据,数据需要调取的时候更加容易调出,同时建立数据飞轮。

用AI做产品,需要更多数据,监督改善系统循环往复,就是数据飞轮。不断随着时间的推移改善系统,使得竞争对手很难超越。

AI服务商可以做API(Application Programming Interface,应用程序接口)调动需求、图像识别、语言理解等,无须自己做,云服务就可以帮助完成。问题是否相匹配,往往取决于普遍性还是特殊性。

比如可以用于人脸识别的API、用于情感分析的API等需求调用,但是无法用于专业医学分析的API。当专业性要求非常高时,必须有相应的数据组合解决方案。

评估AI API供应商时,要能认识到没有完美的AI识别系统,同时也必须清楚自己对性能的需求。比如对错误容忍度是多少,是99%还是99.8%?

用AI于无人驾驶汽车领域,需要车里绝对的安全,如果做不到,实际上还是得有驾驶员。

有时供应商宣传的AI API性能与你使用的情况并不一定相符。现代AI系统经数据训练而得,需要了解其与你自己数据的一致度。例如一个人脸识别系统是基于亚洲面孔做的培训,测试时用白人面孔,就会有问题。

另外,数据= Money。数据源不能直接扔给供应商做,务必始终掌握自有数据的所有权(如果供应商使用你的数据),以保障数据的可移植性。

无监督的深度学习最有可能使用,但是成本高又投入大。如何省时、省钱、又省力的实现,是如今被关注的重点。

也许AI可以跟人一样,就是让神经网络像小婴儿似的,通过广泛看世界来学习,而不是把所有的标签范例都给它看。

例如一个输入,小孩子还在看图片,神经网络处理时,任务1就进入视频下一帧,并且可以预测下一个会看到什么。虽然任务较难,需要很多学习,但是这项任务不需要给任何数据加标签,通过大量视频让网络预测下一帧是什么,需要使用无限多互联网上的数据。任务2真正的任务,比如看马路上现在有没有车或是往来实物。

比如一句线是预测下一个单词。在互联网上有无限多数据,可以自行下载并预测,无需人的监督。

任务2是预测情感,是OpenAIGPT-2的算法,也是一个神经网络,主要针对文字和文本预测。首先给出一个提示,算法会告诉它接下来会干什么,接下来又会发生什么,类似互联网上常见的文章套路,不需要死记硬背每一个例子。

做了这样一个训练以后,还可以进一步,给它带一定正面或是负面的情感。例如这个是书评,书写得非常棒,但是电影拍得很烂等等,带有强烈情感色彩。

在语言处理方面有很多基准。比如儿童读物测试、常用名词、模式挑战等等,都是自然语言处理(NLP)处理基准。

OpenAIGPT-2的算法,记录表现好,训练量小,需要人的努力少,比高度专业化训练做得更好。

谷歌也有与GPT-2类似的算法,是BERT模型,当中有一个MASK是遮蔽,把单词遮蔽起来,让算法猜,也是一种非常自由式,无监督的深度学习。

对比之下,在所有基准里相对其他算法,谷歌BERT模型表现更好一些。以下每一张图横轴是神经元网络大小,越往右表示神经元网络越大,纵轴越往上走绩效表现越来越好。

人工智能领域最重要的趋势是神经网络越大绩效越好。无监督深度学习找数据很简单也不需要投喂,可以尽情享用互联网资源,就有足够数据可以训练。

仅有文本还不够,还需确认图像的识别,在无监督学习下能不能处理。比如填补图像或视频中一个帧的缺失。

可以训练神经网络填补缺失部分、填拼图、恢复、已经旋转变形照片还原等,可以训练神经网络完成。不需要人为添加标签,下载这些数据,生成任务即能搞定。

先从互联网上下载照片,但不要花时间贴标签。计算机就把上面照片分成两张,左右翻转,颜色象素变化一下,接下来训练神经网络做处理,在最后一层完成处理,这两张分别比较相像,就做归类。所以几十亿张照片都可以这样处理,不需要做注释或标签,就是解放式视觉系统。

懂得没有注释的数据同样有价值。未来无监督深度学习,渐渐使用得越来越多,数据注释的未来价值会有下降趋势。

例如你想拥有一台机器人,让它在家里给你提供清洁、洗碗、烧菜等等服务。目前可以造这样一台机器人,但是还需要让它足够智能。足够智能的机器人必须要了解,整个世界是如何运作,能够在真实世界里面生存。

同样,在市场营销、广告宣传以及运营物流等行业也是如此,各项工作都是一个闭环,需要先感知世界,得到反馈后再对应调整行为,再去感知,再去反馈,再去调整,循环往复的一套系统,能够让机器人更深层次了解这个世界,而不仅仅只是表面一个模式的识别。

2013年深度学习发现神经网络可以打游戏,其原理就是处理图像做决策。有所不同的是,训练它去玩这些游戏,练得越久游戏水平越高。

在伯克利有一个学习运动能力的课让机器人学习,就像人的小时候一样,先练习走、快走、慢跑等不断迭代慢慢学会跑步。

谷歌也在训练神经网络,管理什么时候打开或者关闭数据中心空调,以节省很多能源成本。

OpenAI的展示说明,如果机器人有足够多训练和练习,甚至可以单手玩魔方。

在仓库分货的机器人就可以完成仓库幕后工作,具体的流程操作会转型成自动履行订单。

据统计,每年有两万亿美元,支付于需要用手完成的工作中。目前已经在训练机器人做这些工作,它的现实价值就达到每年有两万亿美元,高于绝大多数人的年薪。

奖励系统+AI专家团队+算力+“执行中”数据收集,相当于及时让机器人学习,让它一边做一边实践一边收集数据。

需要找更多早期应用案例模拟环境,而且成本也相对容易控制。另外,如果已有人工完成,可以先拍摄下工作场景,再示范引导和训练机器人。

大多数人认为,科学和工程学领域都是非常先进的学科,需要受优质的教育才能有所突破和贡献。事实是,AI就可以发挥非常大的作用以推动工程科学和技术发展。

人体如果生病了,健康的蛋白质会去打击导致疾病的蛋白质。这些蛋白质是一些原子组合,形成了分子。它们自己以复杂方式纠缠在一起,通过3D的分子结构,可以知道哪一部分分子是在内侧,哪一些暴露在外侧,形状以及其暴露面决定蛋白质功能。

因此,第一步还是要了解3D结构。传统方式是,把冷冻过的蛋白质,放在X光里扫描,得到具体形象后,通过一些复杂的处理,就可以恢复其3D结构。可是这个程序非常昂贵,多年来仅有很少一部分蛋白质得到过X光扫描,剖析其3D结构。

然而,今天可以通过有监督的深度学习预测3D结构。一个图像输出一个标签,或者输入英文文字输出中文,对于蛋白质而言,要了解其原子序列,非常容易且成本很低。

测量的顺序,用X光把原子序列投入进去,产出时就是3D结构。从一边投入一个原子序列,另一边输出3D结构,这样的投入输出,是事先已对神经网络进行过培训。

X光告诉我们两个蛋白质的情况,绿色就是3D结构,蓝色是神经网络预测,蓝色基本上和绿色是一致的。

以下是2020年国际蛋白质结构预测(CASP)竞赛。深度学习在2008年只是表现出某种潜力,但是到2020年的时候,达到的性能表现已被认为是重大突破。可以说是AI领域最大的贡献,也是生物领域过去5-6年最大的成果。

有监督式学习,投入是原子序列,输出是3D结构。让学习预测,蛋白质序列放进去会进入数据库,数据库里有大量蛋白质序列,找到一个最接近的序列。

因为进化,当看到一个非常类似的蛋白质,就可以分析哪一部分发生了进化,哪一部分在进化当中没有发生改变。如果没有进化,很有可能就是蛋白质所要完成的功能。有一些动物进化出现问题,就死掉了,因为蛋白质不能完成它要完成的功能。

进入深度学习,需要在非常复杂的环境中来来回回学习,确保用这些序列预测3D结构。

在伯克利已开始把它用于芯片设计上,集成电路设计上,一个人可以选择一个设计,可以进行模拟。可以获得一些量化指标,进行重新设计,做设计就像打游戏一样,这个设计可以得到一个打分,还可以改进下一步集成电路设计,直到最后得到一个好的设计。目前,通过这个方法已经设计出非常好的集成电路。

用于高能物理的生成对抗网络(GAN),用加速器可以帮助收集数据,以推动物理学的发展。

现在做微积分可以用AI做,而且可以做得非常好。这种最新的发展,里面蕴藏着大量机会。

AI的持续发展是靠数据,计算能力和专业知识。每天都在生成更多数据,数据越多,AI也会越来越厉害。

摩尔定律告诉我们,计算能力芯片会越来越厉害,晶体管数量随着年代推进,可以看到一个芯片当中晶体管的量是指数级增加,每隔18个月翻一倍。

一些公司已在开发神经网络芯片,而大多数的神经网络计算都是在视频GPU(graphics processing unit/图形处理器)里。这种只用于AI的特别芯片,仍然可以获得上千倍的改进(100-1000倍改进)。

AI的创新仍有很多可能性,会继续释放出更大算力,近年实验规模也是呈指数级增加。

设计一个神经网络比苍蝇大一点,但只会识别图像,而苍蝇看到的世界是丰富多彩的。

所以潜力空间非常大,其实AI智能可以胜过苍蝇,胜过老鼠,以及触及到人的大脑范围。

再看一下算力,怎么样去计算大脑当中运算的次数,实际上有一个单位每秒的符点运算次数,人的大脑每一个或者每一对神经元通过突出进行联接,就是算每秒是联接一次还是不联接一次。

但是,目前AI系统还没有达到人类大脑级别,估计再过五年会有可能。终有一天会实现:人工智能系统更便宜,计算机应用软件更智能。

通过这本书,大家可以了解怎么让机器带来生产效率。现在的AI革命,这本书里面有解释,每一次生产效率发生大转变时都发生了什么,并且在此基础上预测AI和人类将来。

这本书有意思的地方在于作者抛出一个问题,他说如果有一天AI比我们更聪明了该怎么办?

有人就觉得是杞人忧天,想着只要把AI开关关上就可以,其实没有那么简单,如果这AI足够聪明,就不想让你关掉,会想尽办法阻止你。

所以世界会变得非常复杂,人造出来的系统或许会比我们自己还聪明、更智能。所以,2015年的新闻媒体说,AI是人类文明上的最大破坏力。

将来人类如果和超级智能体共处,我们有两条路径:是否有听觉;价值观是否一致。

例如很多年前古代有个迈达斯王,他有点石成金的力量。但是他不能和人拥抱,也不能和人握手。

有一位伯克利学者曾说,“我们最好非常确定,使用机器的目的是我们真正想要的目的。”

有一家公司走了另外一条路径,他们做的是仿生AI大脑插件,已经用上了初级AI,每天做着各种各样事情。

从某种程度讲的仿生,就是直接接入大脑里作为大脑插件,这也不是没有可能的。回顾人类进化史,人的大脑发展,也是一步步演变过来。类似的插件移植进大脑里,大脑会越来越大,也越来越强壮。

也许,有可能是一个无线联接,连接到某台计算机,让插件在大脑里面生存。就等于人类自己可以很智能,但大脑也会越来越大。

迅雷会员25天/4.5元,独享1天0.7元,请点本站上边链接购买

2021年07月10日 21:38:30

 

随机账号密码机器码:
35TL293mlV17 WN8
54VZ731xbV PJ42cc840Fwnp5
66CZ271e BR08
95YT235asU54gq RW98wz69
38HZ214l UC53ay4
17K AT50dd1
09CE397kmZ31xd LP35tc009Nl
23XH698 FI41g
88XT13 RZ93yv6
40S BR13ba
69KZ287jm PY97j
96HU632fpG65x BH04yd273Vahv

Comments are closed.

会员登录关闭

记住我 忘记密码

注册会员关闭

小提示: 您的密码会通过填写的"电子邮箱"发送给您.