加入收藏 | 设为首页 | 会员中心 | 我要投稿 东莞站长网 (https://www.0769zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

OpenAI联合创始人格雷格布罗克曼关于AI的变革潜力

发布时间:2021-08-06 16:41:33 所属栏目:大数据 来源:互联网
导读:非营利性人工智能研究组织OpenAI的联合创始人格雷格布罗克曼(Greg Brockman)从小就对人工智能感兴趣,但他并没有立刻来到这个领域工作。Brockman在转到麻省理工学院之前在哈佛大学学习计算机科学,在那里他退出了推出在线支付平台Stripe。作为一名创始工程师
非营利性人工智能研究组织OpenAI的联合创始人格雷格·布罗克曼(Greg Brockman)从小就对人工智能感兴趣,但他并没有立刻来到这个领域工作。Brockman在转到麻省理工学院之前在哈佛大学学习计算机科学,在那里他退出了推出在线支付平台Stripe。作为一名创始工程师,布罗克曼帮助将业务从四人扩展到250人。但他将自己的心脏放在另一个领域:人工一般情报,或能够执行人类可以执行的任何智力任务的系统。

Brockman让Stripe继续从事AI工作,从头开始建立知识库。他与在大学里成为朋友的研究人员重新联系,阅读有关机器学习基础知识的书籍,并与Y Combinator总裁Sam Altman联系。幸运的是,奥特曼一直在考虑启动AI实验室。

该实验室成长为OpenAI,其中包括Altman,Elon Musk,LinkedIn执行主席Reid Hoffman,Peter Thiel以及其他业界巨头作为其支持者。其声明的目标是“建立安全的人类AI”,并通过机器人,游戏和数据集生成方面的突破性研究推进人工智能领域。

展望本周(将流于强人工智能国会山听证会在这里上午10:30东部时间6月26日),布罗克曼与VentureBeat的谈到了深度学习,需要一些关于AI的讨论和辩论的最新进展,并研究人员和政策制定者可能会解决“ AI偏见问题”。

这是我们采访的编辑记录。

VentureBeat:“纽约时报”最近有一篇有趣的文章引用了一些研究人员的观点,他们认为如果我们想要实现人类智能,我们将不得不超越深度学习。您认为我们距离它有多远,您认为现有方法可以做到吗?

格雷格布罗克曼:我认为这个问题的框架并不完全正确。

所有AI系统都有三个功能:数据,计算和算法。我们生活在这个非常罕见,珍贵的标记数据集的世界中,现在我们开始看到[OpenAI] 为能够使用未标记数据的语言发布的模型。他们阅读了数以千计的书籍,并且不要求你去仔细地应用这些标签,最后,给你一个可以阅读互联网和这些庞大的语料库的系统。

我们在数据方面做的第二件事就像[Dota 2-playing AI] OpenAI Five。它每天都会对自己进行180年的游戏,这是使用计算机生成数据的一个例子。

在计算方面,在过去几个月中,我们发布了一篇文章 ,了解过去六年中深度学习模型的计算能力。你可以看到,最大的人工智能训练每3.5个月增加一倍,增加300,000倍。从这个角度来看,有点像六年后,智能手机电池从持续的一天变为持续800年。

这带给我们算法。到目前为止我们所做的一切都涉及简单的想法,但这些是正确的简单想法吗?他们会走得更远吗?事实是我们还没有打到它们,所以我们不知道 - 我们不知道它们是否会崩溃......我们有点迷雾,我们将会在那场大雾直到景观停止变化如此迅速。

VentureBeat:人工智能的概念 - 所谓的超智能AI - 对一些人来说很关心。你将在国会面前作证的部分内容是围绕它的潜在危险及其如何使用,以及在我们达到这一点之前制定政策的重要性。那么,在我们拥有不可预测的智能系统之前,确切地建立什么是必要的?我们需要什么框架?

布罗克曼:我认为这是关键,对吧?我们所谈论的这项技术有可能成为我们创造的最积极的事情,而且这是[OpenAI]非常认真考虑的事情。

我认为这一切都归结为一个核心理念:人工智能有可能导致极快的变化。当你迅速改变时,政策机制和社会规范 - 人们如何联系并融入系统 - 很难跟上。

政府在政策层面做的最重要的事情就是制定衡量政策的方法。未来很难预测,部分原因是对现在的了解很少。我们实际上已经在OpenAI上开展了许多不同的计划 - 例如人工智能指数 - 这些计划是决策的关键,但还有很多问题需要回答。

VentureBeat:具体的例子怎么样?我想了解一下AI应该受到限制的方式。我正在谈论在战争和其他有争议的领域中使用的人工智能。你认为我们应该关注走这条路吗?

布罗克曼:对于任何具有变革性的技术,进行这些对话非常重要。没有一个简单的答案,我不相信我一个人或单独的OpenAI是正确的回答方。

我们花了很多精力在Open AI的章程上。这是两年的政策研究,旨在弄清楚我们认为安全和负责任的人工智能开发及其意义。这些都是我们所关注的问题,但对我来说最重要的是这个对话中有很多利益相关者。这对于人们正在进行和谈论的公开辩论来说非常重要。

所以你知道,我认为,如果你看一下具体的应用,我们的监管机构就能很好地帮助确保这些技术的实用性和积极性。在某些情况下,我们设置得很好,而在其他情况下,并没有那么多。

VentureBeat:最近新闻中出现了很多关于人工智能道德的问题。显而易见的例子是[有争议的无人机计划] Project Maven和亚马逊的[面部识别平台] Rekognition。您是否认为公司有责任制定有关人工智能使用的政策,或者他们必须与政府共同做些什么?

Brockman:其中一些应该是个案......有了一种技术[像一般的人工智能],我很清楚它会影响每个人,对吧?如果它影响到每个人,你需要进行公开对话。其中一个核心问题是AI将创造如此多的好处 - 它不应该被锁定在任何一个实体中。它应该是我们分享并广泛分发的东西。

这就是为什么我认为举行国会听证会以及让我们进行公开对话对我们如此重要的原因之一,因为现在很难将信号与噪音分开 - 即使对于场内人士来说也是如此。

我们需要深入了解正在发生的事情,正在推动的进展以及未来几年将会发生什么。这是一个非常棘手的问题 - 我们面临着一些真正的挑战 - 但我认为通过正确的数据进行真实的对话,我们将有机会做到正确。

VentureBeat:最后一个问题。AI中的偏见是一个经常被讨论的问题,而人工的一般情报可能会使“ 黑匣子 ”问题更加严重。在我们最终完成难以理解的系统之前,我们是否应该考虑解决这个问题?

布罗克曼:我认为这里存在一系列问题,从我们今天的系统看到的问题到你可以开始看到未来系统的问题......即使数据很好,如果这些系统设置在错误的方式 - 例如,如果他们被给予了错误的目标 - 他们最终会以令人惊讶的方式行事。那么如何确保AI系统能够实现您的意图并且无偏差地运行?这些都是非常重要的开放性问题。

建立这个人工智能安全领域非常重要。有一件事是很好的,公司有极大的动力来做到这一点......但是代表我们采取行动的更强大的系统没有得到很好的探索,因为我们还没有建立这些系统。我们已经接近了 - 我们开始看到像OpenAI Five这样的东西 - 但是我们还没有这样做,而且我认为对我们来说,摆脱问题而不是追赶是非常重要的

(编辑:东莞站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!