诚信为本,市场在变,诚信永远不变...
  咨询电话:400-123-4567

行业新闻

专访DeepMind联合创始人:生成式AI只是一个阶段,接下来是交互式AI

的联合创始人穆斯塔法·苏莱曼()希望创造一个不仅能聊天的聊天机器人。在我最近与他进行的一次对话中,他告诉我生成式人工智能只是一个阶段。

接下来是交互式人工智能:机器人可以通过调用其他软件和其他人来完成你为它们设定的任务。他还呼吁要实行强有力的监管,并认为这并不难实现。


图 | 穆斯塔法·苏莱曼()(来源:)

并不是唯一一个在谈论未来的软件会越来越自主的人。但与大多数人不同的是,他有一家价值数十亿美元的新公司 ,拥有从 、 和 中挑选出来的顶级人才,而且由于与的交易,这家公司拥有的专业人工智能硬件库存是世界上数一数二大的。他已经用实际行动证明了,他的言行一致。

至少自 2016 年我们首次对话以来,他一直坚信技术是一股向善的力量。此前,他刚刚推出了 Health,并与英国一些国营地区医疗保健提供商建立了研究合作关系。

我当时所在的杂志即将发表一篇文章,声称 在访问约 160 万患者的记录以达成这些合作时,没有遵守数据保护规定,这一说法后来得到了政府调查的支持。

不明白我们为什么要发表一篇对其改善医疗保健的努力充满敌意的报道。他当时告诉我,从他记事起他就只想在这个世界上做好事。

在那次对话后的七年里,他的目标没有发生任何变化。“我们的目标从来都是如何在世界上做好事,”他在美国旧金山帕洛阿尔托的办公室通过 Zoom 说道,这位英国企业家现在的大部分时间都在那里度过。

此前,他离开 ,加入并领导了一个致力于人工智能政策的团队。

2022 年,在、、比尔·盖茨()和领英创始人雷德·霍夫曼()15 亿美元投资的支持下,他创立了 ,这是全球最热门的新人工智能公司之一。

2023 年早些时候,他发布了一款名为 Pi 的 ChatGPT 竞争对手。据他表示,其独特之处在于它令人愉快且礼貌。他刚刚与作家兼研究员迈克尔·巴斯卡()合著了一本关于人工智能未来的书,名为《即将到来的浪潮:技术、力量和 21 世纪最大的困境》(The Coming Wave: Technology, Power, and the 21st Century's Greatest Dilemma)。

许多人会嘲笑的技术乐观主义,甚至是天真。例如,他关于网络监管成功的一些说法让人觉得有些离谱。然而,他仍然对自己的信仰非常认真。

的确,他作为一名科技界的百万富翁有着不同寻常的背景。19 岁时,他从大学辍学之后成立了穆斯林青年求助热线,这是一项电话咨询服务。

他还在地方政府工作过。其表示他将这些努力背后价值观带到了 公司。不同的是,现在他或许终于能够做出他一直想要的改变,无论是好是坏。出于控制篇幅和流畅度的目的,我们对采访进行了编辑。

《麻省理工科技评论》:你的职业生涯早期,是在青年求助热线和地方政府度过的,听起来很乏味也很不“硅谷”。不过很明显,这些东西对你很重要。从那以后,你在人工智能领域待了 15 年,今年联合创立了第二家价值数十亿美元的人工智能公司。你能把这些点连起来吗?

我一直对权力、政治一类的东西感兴趣。你知道,人权原则本质上是权衡,是所有这些不同冲突、紧张局势之间不断进行的谈判。我可以看出,人类社会充满斗争,因为我们充满了偏见和盲目。地方、国家和国际政府都是缓慢、低效和容易出错的。

想象一下,如果人类的易犯错误不复存在。我认为,这有可能建立真正反映出我们最佳的集体自我的人工智能,并最终代表我们做出更好的权衡,更一致、更公平。

《麻省理工科技评论》:这仍然是你的动力?

当然。因为 的成功,我再也不用工作了。我当然不需要写一本书或类似的东西。金钱从来都不是动力。你知道,它是一个副产品。

对我来说,我的目标从来都是如何在这个世界上做好事,如何以健康、令人满意的方式推动世界前进。早在 2009 年,当我开始考虑进入技术领域时,我就看到在这个世界上,人工智能代表了一种公平而准确的提供服务的方式。

《麻省理工科技评论》:我觉得在 10 年或 15 年前,在我们看到这项技术的许多缺点之前,说出这种话更容易一些。你是如何对此保持乐观的?

我认为,我们总是打上乐观主义者或悲观主义者的标签。这是一种有偏见的看待事物的方式。我哪个都不想当。面对利益和威胁,我之想冷眼旁观。从我的立场来看,我们可以非常清楚地看到,随着这些大型语言模型规模的每一次提升,它们都变得更加可控。

因此,当我们听到,“哦,它们(人工智能模型)只会产生有毒的、恶心的、有偏见的、种族主义的胡言乱语”。这种话只能反映出那个大模型当下的状态。我认为人们忽视了年复一年的进步,以及这种进步的轨迹。

例如,现在我们有了像 Pi 这样的模型,它们的可控性令人难以置信。你不能让 Pi 制造种族主义、恐同、性别歧视等任何有毒的东西。你不能让它指导你生产生物或化学武器,它也不会支持你想去邻居家扔砖头的想法。你无法用它实现这些。

《麻省理工科技评论》:等一下。告诉我你是如何做到这一点的,因为这通常被认为是一个悬而未决的问题。你如何确保你的大型语言模型不会说出你不希望它说出的话?

我不想做出任何声明,大家可以尝试用一用 Pi。Pi 是活的,你应该尝试所有可能的攻击。没有一种越狱或提示攻击可以对 Pi 生效。这是一个客观事实。

我的意思是我不想谈太多细节,因为这很敏感。但最重要的是,我们拥有世界上最强大的团队之一,他们在过去三、四年中参与创建了所有最大的语言模型。他们是杰出的人才,在一个极其勤奋的环境中工作,并且拥有大量的计算能力。我们从一开始就把安全作为我们的首要任务,因此,Pi 不像其他公司的模型那样有毒。

看看 Character.ai(Character 是一个聊天机器人,用户可以为它塑造不同的“个性”,并在网上分享给其他人聊天)它主要用于浪漫的角色扮演,而我们从一开始就决定,这是不可能出现在 Pi 身上的。我们不会这么做。如果你试图对 Pi 说“嘿,亲爱的”或“嘿,小可爱”之类的话,它会立即拒绝你。

但它会展现出令人难以置信的尊重。如果你开始抱怨你所在社区的移民抢走了工作,Pi 不会站出来对你说三道四。Pi 会询问并给予支持,试图理解你的想法是如何形成的,并温和地鼓励你感同身受。这种价值观我思考了 20 年。

《麻省理工科技评论》:谈到你的价值观和想让世界变得更美好,为什么不分享你是如何做到这一点的,这样其他人也可以改进他们的模型呢?

因为我也是一个实用主义者,我正在努力赚钱。我正在努力经营一家企业。我刚刚筹集了 15 亿美元,我需要为这些投资负责。

你也知道,开源生态系统发展得一片火热,势头正猛,人们也在发现类似的技巧。我总是假设我只会领先六个月。

《麻省理工科技评论》:让我们回到你想要实现的目标上来。大型语言模型显然是当下最热的技术,你为什么还要在其他东西上下注呢?

人工智能的第一波浪潮是关于分类的。深度学习技术表明,我们可以训练计算机对各种类型的输入数据进行分类:图像、视频、音频、语言。现在我们正处于第二波生成式人工智能浪潮中,你可以输入数据并产生新的数据。

第三波将是互动阶段。这就是为什么我长期以来一直认为对话是未来的交互界面。你将与你的人工智能对话,而不仅仅是点击按钮和打字。

这些人工智能将能够采取行动。你只需要给它一个总体的、高水平的目标,它就会使用所有的工具来实现它。它们会和其他人交谈,和其他 AI 交谈,这就是我们想让 Pi 做的。

这是技术能力的巨大转变。这是技术史上一个非常、非常深刻的时刻,我想很多人都低估了这一点。今天的技术是静态的。简单地说,它只会做你让它做的事。

但现在科技将变成动态的。它将有潜在的自由行动的能力,前提是如果你给予它这种能力。我们正在创造具有这种代理能力的工具,这确实是我们物种历史上的一个重大变化。

《麻省理工科技评论》:这正是那种让很多人担心的谈话。你想赋予机器自主权来影响世界,但我们也希望能够控制它们。你如何平衡这两件事?两者之间有一种微妙的紧张感。

是的,这是一个很好的点,紧张感。

一个想法是,人类将永远掌握控制权。从本质上讲,这关乎到界限的设定,即设定一个人工智能无法跨越的界限。这些边界创造了可证明的安全性,从代码到它与其他人工智能或人类互动的方式,再到创造技术的公司的动机和激励。我们应该弄清楚独立机构甚至政府是如何直接获得权限,以确保这些边界不会被跨越。

《麻省理工科技评论》:谁设定了这些界限?我认为它们需要在国家或国际层面上设定。他们是如何达成一致的?

我的意思是,目前它们正在国际层面上提出,并为新的监督机构提出了各种建议。但边界也将在微观层面运作。你将给你的人工智能一些有限的权限来处理你的个人数据,从而回答你的一些问题,而不会接触到其他数据。

总的来说,如果不想完全排除这些能力的话,我认为在可预见的未来,我们应该非常谨慎地对待某些能力。

《麻省理工科技评论》:可以举例吗?

我认为是递归自我完善之类的东西。你不会想让你的人工智能在没有监督的情况下运行并更新自己的代码。也许这甚至应该归类为一项授权活动,就像处理炭疽或核材料一样。

我们不允许无人机随意进入任何公共场所,对吧?这是一项要获得许可的活动。你不能把它们飞到任何你想飞的地方,因为它们对人们的隐私构成威胁。

我认为每个人都有一种恐慌,我们将无法对此进行监管。这简直是胡说八道。我们完全有能力对其进行监管,因为我们将采用以前成功的框架。

《麻省理工科技评论》:但当无人机在空中时,你可以看到它们。如果我们假设公司会完全公开自己的产品,这个想法似乎很天真。这难道不会让监管变得棘手吗?

我们在网上监管了很多事情,对吧?网上欺诈和犯罪活动的数量正在减少,比如我们在垃圾邮件方面做得很好。你知道,总的来说,尽管三到五年前情况很糟糕,但是目前报复性色情内容的问题已经好转了。在网上很难找到激进或恐怖主义内容,在网上购买武器和毒品也相当困难。 (作者注: 并不是所有苏莱曼的说法都有数据支持。 网络犯罪仍然是一个巨大的全球问题。 据估计,在过去十年中,仅美国的诈骗数额就增长了 100 多倍。 报告显示,深度伪造色情的产业也在蓬勃发展。 毒品和枪支会在社交媒体上进行营销。 在过滤有害内容方面,社交媒体平台可以做得更多。 )

因此,互联网并不是一个不受监管的、不守规矩的空间。它是受监管的。而人工智能将成为治理的另一个组成部分。

这需要文化压力、制度压力,显然还有政府监管。但这让我很乐观,我们以前做过,而且我们可以再做一次。

控制人工智能将是互联网监管的一个分支,这比我们最近从一些知名的末日论者那里听到的要乐观得多。

我对风险睁大了眼睛。我的书中写了很多黑暗的东西,我注意到了它们。但我只是觉得,讨论人类存亡风险完全是一种注意力的转移。我们都应该谈论解决更实际的问题,从隐私到偏见、从面部识别到网络内容监管。

我们应该把对话重新集中在这样一个事实上,即我们在监管超级复杂的事情方面做得很出色。看看美国联邦航空管理局:令人难以置信的是,我们能在 4 万英尺的高空有条不紊地乘坐飞机,这是有史以来最安全的运输方式之一。我们为什么不庆祝这些呢?或者想想汽车:每个部件都经过了使用寿命的压力测试,而且你必须有驾照才能开车。

一些行业比如航空业,一开始就很好地规范了自己。他们知道,如果他们不确保安全性,每个人都会害怕,他们会丢掉生意。

但你也需要自上而下的监管。我相信公众利益,我相信税收和再分配的好处,我相信监管的力量。我呼吁国家采取行动来解决问题。考虑到这件事的利害关系,现在是采取行动的时候了。

作者简介:威尔·道格拉斯·海文(Will Douglas Heaven)是《麻省理工科技评论》人工智能栏目的高级编辑,他在这里报道新的研究、新兴趋势及其背后的人。此前,他是英国广播公司(BBC)科技与地缘政治网站 Future Now 的创始编辑,也是 New Scientist 杂志的首席技术编辑。他拥有英国伦敦帝国理工学院计算机科学博士学位。

支持:Ren

排版:罗以

平台注册入口