埃隆·马斯克(Elon Musk)提醒说,如果灭火学家使用人工智能的危险,文明可能会消失

雅加达 - 从太空旅行到自动驾驶汽车,埃隆·马斯克(Elon Musk)一直非常公开,希望将技术推向其绝对极限。然而,马斯克最近的评论表明,他正在将界限拉入人工智能(AI)。

在布莱奇利公园参加人工智能安全峰会时,马斯克声称人工智能的安全对文明的未来至关重要。他在X平台(以前的Twitter)上发布了这一说法,并引用了英国首相里希·苏纳克(Rishi Sunak)关于这次会议的推文。

这一声明是在马斯克出现在乔·罗根(Joe Rogan)的播客上一天后发表的,他在播客上声称,如果人工智能成为“反人道主义者”,它可能会构成生存风险。

今天,政治家和科技人物聚集在布莱奇利公园,因为奥利弗·道登(Oliver Dowden)开始了第一次AI安全会议。马斯克出席了会议,并在X平台上表达了他的观点。

引用Rishi Sunak的推文,马斯克只写道:“人工智能的安全对文明的未来很重要。

Rishi Sunak的原始帖子写道:“全球人工智能安全峰会今天在英国开始。这就是我们希望实现的:同意人工智能的风险,告知我们如何管理它,讨论如何在国际上更好地合作,查看如何安全人工智能可用于全球利益。

特斯拉首席执行官兼X所有者声称,一些“灭火学家”环境“认为人类是地球表面上的爆发”。

她称,自愿人类灭绝运动《骑士》的创始人《Les Knight》去年被《纽约时报》采访,是这种哲学的一个例子,并声称一些为科技公司工作的人也有类似的心态。Knight认为,人类为这个星球所能做的最好的事情就是停止生孩子。

「你不得不问,'人工智能怎么能犯错?',好吧,如果人工智能被灭火学家编程,它的功能将是人类的灭绝,“马斯克说。“他们甚至不会像那个人一样认为它很糟糕。

马斯克还签署了一封信,呼吁今年人工智能开发被推迟六个月。当罗根被问及这封信时,他说:“我签署了别人的信,我不认为人们会真正停止。使这种超级数字智能看起来很危险。

他说,人工智能“暗示性”计划的风险认为“人类的罪魁祸首是一件值得考验的事情”是该技术造成的“最大危险”。

「如果你拿走《纽约时报》前页上的人,拿走他在旧金山的一般哲学,那么人工智能就可以得出结论,正如他所做的那样,他字面上说,“世界上有80亿人,如果没有,那就更好了”并设定了这一结果。

当被问及人工智能是否可以以这种方式设计以减少安全风险时,他说:“如果你说,'人工智能最有可能的结果是什么?”我认为最有可能的结果是详细的,这是一个很好的结果,但这不确定。我认为我们在编程人工智能时应该小心,并确保它不是意外的反人类。

当被问及这次会晤的预期是什么时,他说:“我不知道。我只是在担心人工智能的安全性,比如,“我们该怎么办?”我不知道,(也许)有一定的类型的监管监管监管?“

「你不能只是去后院打核弹,这是违法的,如果你这样做,你就会被判入狱。我认为,这可能比核弹更危险。我们应该担心人工智能会变得反人为。这是潜在的重要事项,“马斯克说。

「这就像从瓶子里取出精灵。这就像一个魔法精灵,除了通常他们告诉人们这个故事对从瓶子里取出精灵的人来说,不会有任何好结。