雅加达 - 从太空旅行到自动驾驶汽车,埃隆·马斯克(Elon Musk)一直非常公开,希望将技术推向其绝对极限。然而,马斯克最近的评论表明,他正在将界限拉入人工智能(AI)。
在布莱奇利公园参加人工智能安全峰会时,马斯克声称人工智能的安全对文明的未来至关重要。他在X平台(以前的Twitter)上发布了这一说法,并引用了英国首相里希·苏纳克(Rishi Sunak)关于这次会议的推文。
这一声明是在马斯克出现在乔·罗根(Joe Rogan)的播客上一天后发表的,他在播客上声称,如果人工智能成为“反人道主义者”,它可能会构成生存风险。
今天,政治家和科技人物聚集在布莱奇利公园,因为奥利弗·道登(Oliver Dowden)开始了第一次AI安全会议。马斯克出席了会议,并在X平台上表达了他的观点。
引用Rishi Sunak的推文,马斯克只写道:“人工智能的安全对文明的未来很重要。
Rishi Sunak的原始帖子写道:“全球人工智能安全峰会今天在英国开始。这就是我们希望实现的:同意人工智能的风险,告知我们如何管理它,讨论如何在国际上更好地合作,查看如何安全人工智能可用于全球利益。
特斯拉首席执行官兼X所有者声称,一些“灭火学家”环境“认为人类是地球表面上的爆发”。
她称,自愿人类灭绝运动《骑士》的创始人《Les Knight》去年被《纽约时报》采访,是这种哲学的一个例子,并声称一些为科技公司工作的人也有类似的心态。Knight认为,人类为这个星球所能做的最好的事情就是停止生孩子。
「你不得不问,'人工智能怎么能犯错?',好吧,如果人工智能被灭火学家编程,它的功能将是人类的灭绝,“马斯克说。“他们甚至不会像那个人一样认为它很糟糕。
马斯克还签署了一封信,呼吁今年人工智能开发被推迟六个月。当罗根被问及这封信时,他说:“我签署了别人的信,我不认为人们会真正停止。使这种超级数字智能看起来很危险。
他说,人工智能“暗示性”计划的风险认为“人类的罪魁祸首是一件值得考验的事情”是该技术造成的“最大危险”。
「如果你拿走《纽约时报》前页上的人,拿走他在旧金山的一般哲学,那么人工智能就可以得出结论,正如他所做的那样,他字面上说,“世界上有80亿人,如果没有,那就更好了”并设定了这一结果。
当被问及人工智能是否可以以这种方式设计以减少安全风险时,他说:“如果你说,'人工智能最有可能的结果是什么?”我认为最有可能的结果是详细的,这是一个很好的结果,但这不确定。我认为我们在编程人工智能时应该小心,并确保它不是意外的反人类。
当被问及这次会晤的预期是什么时,他说:“我不知道。我只是在担心人工智能的安全性,比如,“我们该怎么办?”我不知道,(也许)有一定的类型的监管监管监管?“
「你不能只是去后院打核弹,这是违法的,如果你这样做,你就会被判入狱。我认为,这可能比核弹更危险。我们应该担心人工智能会变得反人为。这是潜在的重要事项,“马斯克说。
「这就像从瓶子里取出精灵。这就像一个魔法精灵,除了通常他们告诉人们这个故事对从瓶子里取出精灵的人来说,不会有任何好结。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)