针对在线欺诈者窃取个人数据的威胁的“AI死亡计算器”警告
'AI死亡计算器'声称能够以78%的准确性预测一个人何时会死亡(照片:x @elly2kibeu ·)

雅加达 - “人工死亡计算器”的开发人员声称能够以78%的准确性预测一个人何时会死亡,并向公众发出了关于新威胁的警告。

丹麦技术大学(Technical University of Denmark)的研究人员发现,自去年推出其技术(称为life2vec)以来,模仿应用程序一直在淹没市场。但该团队指出,他们的AI不会在网上公开提供。

该团队透露了四个“死亡假冒”AI的存在,这些AI宣传“虚假服务:AI Doom Calculator,Intelligent Death AI,Death Predictor和Telecharger。

模仿者要求用户提供信用卡、电子邮件和其他敏感信息的详细信息,允许恶意犯罪者窃取金钱和身份。

可以预测一个人何时死亡的算法背后的科学家现在警告说,互联网上正在发展“虚假服务”,并窃取受害者的个人数据。

“我们意识到存在社交媒体帐户,并且至少有一个欺诈网站声称与life2vec 模型相关,”研究人员 说,他通过他们的官方life2vec AI主页警告奇心死亡的互联网用户。

“我们与这些实体或其他声称使用我们技术的实体无关,”他们补充说。

Life2vec团队于去年12月在《自然计算科学》杂志上首次透露了其AI实力,他希望公众能够“小心”恶意副本的欺诈者,“与我们和我们的作品无关”。

虽然公众坚持用 life2vec 预测测试自己的未来,但研究人员必须将操作AI保密,以保护个人信息免受其数据用于训练系统的人的侵害。

这是因为超过6000万人的真实个人信息,包括收入,职业,住所,受伤和妊娠史,被纳入算法,正如主要研究员Sune Lehmann向 DailyMail.com 解释的那样。

因此,莱曼表示,life2vec 不能供公众/公司使用。

“我们正在积极寻找更公开地分享某些结果的方法,但这需要进一步的研究才能以能够保障本研究中人们隐私的方式进行,”网络和复杂系统教授莱曼说。

即使该模型最终向公众开放,丹麦的隐私法也将使life2vec 用于对个人做出决定 - 例如写出保险政策或做出招聘决定 - 成为非法的。

「这个模型打开了重要的政治讨论和处理的积极和消极的视角,”莱曼告诉Newswise。

莱曼补充说:“例如,在社交网络上跟踪我们的行为,非常准确地创建我们的个人资料,并使用这些个人资料来预测我们的行为并影响我们,等技术在技术公司中今天已经使用了类似的技术。

“这次讨论需要成为民主对话的一部分,以便我们考虑技术将把我们带到哪里,以及这是否是我们想要的发展,”他解释说。

live2vec背后的研究人员特别关注企业或政府滥用的可能性,因为他们的系统准确性高于平均水平。该模型在2008年至2016年的数据中进行了培训,事实证明能够正确预测2020年谁死亡的时间超过四分之三。

这些AI通过分析用户的人生故事 - 刺激他们的文本来做到这一点。

莱曼和他的团队为每个信息都给出了不同的令牌,所有这些数据碎片都是彼此映射的。

人们生活故事中的类别涵盖了人类经历的整个范围:断臂以S52为代表;在烟草店工作编码为IND4726,收入以100种不同的数字代币为代表;和“产后出血”以O72为代表。

这些关系中的许多都是直观的,比如职业和收入-有些工作赚了更多的钱。

但Life2vec正在做的是绘制形成个体生命的因素的大星座,允许一个人要求人工智能根据数百万他人和许多因素进行预测。它还可以对一个人的个性进行预测。

测试要求受访者根据他们同意的程度评估10个项目,例如“我在新地方做出的第一件事就是结识朋友,”或“我很少在小组会议上表达自己的意见”。

莱曼说,重要的是要注意,所有数据都来自丹麦,因此这种预测可能不适用于生活在其他地方的人 - 除了大多数人可能实际上不知道他们何时死亡的事实之外。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)