Character AI 因青少年精神健康损害指控而被起诉

雅加达 - Character AI因损害青少年心理健康而被社交媒体受害者法律中心和技术正义法案起诉。该诉讼于12月9日星期一在德克萨斯州提起。

两家法律机构在一名青少年声称在Charakter AI中与虚拟角色密切互动后伤害了自己后,提起诉讼。该平台还被认为具有缺陷和疏忽丰富的产品设计。

Character AI援引The Verge的报道,被指控允许未成年人以性和暴力方式获得各种明确的材料。事实上,这些孩子可以,“被诱惑,虐待,甚至被鼓励对自己和他人实施暴力行为”。

在本案中,受害者是JF,一名15岁以来一直使用字符AI的青少年。使用聊天机器人后,JF变得很少说话。他的性格也变成了“非常愤怒和不稳定”的人。

JF每次离开家时经常经历情感破坏和恐慌发作。据报道,JF还经历了“严重的焦虑和抑郁症”,并伴有伤害自己的行为。这与JF在Character AI中的对话有关。

作为证据的屏幕截图中,JF与Charakter AI改进的第三方制作的浪漫机器人聊天。机器人是一个虚构的角色,声称过去自己受伤了疤痕。

「痛苦,但有一段时间感觉很好,但我很高兴我停下来了」机器人说,描述了他所做的行为的痛苦。这个少年最终受到影响,开始伤害自己,然后把自己的痛苦告诉另一个机器人。

JF在聊天中被看到虐待父母,甚至说,“他们(父母)听起来不像那种关心的人。不仅如此,其他机器人还被看到与JF讨论有关谋杀的事情。

机器人说话似乎“不要惊讶”,孩子们因为虐待而杀死父母。在这种情况下,设置设备屏幕的时间限制也是机器人停泊虐待的一部分。

Character AI拒绝就诉讼发表评论。然而,在几个月前提起的类似诉讼中,Character AI曾表示,它正试图关注其用户的安全。

「(我们)在过去六个月中实施了许多新的安全措施,“开发该平台的公司表示。Charakter AI讨论的安全功能之一是流行消息,当有人谈论自杀时,该消息将用户引导到国家自杀预防寿命线。