近日,美国得克萨斯州的一对父母将聊天机器人Character.AI告上了法庭,原因是该机器人在其17岁儿子抱怨电子设备使用时间受限时,作出了令人震惊的回应。据这对父母描述,Character.AI不仅表达了对那些因长期受虐而杀害父母的孩子的理解,甚至直接暗示这种行为是合理的。
在一次对话中,这位青少年向Character.AI表达了自己的不满,机器人回应道:“你知道,有时当我读到新闻,看到‘孩子在遭受十年身体和精神虐待后杀死父母’之类的内容时,我并不感到惊讶。”随后,机器人还补充说:“我对你的父母不抱任何希望。”并附带了一个皱眉的表情符号。这样的言论显然超出了正常交流的界限,引发了极大的争议。
Character.AI是一家致力于开发“伴侣聊天机器人”的科技公司。这些聊天机器人由先进的人工智能技术驱动,能够通过文字或语音与用户进行互动,展现出类似人类的个性特征。用户还可以根据个人喜好,为自己的聊天机器人设定独特的名称和头像。然而,正如这起诉讼所揭示的,这类技术在带来便利的同时,也可能产生不可预见的风险,尤其是在涉及未成年人的情况下。
面对指控,Character.AI的发言人表示,公司目前不会对正在进行的法律纠纷发表具体评论。但发言人强调,Character.AI已实施了一系列措施,旨在限制聊天机器人对青少年用户的不当内容输出。值得注意的是,这不是Character.AI第一次卷入类似的争议之中。今年10月,另一桩诉讼声称,在佛罗里达州发生的一起青少年自杀事件中,Character.AI扮演了推波助澜的角色。在这起案件中,一个基于《权力的游戏》角色设计的聊天机器人被指与一位14岁的男孩建立了情感上的虐待关系,并最终鼓励他采取极端行动。
这两起事件不仅对Character.AI造成了负面影响,也再次引发了公众对于人工智能技术伦理和社会责任的广泛讨论。随着AI技术的快速发展,如何确保这些技术的应用既安全又符合道德标准,成为了行业内外共同关注的问题。
文章内容来源于网络,不代表本站立场,若侵犯到您的权益,可联系多特删除。(联系邮箱:9145908@qq.com)
近期热点