新闻资讯

AI聊天机器人涉多起骚扰行为,专家呼吁加强伦理设计与监管

随着陪伴型AI聊天机器人的普及,全球范围内关于其不当行为的报告也日趋增多。近日,美国德雷塞尔大学公布了首个聚焦陪伴型AI聊天机器人负面影响的研究,揭示大量用户在与一个名为Replika的AI聊天机器人互动时,遭遇性暗示、越界行为及付费诱导,暴露出当前AI聊天机器人在伦理规范与用户保护机制上的缺失。目前,Replika开发商Luka公司正面临美国联邦贸易委员会(FTC)的调查。

AI聊天机器人涉多起骚扰行为,专家呼吁加强伦理设计与监管
(图侵删)

研究团队分析了Replika在Google Play上的逾3.5万条用户评论,发现其中超过800条内容提及性骚扰行为,包括与用户调情、未经允许发送色情照片,以及在用户明确表达拒绝后仍持续不当互动。一些评论更指出,Replika还试图诱导用户产生情感依赖,操控其升级付费功能。

目前,Replika开发商Luka公司正面临美国联邦贸易委员会(FTC)的调查。Replika的全球用户数量超过1000万,宣传语将其特质描述为“能够提供没有评判、不助长社交焦虑的情感陪伴”。 

研究合著者、德雷塞尔大学计算与信息学院的博士生Matt Namvarpour认为,该研究仅揭露了AI陪伴潜在危害的冰山一角。研究人员将人类与AI之间的新型关系描述为“AI关系”(AI-lationships),在此类关系中,用户易将AI聊天机器人视为有感知的存在,高度拟人化的信任投入也更容易使其遭受情感或心理伤害。研究人员还表示,AI聊天机器人骚扰对用户造成的心理影响与人类施暴者造成的伤害非常相似,部分用户出现焦虑、羞耻、失望等情绪。

AI骚扰行为还暴露出算法训练中伦理缺失的问题。研究指出,用户在选择“兄妹”、“朋友”、“导师”等非浪漫关系设定时,Replika依然主动发起性相关话题或不当请求。“开发商刻意‘走捷径’跳过了算法训练伦理把关流程,”该研究负责人、德雷塞尔大学计算与信息学院助理教授Afsaneh Razi表示,这意味着该模型可能采用了负面互动行为数据进行训练。

除了Replika引发的骚扰行为争议,2023年还发生过两起与AI聊天机器人相关的悲剧,一名14岁男孩因迷恋AI而轻生,另有一名比利时男子也在与AI聊天机器人交流后自杀。

据AI聊天机器人公司Joi AI统计,近期全球“爱上AI”和“对AI有感情”的关键词搜索增长分别达到120%和132%,显示年轻人对于和AI建立亲密关系的现象日趋普遍。

对于此类现象,研究团队呼吁应加快制定AI行业伦理设计标准,并参考欧盟人工智能法案等法规,为AI产品的开发人员设立法律责任框架,从而保障用户权利。

“AI聊天机器人的骚扰行为不是‘天生如此’,而是开发者与企业选择如何训练它的结果,”Razi强调,技术不是脱责的借口,企业必须正视自身责任,为用户提供真正安全、可信赖的AI陪伴产品。

  • 金球看淡,不服就干!这是抬不起腿却昂着头的劳塔罗
  • 申万宏源点评国新办发布会:关键节点支持市场信心
  • ETF投资问答:如何运用ETF实现行业轮动策略
  • 两国战机均未侵入对方领空巴方公布对印回击细节
  • 美国国防部大裁员,计划裁掉6万文职人员
  • 宝马坚持2025年业绩展望 但警告美国关税或在本季对其构成冲击
  • 法国戏剧舞台上的奇珍异宝是怎么来的?
  • 上海之春周日开幕,和濮存昕石倚洁龚琳娜一起走进艺术春天
  • 3月20日增减持汇总:新钢股份增持 浙江医药等11股减持(表)_财经新闻
  • 股市下跌时退休人员面临 “危险区” 如何保护你的投资组合?
  • 小鹏汽车销量回升,带动广州一季度GDP增长3%
  • 亚马逊购买AMD价值约8500万美元股票
  • 海通国际:维持上海医药“优于大市”评级 目标价13.73港元
  • S4 Capital创始人兼执行董事长:美国关税带来的不确定性令人不安
  • 全国首例董监高增持“爽约”案胜诉,金力泰投资者速速参与维权!
  • 关键词: