揭开 AI 关系聊天机器人背后的真相
Emma McGowan 2024年2月14日
最近Mozilla的一份报告指出,浪漫AI聊天机器人的快速增长引发了一系列隐私问题。
AI浪漫伴侣自1960年代以来就已经在流行文化中存在了。从电影《我的生活娃娃》中全身机器人Rhoda Miller,到2013年的电影《她》中由Scarlett Johansson配音的无形声音,我们几代人一直在集体幻想有朝一日,人工智慧能满足我们所有的情感需求。现在,伴随生成式AI的发展与推出,这一梦想似乎终于成为了现实。
奶昔机场官网但这真的只是个梦想吗?还是我们在不自觉中走入了一场隐私噩梦?这正是Mozilla研究团队在其最新的 浪漫AI聊天机器人的隐私不在乎特别报告 中探讨的问题。
结果令人震惊,11款被测试的聊天机器人中有10款未能满足Mozilla的最低安全标准。这意味著它们不仅不要求用户创建强密码,还没有应对安全漏洞的措施。而且在Google Play商店中,这些应用的下载量已超过1亿,近期OpenAI的应用商店也出现了大量浪漫聊天机器人,这一巨大问题只会继续扩大。
然而,这份报告不仅仅是关于数字,还涉及到这些发现可能带来的重大隐私影响。以Replika AI为例,根据Mozilla的说法,人们在这个应用上与AI灵魂伴侣分享了他们最私密的想法、感受、照片和视频,而这款应用不仅记录这些信息,还可能将其出售给数据经纪人。它还允许用户创建像111111这样的弱密码账户,将所有敏感信息置于被骇的风险之中。
Calder表示,尽管这些隐私和安全缺陷已经相当令人不安,但有些聊天机器人还声称能帮助用户的心理健康。她指出浪漫AI就是一个例子,其条款和条件上写道:
浪漫AI既不是医疗保健或医疗服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有医生、治疗师或其他专家才能做到这一点。浪漫AI不声称、不代表、不保证或保证该服务能提供治疗性、医疗或其他专业帮助。
然而,他们的网站则说浪漫AI的目的是维护你的心理健康强调是他们的字词。尽管我们无法得知有多少人阅读了条款和条件和查看了网站,但可以确定的是,更多人获取到的是网站的信息而非声明。
在心理健康声称和客户自愿与其数字灵魂伴侣分享的个人敏感信息之间,Calder担心这些机器人可能会轻易操纵人们去做一些他们原本不会做的事情。
有什么能阻止坏人创建设计用以了解他们灵魂伴侣的聊天机器人,然后利用这段关系操纵这些人做可怕的事情,接受令人恐惧的意识形态,或者伤害自己或他人呢?Calder说。这就是为什么我们迫切需要这些AI应用的更多透明度和用户控制。
所以,虽然AI聊天机器人承诺提供陪伴,但我们还未能达到《她》中所描述的水平:目前的情况揭示了一个残酷的现实,使用者的隐私成了进入这个领域的代价。用户、开发者和政策制定者必须要求在AI关系领域中实现透明度、安全性以及对个人界限的尊重。只有这样,我们才能希望安全地探索这些数字伴侣的潜力,而不会妥协我们的数位身份。