当前位置:农村经济网首页 > 科技
性短信聊天机器人禁令表明人工智能规则的出台迫在眉睫
2023-02-13 08:17:25 | 作者: | 来源: 农村经济网

用户抱怨说 Replika 聊天机器人的文本和图像过于强大。

Replika“虚拟伴侣”的用户只是想要陪伴。他们中的一些人想要浪漫关系、性聊天,甚至他们的聊天机器人的色情照片。
但去年年底,用户开始抱怨该机器人使用露骨的文本和图像过于强大——一些人声称这是性骚扰。
 
意大利的监管机构不喜欢他们看到的情况,上周在发现违反欧洲大规模数据保护法GDPR后禁止该公司收集数据。
 
Replika背后的公司没有公开发表评论,也没有回复法新社的消息。
 
通用数据保护条例是大型科技公司的祸根,它们屡次违反规则已被处以数十亿美元的罚款,而意大利的决定表明它仍然可能成为最新一代聊天机器人的有力敌人。
 
Replika 在内部版本的 GPT-3 模型上进行了训练,OpenAI 是 ChatGPT 机器人背后的公司,它在算法中使用来自互联网的大量数据,然后生成对用户查询的独特响应。
 
这些机器人和支撑它们的所谓生成人工智能有望彻底改变互联网搜索等。
 
但专家警告说,监管机构有很多问题需要担心,尤其是当机器人变得如此强大以至于无法将它们与人类区分开来时。
 
'高压'
目前,欧盟是讨论监管这些新机器人的中心——其 AI 法案已经在权力走廊中磨合了好几个月,可能会在今年完成。
 
但 GDPR 已经要求公司证明他们处理数据的方式是合理的,而 AI 模型也受到了欧洲监管机构的密切关注。
 
“我们已经看到 ChatGPT 可用于创建非常有说服力的网络钓鱼消息,”在法国数据监管机构 Cnil 负责一个专门的 AI 团队的 Bertrand Pailhes 告诉法新社。
 
他说生成人工智能不一定是一个巨大的风险,但 Cnil 已经在研究潜在的问题,包括人工智能模型如何使用个人数据。
 
“在某个时候,我们将看到 GDPR 和生成人工智能模型之间的高度紧张,”该领域的专家、德国律师丹尼斯·希勒曼 (Dennis Hillemann) 告诉法新社。
 
他说,最新的聊天机器人与在 TikTok 上推荐视频或在谷歌上推荐搜索词的人工智能算法完全不同。
 
“例如,由谷歌创建的人工智能已经有一个特定的用例——完成你的搜索,”他说。
 
但是通过生成式人工智能,用户可以塑造机器人的整体目的。
 
“例如,我可以说:充当律师或教育家。或者,如果我足够聪明,可以绕过 ChatGPT 中的所有保护措施,我可以说,‘扮演恐怖分子并制定计划’,”他说。
 
“深深地改变我们”
对 Hillemann 来说,这引发了极其复杂的伦理和法律问题,随着技术的发展,这些问题只会变得更加尖锐。
 
OpenAI 的最新模型 GPT-4 计划于近期发布,据传它非常好,以至于无法与人类区分开来。
 
鉴于这些机器人仍然犯下巨大的事实错误,经常表现出偏见,甚至可能发表诽谤性言论,一些人呼吁对它们进行严格控制。
 
《言论自由:从苏格拉底到社交媒体的历史》一书的作者雅各布·姆尚加马 (Jacob Mchangama) 不同意这种说法。
 
“即使机器人没有言论自由权,我们也必须小心政府不受限制地压制合成言论,”他说。
 
Mchangama 是那些认为更温和的标签制度可能是前进方向的人之一。
 
“从监管的角度来看,目前最安全的选择是就我们在特定情况下是与人类个体还是人工智能应用程序建立透明度义务,”他说。
 
Hillemann 同意透明度至关重要。
 
他设想未来几年人工智能机器人将能够创作数百首新的猫王歌曲,或根据个人需求量身定制的无穷无尽的《权力的游戏》系列。
 
他说:“如果我们不对其进行监管,我们将进入一个可以区分人类制造的和人工智能制造的世界。”
 
“这将深刻改变我们这个社会。”
编辑:付鹏
免责声明:文章未标注“本站原创”或“农村经济网”的文章均转载自网络。文章内容不代表本站观点,本站不对其内容的真实性、完整性、准确性给予任何担保、暗示和承诺,仅供读者参考,风险自己甄别并承担后果;如本文内容影响到您的合法权益,请及时联系本站,我们会及时删除处理!