欧盟正在迈向人工智能的新监管法规,要求 OpenAI 的 ChatGPT 和谷歌的 Bard 等公司遵守更严格的规定才能在欧盟运营。
欧盟内部市场和司法委员会的议员们于周四同意,应要求创建「基础模型」的公司进行风险评估,总结用于训练模型的受版权保护的材料,并确保用户知道他们何时与人工智能进行交互或观看「deepfake」视频。他们还投票禁止实时使用人工智能来识别公众人物。
在欧盟的人工智能法案(AI Act)投票中,大多数议员(84 人)投票赞成增加这些控制措施,7 人投反对票,12 人弃权。
周四的投票并非最终结果。整个欧洲议会将在下个月表决全面的 AI 法案提案,然后议会将不得不与委员会和欧盟 27 个成员国进行最终协商。尽管如此,该法案旨在影响其他国家在这种潜在破坏性技术上加强监管。
欧洲议会中 AI 法案的主要作者之一 Brando Benifei 在投票前告诉记者:「这种方法不仅可以在影响全球监管实践方面产生布鲁塞尔效应,还可以让世界其他地区开始这一讨论。」
OpenAI 首席执行官 Sam Altman 计划下周在美国参议院作证,向负责监管人工智能发展的小组发表演讲,探讨该行业的潜在标准。Altman 呼吁监管机构应解决潜在的社会危害问题,因为大型科技公司竞相开发和发布更先进的人工智能模型。
欧盟是否应特别对生成 AI 进行监管的争论在今年早些时候升温,当时发布了升级版的 ChatGPT,该技术可以确切地执行人类的任务,如参加考试、撰写电子邮件和编写计算机代码。这种技术引发了人们担心生成 AI 可能会传播错误信息并违反数据保护和版权法的担忧。
今年 3 月,包括马斯克、加州大学伯克利分校计算机科学教授 Stuart Russell 和苹果公司联合创始人 Steve Wozniak 在内的人工智能专家和业界领袖呼吁开发人员暂停训练强大的模型,以便开发共享的安全协议。