印度电子和信息技术部上周发布一份公告规定所有正在开发中的人工智能技术在向印度公众发布之前必须先获得印度政府的批准和许可。
该机构在公告中表示:
正在测试中和不可靠的人工智能模型、大型语言模型、生成式人工智能、软件或算法在通过互联网向印度用户提供服务只有获得印度政府的明确许可后才可以发布,只有在对产生的输出可能存在的固有错误或不可靠性问题进行适当的标记后才能部署。
此类人工智能技术还需要使用同意弹出机制来告知用户人工智能可能产生的潜在缺陷或者错误,如果使用人工智能技术生成深度伪造内容,则必须在内容上添加永久的唯一元数据或其他标记告知用户。
此外所有中介机构 (这里指的是调用其他公司 AI 模型的平台) 或平台必须确保任何人工智能模型不存在偏见、歧视或威胁选举过程的完整性。
尽管这份公告还不具备法律约束力,不过公告要求所有人工智能技术相关的产品必须在公告发布的 15 天内遵守公告中的规定,在申请许可证并获得批准后,开发商可能会被要求进行演示或接受压力测试。
印度电子和信息技术部部长:
我们今天将其作为一项建议,要求人工智能平台遵守这些规定,未来某个时候这一立场将会被写入立法。
互联网上可用的生成式人工智能或人工智能平台必须对其平台的行为承担全部责任,不能通过说他们的平台正在测试来逃避责任。
版权声明:感谢您的阅读,除非文中已注明来源网站名称或链接,否则均为蓝点网原创内容。转载时请务必注明:来源于蓝点网、标注作者及本文完整链接,谢谢理解。