6 月 12 日,Hugging Face 向美国国家电信和信息管理局 NTIA 提交了一份关于 AI 责任政策的信息请求回应。在我们的回应中,我们强调了文档和透明度规范在推动 AI 责任过程中的作用,以及依赖此技术众多利益相关者的全面专业知识、观点和技能来应对这项技术前所未有的增长带来的任何单一实体都无法回答的更多问题之必要性。
Hugging Face 的使命是 “民主化优秀的机器学习”。我们理解这个语境中的“民主化”一词意味着使机器学习系统不仅更容易开发和部署,而且更容易让其众多利益相关者理解、质询和批判。为此,我们通过 强化教育、重视文档、社区指南 和 负责任开放 的方法来促进透明度和包容性,以及开发无代码和低代码工具,让所有技术背景水平的人都能分析 ML 数据集 和 模型。我们相信这有助于所有感兴趣的人更好地理解 ML 系统的局限性,以及如何安全地利用它们为用户和受这些系统影响的人提供最佳服务。这些方法已经证明了它们在促进责任方面的效用,特别是在我们帮助组织的更大型多学科研究项目中,包括 BigScience (请参阅我们关于该项目社会利益的博客系列 社会背景下的 LLM 研究),以及最近的 BigCode 项目 (其治理方式 在此处详细描述)。
具体而言,我们对责任机制提出以下建议:
我们相信,优先考虑机器学习组件本身和评估结果的透明度对于实现这些目标至关重要。你可以在 这里 找到我们更详细的回应。
英文链接: https://hf.co/blog/policy-ntia-rfc
原文作者: Yacine Jernite, Margaret Mitchell, Irene Solaiman
译者: innovation64
审校/排版: zhongdongy (阿东)
手机扫一扫
移动阅读更方便
你可能感兴趣的文章