行业新闻与博客

五角大楼发布《道德战时使用 AI 指南》

五角大楼顾问委员会已经发布了一系列   关于在战争中使用人工智能(AI)的道德准则。 



在“ AI 原则:国防部关于人工智能在伦理上的使用的建议”中,国防创新委员会(DIB)避开了可行的建议,而转向了高级别的道德目标。 



董事会在建议中写道,国防部的 AI 系统应负责,公平,可追溯,可靠且可管理。  



由于 AI 系统是没有法律或道德机构的工具,董事会写道,人类必须对其发展,部署,使用和结果负责。



就公平而言,委员会写道,国防部(DoD)应当“采取有步骤的措施,以避免在开发和部署战斗或非战斗 AI 系统时意外造成对人员造成伤害的偏见。”



为确保可追踪支持 AI 的系统,董事会建议使用透明且可审核的方法,数据源以及设计程序和文档。



董事会建议国防部的 AI 应尽可能可靠,并且由于永远无法保证可靠性,因此应始终对其进行管理。这样,可以关闭“表明意外升级或其他行为的系统”。 



董事会呼吁道德规范成为所有新 AI 技术开发过程中不可或缺的一部分,而不是事后的想法。 



“只有在已部署的流程展开后,才能构建或考虑小部件,否则无法'坚持'道德规范,政策也不能等待科学家和工程师解决特定的技术问题。相反,必须通过以下方式进行集成,迭代的技术开发:道德,法律和政策方面的考虑与技术发展同时发生。”



尽管包括欧盟委员会,英国上议院以及德国,法国,澳大利亚,加拿大,新加坡和迪拜等政府部门的公共部门都制定了 AI 道德规范或治理文件,但美国是独一无二的提供针对军队的 AI 指南。 



“在查阅大量可用的《 AI 伦理原则》文件时,值得注意的是,世界上没有其他军队提供其在道德上设计,开发和部署 AI 系统的方法。在这方面,国防部在这方面处于领先地位展示其对道德和法律的承诺”。



由于 DIB 的建议不具有法律约束力,因此现在由五角大楼决定是否应遵循董事会的指南。



非常感谢您对亚洲注册的支持与信任!

禁止转载

需要帮助吗?联系我们的支持团队 在线客服