吉祥体育安全网址: 由美国国防部(DoD)任命的一名顾问最近在乔治敦大学会议上提出了在战争期间使用人工智能(AI)的一系列道德原则。
国防创新委员会(DIB)的成员进行了大量研究,并在制定道德原则列表之前咨询了AI领域的许多专家。
DIB建议按照拟议的准则在战争中使用AI是公平,可追溯,可靠和可治疗的。 DIB还指出,使用DoD AI系统时,人类必须负责并“准确判断”。现在由国防部决定是否接受,修改或完全拒绝DIB的建议。
五角大楼的原则之一是应采取行动,避免在战斗或非战斗AI系统的开发和部署中出现意料之外的偏见,这些偏见可能会无意伤害到一个人。
董事会成员还敦促继续研究和开发AI系统,因为AI系统仍在快速变化。
空军发言人约翰·N·T·约翰说:“ DIB的宝贵见解是与企业,政府,学术界和美国公众进行15个月的联系的结果。韩夏娜(JAIC)智能中心主任
该语句添加: “ DIB的建议将加强五角大楼遵守五角大楼AI战略中概述的最高道德标准的承诺,同时使用严格的测试和现场标准来适应美军悠久的技术创新历史。
国防部在将AI与JAIC结合使用方面取得了长足的进步。根据该网站,该中心的任务是“通过加快AI的交付和采用来改变国防部,以实现大规模的任务影响。”吉祥体育备用链接
但是五角大楼对AI的实施受到了多种批评。
2018年4月,超过4,000名Google员工签署了一封信,要求首席执行官Sundar Pichai结束他们在五角大楼运行的AI计划的参与。成立于2017年4月的程序Project Maven包括开发用于分析美国国防部收集的无人机图像的AI软件。经过严格的调查,Google决定不与五角大楼一起审查Project Maven项目,但此后,它与五角大楼的国防高级研究计划局(DARPA)合作进行了下一个AI计划,即非战斗技术使用。
8月,美国国防部表示担心在AI技术方面落后于中国。特别是考虑到美国科技巨头对与五角大楼的合作持保留态度。
Shana Han说:“如果无法加强美国政府,工业界和学术界之间的联系,那么[AI]确实存在不及中国那么快的现实危险。乔治敦安全与新技术中心与大学外国服务学院合作,为决策者提供有关人工智能和国家安全的建议。
“重要见解”:五角大楼国防创新委员会提出AI道德规范
