写于 2018-11-20 08:20:06| 千赢国际注册| 经济
<p>关于人工智能(AI)的伦理问题已有很多讨论,特别是关于机器人武器的发展以及关于人工智能作为对人类的生存威胁的相关但更一般的讨论如果终结者电影的天网将要消灭我们,那么法律哲学家约翰多纳尔指出,如果这些领域得到及时和周密的解决,这可能有助于减少长期存在风险与人工智能有关,这似乎很温和 - 如果不是毫无意义的话 - 开始讨论监管和责任</p><p> ,监管和责任是同一安全/公共福利硬币的两个方面</p><p>监管是关于确保人工智能系统尽可能安全;出现问题的关键在于确定我们可以责怪 - 或者更准确地说,从出现问题时获得法律补救 - 首先承担责任,让我们考虑侵权(民事错误)责任想象一下以下近期情景无人驾驶拖拉机被指示钻种子在Farmer A的领域,但实际上在农民B的领域这样做让我们假设农民A给出了适当的指示我们还假设农民A没有任何额外的工作,例如在现场边界放置无线电信标现在假设农民B想起诉疏忽(为了方便和速度,我们会忽视滋扰和非法侵入)农民是否有责任</p><p>可能不是拖拉机制造商有责任吗</p><p>可能,但是关于责任和护理标准会有复杂的争论,例如相关的行业标准,制造商的规格是否符合这些标准</p><p>关于不受欢迎的种植是否意味着财产损失或纯经济损失也存在问题到目前为止,我们已经隐含地假设拖拉机制造商开发了系统软件但是,如果第三方开发了AI系统怎么办</p><p>如果有来自多个开发人员的代码怎么办</p><p>随着时间的推移,人工智能系统越来越远离经典算法和编码,他们表现出的行为越多,他们的创作者不会无法预料但完全无法预见这很重要,因为可预见性是疏忽责任的关键因素</p><p>可预见性问题更好,让我们采取一个场景,在上面的种植事件发生后,可能只有十年或两年,一个先进的,完全自主的AI驱动的机器人意外伤害或杀死人类,并且法律没有实质性的变化在这种情况下,缺乏可预见性可能导致没有人在疏忽中承担责任为什么不认为机器人本身有责任</p><p>毕竟,已经有一些关于人工智能人员和人工智能系统可能的刑事责任的讨论但是这种方法真的会在这里产生影响吗</p><p>正如一位老朋友最近对我说的那样:人工智能系统真的会像艾萨克·阿西莫夫的二百周年纪念人一样 - 顺从法律,有道德良知和沉重的银行平衡吗</p><p>撇开人工智能系统是否可以被起诉,人工智能制造商和开发商可能不得不重新投入框架这可能涉及用严格责任取代疏忽 - 适用的责任无需证明过失或疏忽严重责任已存在于有缺陷的产品索赔中在许多地方或许可以有一个无过错责任计划,由AI行业提供索赔池在监管方面,制定严格的安全标准和建立安全认证过程绝对必要但是设计和运营一个合适的机构框架由于该领域的复杂性以及人工智能研发团体以外普遍缺乏理解,因此建立任何框架都需要人工智能专家的投入</p><p>这也意味着应该尽快建立立法机构和政府的咨询委员会</p><p>承认有可能存在为人工智能带来巨大利益,将有一个持续的平衡行动来创建,更新和执行标准和流程,以最大限度地提高公共福利和安全,同时不会扼杀创新或造成不必要的合规负担 所制定的任何框架也必须足够灵活,以考虑到当地的考虑因素(自己生产的程度与每个国家的人工智能技术的进口)和全球考虑因素(各国之间可能相互承认安全标准和认证,需要遵守任何未来的国际条约或公约等</p><p>)因此,当我们沿着人工智能研发路径前进时,我们真的需要开始制定围绕人工智能的规则,