AI 发展快速的状态超越人类想像,若没有配套措施就直接接轨最新科技,将会引发一连串的社会问题,这也是欧盟的 AI 道德准则最重要的理由。
欧洲联盟执行委员会(European Commission)推广人工智慧(AI)产业的同时,日前发布人工智慧道德准则,揭露提升对 AI 信心的架构。
欧盟执委会副主席恩席普(Andrus Ansip)说:「有道德的 AI 是双赢立场,可以成为欧洲的竞争优势,作为人们可以信任的以人为本 AI 领导者。」
一个「值得信赖 AI」长什么样子?
欧盟执委会征询独立专家意见后,在这份道德准则中列出「值得信赖 AI」的 7 个关键条件。
七大条例概述:
1,AI 不应侵犯人类自主性与自由。
2,AI 应具资讯安全性与正确性。
3,AI 搜集的数据得受到安全且隐密的管理
4,建构 AI 的系统与演算法得公开且得以追溯到开发者
5,AI 需具备多元性与公平性,不行以年龄、性别、种族作为分类标准
6,AI 需促进社会正面改变,且具备永续性(例如,AI 应保持环保的概念)
7,AI 需建立咎责机制。
欧盟执委会现在以在产业、研究和公共主管当局试行为目标,测试这 7 个关键条件。其他国家的企业和国际组织也会参与测试。
由于近年各国都致力发展AI,令AI已经广泛运用至各种领域,从医疗到自动驾驶,甚至能协助打击犯罪,但AI却也面临许多困境,对于许多灰色地带仍有讨论空间,欧盟颁布的七大道德准则,无论对于AI或人类来说,都可能成为一种保障。
一个「值得信赖 AI」长什么样子?