欧盟提出了AI和数据策略,具有道德扭曲
欧洲联盟(欧盟)推出了人工智能(AI)和“数据经济”的策略,具有伦理和透明度作为口号。它还介绍了它称之为“以人为主的AI的发展”,这对“战斗气候变化”至关重要。
欧洲委员会(EC)在一份声明中表示,它有利于“欧洲社会支持的数字解决方案,使人们首先投放人员,为企业开辟新的机会,并提高了可靠的技术的发展,促进开放民主社会和充满活力的乐趣和可持续的经济“。
欧盟委员会主席Ursula von der Leyen说:“今天我们正在展示我们的野心来塑造欧洲的数字未来。它涵盖从网络安全到关键基础设施,数字教育的一切,以技能,民主到媒体。我希望数字欧洲反映出最好的欧洲 - 开放,公平,佩戴,民主和自信。“
“欧洲适合数字时代的欧洲适合数字时代”的玛格丽德·留学生在同一声明中表示:“我们希望每个员工,每一个员工都要承担公平的机会,以获得数字化的好处,无论这意味着如何安全地驾驶或污染,甚至通过允许医生的AI驱动的医疗图像拯救生命。比以往更早地检测疾病。“
和内部市场的专员补充说:“我们的社会正在产生一系列巨大的工业和公共数据,这将改变我们生产的方式,消耗和生活。我希望欧洲企业和我们的许多中小企业[中小型企业]访问此数据并为欧洲人创造价值 - 包括开发AI应用程序。欧洲拥有引领“大数据”种族所需的一切,并保留其技术主权,工业领导和经济竞争力,以欧洲消费者的利益。“
EC表示,它将“重点关注数字的三个关键目标:为人民,公平和有竞争力的经济工作,以及开放,民主和可持续的社会”。
它补充说:“欧洲拥有所有它需要成为可安全使用和应用的AI系统的世界领导者。我们拥有优秀的研究中心,安全数字系统和机器人的强大位置,以及竞争制造和服务部门,从汽车到能源,从医疗保健到农业。“
声明强调信任对AI至关重要,称:“由于AI系统可以复杂并且在某些情况下具有重大风险,建立信任至关重要。明确的规则需要解决高风险的AI系统,而不会对更少的风险造成太多负担。严格的消费者保护欧盟规则,要解决不公平的商业行为和保护个人数据和隐私,继续申请。“
关于高风险的AI情景,EC继续:“对于高风险案例,例如健康,警务或运输,AI系统应该是透明的,可追溯和保证人类监督。当局应该能够测试和证明算法使用的数据,因为它们检查了化妆品,汽车或玩具。“
对于这种断言,即AI应该是可解释的,EC增加了关于在用于创建AI系统的数据集中的偏差的需要,并在使用面部识别技术时迫使判断。
“培训高风险系统需要正确执行无偏见的数据,并确保尊重基本权利,特别是非歧视,”它说。“虽然今天,通常禁止对远程生物识别识别的面部识别,只能用于卓越,正式合理和比例的情况,受到保障,并基于欧盟或国家法律,委员会希望发起广泛的辩论哪种情况(如果有的话)可能证明这样的例外。“
EC与欧洲“数据经济”宣言委任其AI战略宣布。它再次被声明:“欧洲拥有成为这一新数据经济的领导者所需的一切:世界上最强大的产业基地,中小企业是工业面料的重要组成部分;技术;技能;现在也是一个明确的愿景。“
委员会表示,它旨在“建立一个真正的欧洲数据空间,单一市场进行数据,以解锁未使用的数据,使其在欧盟和各界方面自由流动,以便为企业,研究人员和公共行政机构提供利益”。
它补充说:“公民,企业和组织应赋予基于非个人数据收集的见解做出更好的决定。所有数据都应可用,无论是公共或私人,启动还是巨人。“
为此,EC表示,它将首先建立一个关于企业和政府之间的数据治理,访问和重复使用的监管框架,以及在管理部门之间,并补充说它“意味着使公共部门数据更广泛地获得在欧盟上开放高价值数据集,并允许重新利用以创新在顶部“。
它还表示它将推出“部门专题行动,为Instanc,E工业制造,绿色交易,流动性或健康构建欧洲数据空间。
在2020年5月19日之前,人工智能的白皮书是公开咨询的公开咨询。
欧盟声明说,瑞典·斯科克斯(副总裁),副总裁,AI和RPA(机器人流程自动化)表示:“通过选择对道德和透明度的新的AI规则集中起来,欧盟正在以一种可以帮助广泛的建立企业而不是初创企业的方式定位其AI愿景,同时区分了美国和中国的方法。
“制造业等行业中的许多欧洲中小企业在缩放AI难以困难,而不是由于缺乏尖端的创新,而是由于心态和流程所需的变化,以完全接受一种新的方法。虽然基于信任的方法更像是一个叙述而不是商业模式,但对于这些企业来说,克服了过去几年建立的一些误解和炒作,这是至关重要的,虽然它不是一个魔法子弹,它可以在正确实现时驱动实际值。
“此外,集中透明度不一定是创新杀手。深度学习等黑匣子方法并不总是适合甚至是企业的许多问题所必需的,因此令人鼓舞的是,在研究结合机器学习算法的研究中,令人抱歉,具有更经典的象征性,人类可理解的方法,这将是非常的在需要人类监督的行业中重要,如医疗保健。“