欧洲推出AI办公室,作为安全、政策和开发的“全球参考点”

(SeaPRwire) –   欧洲委员会本周开设了新的人工智能办公室,它将帮助为该集团制定政策,同时也将成为“全球参考点”,根据官方说法。

“欧洲人工智能办公室将支持可信赖人工智能的开发和使用,同时也将保护人工智能风险,”委员会在其网站上发布的声明中写道。”人工智能办公室成立于欧洲委员会内,作为人工智能专业知识的中心,并构成单一的欧洲人工智能治理体系的基础。”

“人工智能办公室还促进创新环境,以利用其社会和经济效益,”委员会说。”它将确保欧洲在国际层面采取战略一致和有效的人工智能方法,成为全球参考点。”

委员会于2021年4月提出了人工智能战略计划,旨在使欧洲联盟(EU)成为“世界一流的人工智能中心”,并确保人工智能以人为本且可信赖。

新的办公室将主要协调成员国之间的政策,并支持他们自己的治理机构-这是去年在布莱切利公园签署协议的一个关键点。

布莱切利宣言由包括美国、中国和英国在内的28个国家签署,重点关注两个主要点:识别人工智能安全风险,以及“根据这些风险在我们各国建立相应的基于风险的政策,以确保安全。”

人工智能开发和使用安全一直是公众首次意识到该技术潜在转型性能力后就一直在辩论和政策制定中占据中心地位。

为了控制该技术的发展,欧洲委员会于2021年启动了人工智能创新计划,包括GenAI4EU倡议,将确保任何新人工智能项目“尊重欧盟价值观和规则”。

欧洲委员会主席乌尔苏拉·冯德莱恩在联盟状况演讲中宣布了一个新计划,将欧洲超级计算机开放给欧洲人工智能初创公司,并启动了一个奖金为25万欧元(约27.35万美元)的竞赛,鼓励公司开发符合开源许可的新人工智能模型用于非商业用途,或必须发布研究成果。

竞争领导人工智能的发展不仅意味着保持技术开发的 cutting edge。人工智能安全政策也已成为国家争夺该行业领导地位的竞争领域。

美国随后成立了国家标准技术研究所下的人工智能安全小组,旨在“促进安全、安全和测试人工智能模型的标准的发展”,以及其他任务。

欧洲也跟进发布了欧盟人工智能法,委员会将其称为世界上第一个全面规范人工智能的法律。欧洲议会宣布,成员国内开发的人工智能应该保持“安全、透明、可追溯、无歧视和环保”。

“人工智能系统应由人而不是自动化来监督,以防止有害结果,”议会说。

人工智能办公室将与“各种机构、专家和利益相关者”合作完成任务,包括一个独立的科学专家小组,以确保与科学界保持“密切联系”。

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。