人工智能(AI): 欧盟禁止使用八类危险应用软件
欧盟委员会周二公布指导方针,一些被认为过于危险的人工智能(AI)系统,包括大规模监控、情感识别、社交评级等应用软件,现已在欧盟被禁止使用。
欧盟去年通过有关人工智能的开创性立法,作为法规中的"禁令"部分已于这个周日率先生效,这在全世界尚属首次。但这些禁令要到 8 月 2 日才会实施,也就是成员国指定本国监管机构监督这些高科技系统的最后期限。
该法规旨在限制滥用,同时鼓励欧洲的创新。据欧洲行政部门的一位高级官员称,本周二公布的指导方针旨在为应用程序的"供应商"和监管机构提供"法律保障"。
欧盟立法根据风险程度对应用系统进行分类。本周二公布的详细内容只涉及那些被认为危险到需要禁止的工具。如果出现违规行为,供应或实施被禁人工智能的企业可能面临最高 3,500 万欧元的罚款,如果是公司,则最高罚款额将达到其全球最高营业额的 7%。
欧盟委员会确定了八种禁用的人工智能系统:
在公共场所使用摄像头实时识别个人身份:欧盟禁止在商业街使用装有实时面部识别技术的摄像头来识别被通缉者。在这里,"实时"的概念至关重要。不过,某些诸如反恐等特别执法任务,可做例外处理。
基于与评估风险无关的个人数据进行社会评级:一个组织不能使用人工智能应用程序,根据人们实施福利欺诈的可能性,使用与背景无关的个人数据(如出身、肤色或在社交网络上的行为)对人们进行分类。因此,在评估拖欠贷款的风险时,只能考虑财务数据。
根据生物识别数据评估个人的犯罪风险:警方不能仅根据面部特征等个人特征,而不考虑与其行为直接相关的客观且可核实的事实,就使用人工智能预测个人的犯罪行为风险,如参与暴乱或实施袭击的可能性。
通过人脸识别系统创建人脸数据库:禁止使用工具在互联网上不加区分地搜索和提取人脸照片,以建立包含数十亿张图像的大型数据库,这无异于国家监控。
工作场所或教育机构中的情绪识别:一个组织不得使用网络摄像头或语音识别系统来检测其雇员的情绪。
利用人工智能操纵人们的行为:禁止在界面设计中加入欺骗性或潜意识的人工智能系统,以诱导用户进行购买。
利用与年龄或残疾有关的弱点:一种包含人工智能并设计用于与儿童互动的玩具,如果其设计目的是保持儿童的注意力并鼓励他们参与可能会伤害他们的危险挑战,则该玩具将被禁止使用。
基于生物识别数据推断政治观点或性取向:一种声称可以根据面部分析猜测人们的政治观点或性取向的系统将不被欧盟允许使用。
来源:rfi
声明:该文仅代表作者本人观点,欢迎在下方【顶/踩】按钮中亮出您的态度。