本報駐德國特約記者 青 木
歐盟21日公佈一套管理人工智能(AI)應用的法律草案,旨在為全球人工智能應用制定規則。歐盟競爭事務執委維斯塔格當天在新聞發佈會上介紹稱,按照法律草案,歐盟委員會將AI的應用場景按照風險程度,分為“最低、有限、高、不可接受”四個風險等級,等級越高的應用場景受到的限制越嚴格。
據德國電視一台22日報道,風險等級“最低”的場景包括基於AI的電子遊戲、垃圾郵件識別軟件等,此類應用場景不會受到約束;風險“有限”的場景包括聊天機器人等,由用户自行決定。“高”風險應用場景指可能對人的生命、生活造成嚴重影響的場景,如交通設備、教育培訓、醫療輔助、信用評級等。對於此類場景,歐盟建議在啓用前應履行嚴格義務,如足夠的風險評估、高質量的數據交換、確保可追蹤的活動記錄以及必要的人工監督等。根據草案,企業若違反AI應用規定將遭重罰,首先是受到公開警告,之後產品可能會被下架,如屢犯不改則可遭到3000萬歐元的罰款或罰沒其年收入的6%。
不過,這一法律草案在歐洲引發爭議。一些政黨稱讚歐盟此舉是通過為全球指定標準,超越了中美兩國在AI技術上的全球領先地位。經濟界則大多持批評態度,德國機械與設備工程協認為, AI應用風險被歐盟“完全誇大了”,該草案會減慢歐洲的創新速度。《明鏡》週刊也稱,美國和中國在AI競賽中處於領先地位,歐盟不但在競爭中“睡過了頭”,現在還想為發展“拖後腿”,過於嚴格的法規會嚇跑AI投資者。▲