探討歐盟就人工智能監管達成協議
歷時3天的“馬拉松式”談判圓滿結束,理事會主席與談判代表剛剛就人工智能協調規則達成協議,預計最終將成爲《人工智能監管的人工智能法案》。該法規草案的重點是提供一個合規框架,優先考慮在歐盟部署安全和尊重人權的人工智能系統。這一人工智能法規超越了歐洲國家在人工智能領域投資和創新的靈感。
《人工智能法案》是一項具有裏程碑意義的立法,它可以創造一個有利的環境,在這種環境中,人工智能的使用將成爲一種更優秀的安全和信任的工具,確保整個歐盟的公共和私人機構利益相關者的參與。其主要思想是,根據人工智能對社會造成傷害的能力,遵循“基於風險”的方法來監管人工智能:風險的危險程度越高,需要做出的限制就越多。這第一部法律爲其他司法管轄區的人工智能監管建立了一個全球先例。相比之下,GDPR以同樣的方式已經在保護個人數據方面做到了這一點,因此在全球範圍內推廣了歐盟的技術監管方式。
臨時協定的主要內容
與歐盟委員會的初步提案相比,人工智能監管臨時協議的主要新內容可以總結如下:
- 對具有未來系統性風險的高影響通用人工智能模型和控制該系統的高風險人工智能系統進行分類。
- 在歐盟一級改進具有協調權力的治理制度或全面改革經濟政策。
- 擴大了違禁物品清單,但警務人員可在公共場所使用遠程生物鑑別識別;不過,這是在不受濫用的條件下進行的。
- 更好地執行權利,這是因爲要求部署有潛在風險的系統的人工智能行爲者在使用這些系統之前先了解這些系統的基本權利影響。
更具體地,臨時協定包括以下方面:
- 定義和範圍
根據選擇協議,試圖選擇經合組織庇護所的人工智能系統的定義與建議的程序相對應。這樣,人工智能系統的標准有助於更清楚地區分簡單的軟件系統。
此外,臨時協議更詳細地解釋了該條例的規則不包括屬於歐盟法律領域的部門,不能以任何方式削弱成員國在國家安全領域或在國家安全領域分擔責任的各方的能力。不僅如此,《人工智能法案》也不會擴展到僅用於軍事或國防目的的人工智能系統。同時,該條約還指出,人工智能系統不僅用於科學和研究目的,而且用於非科學和非創新原因,包括非人工智能技術人員或專家的情況下,法律應適用於人工智能系統。
- 將人工智能系統分類爲高風險和被禁止的人工智能實踐
它創建了一個橫向安全屏障,其中包括1.1級"可能的嚴重/重大權利損害",以排除未預測會造成這種威脅的人工智能系統。那些對用戶有輕微傷害風險的人工智能系統將具有最低的透明度要求。例如,其應該通知用戶內容是人工智能生成的,這樣就可以決定是否使用該內容或執行進一步的操作。
將批准在歐盟領土上運行的各種基於人工智能的系統。然而,必須滿足進入歐盟市場的要求和責任。這些共同立法委員增加和修訂了一些規定,使之在技術上更簡單明了,減輕了持份者的負擔,例如,關於數據質量的供應,以及中小企業需要編寫的技術文件,以證明其人工智能系統已安全構建並符合現行規定。
由於人工智能系統是在要求苛刻的價值鏈環境中創建和提供的,因此折衷安排將要求除其他外,對企業的行爲進行修訂,以反映對該鏈中各種行爲者(即該技術系統的提供商和用戶)的責任/影響範圍的澄清。它還闡明了《人工智能法案》中衍生的人工智能特定義務如何相互作用,並與其他法律中規定的義務發生衝突,如歐盟的數據立法和部門立法。
人工智能的應用將會因爲高風險而被拒絕,這對於人工智能的某些用途是被禁止的。因此,這些設備將不會被引入歐盟。根據初步協議,禁止的行爲包括行爲控制的認知技術、從網絡上無目的地收集面部圖像等、機構和教育中的情感識別、社會評分、用於確定性取向或宗教信仰的生物識別方法,以及用於警務目的的一些個人家譜。
- 執法例外
考慮到執法組織的特殊性和其在履行職責時使用計算機的必要性,對委員會關於執法的規則AI的建議作出了若幹修改,這是至關重要的。只要制定了謹慎的措施,這些變革就會轉化爲運營商保護信息隱私的必要性。這方面的一個例子是啓動高風險人工智能實施的緊急程序,但不包括在緊急情況下進行符合性評估。除此之外,還制定了一項具體行動,爲保障人權,防止濫用人工智能申請提供權限。
此外,臨時協議的案文明確表達了在公共場所使用實時遠程生物鑑別識別系統的原因,但僅出於執法原因,只有在例外情況下才允許當局這樣做。折衷協定規定了額外的保障措施,並將這些例外情況限於殺害犯罪嫌疑人的案件,確保只有在真正威脅的情況下才進行搜查,以及在人們涉嫌犯下最嚴重罪行時才防止恐怖襲擊和搜查。
- 通用人工智能系統和基礎模型
對於人工智能系統用於多種目的的場景,即通用人工智能和獨立系統,制定了新的規定。另一個高風險系統,即自行駕駛汽車,與通用人工智能集成。《過渡協定》還包括GPA(GPAI)。GPA監管是協議的核心部分。
基礎模型被描述爲能夠在復雜活動中表現出能力的系統,如文本生成、視頻分割、處理自然語言、渲染代碼和許多更多的計算機任務,也已經得出結論。臨時安排要求基本模型在上市前滿足去污染要求。建立"高影響"基礎模型所需的政策要嚴格得多。這些具有巨大規模和非常先進的復雜性、能力和性能的平均數據模型可以在企業的價值鏈中帶來系統性風險;所有參與企業都可以分擔這些風險。
- 新的治理架構
根據新的GPAI模式的限制措施及其在歐盟一級的標准化監測的必要性,委員會設立了一個獨特的人工智能辦公室,負責監督這些最先進的人工智能模式,促進建立規範和測試程序,並在所有成員國執行主要規則。一個獨立的技術專家科學小組將就模型規模向GPAIAI辦公室提供咨詢意見,方法是制定評估基礎模型和技術力量的方法,對准備上市的GPAI狀態和基礎模型進行評估,並可能監測與基礎模型有關的材料的安全性。
爲此目的,由成員國組成的人工智能委員會作爲其成員,並作爲委員會的協調平台和咨詢機構,應在其領域內使成員國在實施條例方面發揮突出和關鍵的作用,將其作爲基礎模式的業務守則。最後但並非最不重要的是,將建立一個論壇,由行業參與者、中小型企業、初創企業、公民社會和大學代表個人利益相關者。這可以提供人工智能委員會可以使用的技術知識。
- 處罰
對違反《人工智能法》的企業進行對接和制裁,罰款金額最低爲一定數額,最高可達上一財政年度全球年營業額的百分比。違反上述人工智能應用將被處以3500萬歐元(7%)的罰款,違反《人工智能法》義務將被處以1500萬歐元(3%)的罰款,提供誤導性信息將被處以750萬歐元(1.5%)的罰款。盡管如此,該臨時協議包括特殊罰款,當中小企業和初創企業承諾遵守人工智能法案的規定時,這些罰款對其影響較小。
與《人工智能法》的簡明協議規定,自然人或法人有權向相關市場監督實體提出正式投訴。此外,該機構在處理上述投訴時應遵循其特定和規定的程序。
- 透明度和保護基本權利
值得注意的是,臨時協議要求人工智能系統部署人員在將高風險系統投放市場之前,對終端用戶的保障措施進行權利影響評估。這項臨時協議也爲廣泛使用復雜的人工智能和自動真相檢測系統提供了一個良好的起點。其將使該系統的實施範圍清晰。值得注意的是,擬議委員會的一些規定已經修改,參考了高風險人工智能系統的各種偶爾的政府用戶,這些用戶也在歐盟數據庫中注冊了高風險人工智能機器學習系統。除此之外,更新後的產品线還會向操作情緒識別系統的用戶發送一條消息,告知其何時接觸到該系統。
- 支持創新的措施
這一部分的規定受到了重大修改,鼓勵創新,這是委員會提議建立一個更加科學的創新框架的一個重要方面,該框架不斷適應,以確保在整個歐盟範圍內建立可持續的監管環境。
應要求人工智能監管沙箱,旨在確保开發、測試和驗證新人工智能系統的控制環境,也允許在真實情況下測試機構。此外,在人工智能系統在現實環境中進行測試的情況下,已經啓用了新的限制,以便在特定條件下使用系統。此次臨時協議是爲了減輕中小企業的行政負擔,制定了收入低的中小企業支援方案。在這種情況下,如果克減受到合法限制和嚴格具體,則允許克減。
- 生效日期
《人工智能管理臨時協議》規定,除某些例外情況外,《人工智能法》的規定自生效之日起適用2年。
標題:探討歐盟就人工智能監管達成協議
地址:https://www.utechfun.com/post/367437.html