歐盟競爭事務負責人表示,與人類滅絕相比,人工智能發展帶來的歧視問題更為緊迫。
Margrethe Vestager告訴媒體,需要“護欄”來應對該技術的最大風險。
她說,這是人工智能被用來幫助做出可能影響某人生計的決定的關鍵,例如他們是否可以申請抵押貸款。
歐洲議會周三批準了擬議的AI規則。
歐洲議會議員投票贊成這項立法是因為有人警告過快地開發這項技術——這使計算機能夠執行通常需要人類智能才能完成的任務。

一些專家警告說,人工智能可能導致人類滅絕。
維斯塔格女士在接受媒體獨家采訪時表示,人工智能有可能放大偏見或歧視,這可能包含在來自互聯網的大量數據中,用于訓練模型和工具,這是一個更緊迫的問題。
“可能 [滅絕的風險] 可能存在,但我認為可能性很小。我認為人工智能的風險更多是人們會受到歧視 [against],他們不會被視為他們是誰。
“如果銀行用它來決定我是否可以獲得抵押貸款,或者如果它是你所在城市的社會服務,那么你要確保你不會因為你的性別或膚色而受到歧視[against]或者你的郵政編碼,”她說。
周二,愛爾蘭數據保護機構表示已暫停谷歌在歐盟推出其人工智能聊天機器人Bard的計劃。
它表示,它已從谷歌獲悉,其ChatGPT競爭對手將于本周在歐盟推出,但尚未收到顯示該公司如何識別和最小化潛在用戶的數據保護風險的詳細信息或信息。
副專員Graham Doyle表示,DPC正在“緊急”尋求這些信息,并已就此向谷歌提出進一步的數據保護詢問。
歐盟委員會執行副主席維斯塔格女士表示,人工智能監管需要成為一項“全球事務”。
她堅持認為,在讓更多司法管轄區(例如中國)加入之前,應優先考慮“志同道合”國家之間的共識。
“讓我們開始研究聯合國的方法。但我們不應該屏住呼吸,”她說。
“我們應該在這里和現在做我們能做的?!?br />
Vestager女士正在帶頭歐盟努力與美國政府制定自愿行為準則,這將使使用或開發AI的公司簽署一套不具有法律約束力的標準。
當前的AI法案草案旨在將AI應用程序分類為對消費者構成的風險級別,其中支持AI的視頻游戲或垃圾郵件過濾器屬于風險最低的類別。
高風險人工智能系統包括那些用于評估信用評分或獲得貸款和住房的系統。這就是對技術進行嚴格控制的重點所在。
但隨著人工智能繼續快速發展,維斯塔格女士表示,在圍繞這項技術微調規則時需要務實。
她說:“比起100%從來沒有,現在得到更好,比方說現在80%,所以讓我們開始,然后在我們學習并與他人一起糾正時返回?!?br />
維斯塔格女士表示,人工智能可能被用來影響下一次選舉“絕對存在風險”。
她說,警察和情報部門面臨的挑戰將是“完全掌握”犯罪部門,他們有可能在利用該技術的競賽中取得領先。
她說:“如果你的社交信息流可以被掃描以全面了解你,那么被操縱的風險就會非常大,如果我們最終陷入什么都不相信的境地,那么我們就徹底破壞了我們的社會”
許多技術領導者和研究人員在3月份簽署了一封信,呼吁暫停開發比OpenAI的GPT-4更強大的人工智能系統。
但維斯塔格女士說這不現實。
“沒有人可以執行它。沒有人可以確保每個人都在船上,”她說,并指出暫??赡鼙灰恍┤擞米黝I先于競爭對手的機會。
“我認為重要的是,每個開發人員都知道每個人都簽署了相同的護欄,這樣就沒有人會承擔過多的風險?!?br />
歐洲議會針對AI法案的提案旨在限制生物特征識別系統的使用,以及出于面部識別系統等目的不分青紅皂白地從社交媒體或閉路電視錄像中收集用戶數據。
然而,Vestager 女士說:“我們想設置嚴格的防護欄,這樣它就不會實時使用,而只會在你尋找失蹤兒童或恐怖分子逃跑的特定情況下使用。
在人工智能法案最終定稿為世界上第一本關于使用和開發
防爆正壓柜人工智能系統的規則手冊之前,歐盟的三個權力機構:委員會、議會和理事會都必須就其最終版本達成一致。
預計不會在2025年之前生效。