2023 年 2 月,歐洲議會 AI 倫理領域的顧問 Anna Felländer 在歐盟委員會官網發表了《ChatGPT’s rapid entry – Urgent for the government to appoint an authority for responsible AI》,提出了關於為什麼要對生成式 AI 進行監管的背景、原因和解釋。筆者認為,這篇文章很有可能代表了未來歐盟委員會對生成式人工智能的監管方向之一,我們看這篇,也主要是作為一個國際動向進行關注。
全文如下:
最近新發布的人工智能方案 ChatGPT,以一種全新的方式挑戰著所有人。隨著生成式 AI 系統創造的機會,我們同時也面臨著具有歷史意義的十字路口:
也就是,究竟是人工智能來控制人類,還是人類來控制人工智能。
瑞典的企業和當局(因為 Anna Felländer 在瑞典),需要對人工智能採取 Ethical approach ,也就是倫理學上的考量,但最重要的是,需要建立風險評估框架,來支撐這種發展,從而指導符合人類價值觀的人工智能解決方案的發展。
此外,歐盟人工智能立法,對發展負責任的人工智能來說,指日可待,而政府迫切需要組建發展負責任的人工智能機構。
ChatGPT 和其他生成式人工智能係統
(1)首先,創造了人們內心期待已久的人工智能民主化,更多的人可以參與進來這次技術帶來的迭代,自己去創造由算法在歷史數據上生成的新內容。各個組織實現 AI 技術價值的門檻顯著降低,新的創新商業模式也層出不窮,能夠有效地加強客戶和人們的關係。
(2)同時,所有個體和社會,每天都面臨著由於不受監管的人工智能解決方案,從而導致的道德和法律問題。其中一個原因是,人工智能模型的學習是基於歷史數據,而其中,很可能存在不必要的偏見,這種偏見,可能導致社會排斥和歧視,包括其他的違規行為。
比如說,當我們這些個體,批准自己數據在某種情況下被使用時,可能並不會意識到,當我們自己的數據與其他數據結合時,算法如何創造出侵犯個人隱私的見解。
注意:這對公司和各國政府來說,代價都很高,例如可能會撤回投資,或者導致聲譽受到損失。最近的案例表明,2021 年,由於人工智能解決方案錯誤地指責接受父母保險的父母是欺詐。此外,還有個基於 OpenAI 的 GPT-3 的醫療聊天機器人被發出測試,其結果是建議病人自殺。

生成式人工智能系统,比其他人工智能解决方案具备更高程度的道德风险暴露。其中一个原因是,生成式人工智能系统的使用往往是通过 API 进行的,这使得解决方案的透明度很低,并且,对它的发展难以控制。
同时,道德和法律方面的违规行为,通常发生得很微妙,也很突然,虽然这些违规行为可能会小到无法察觉,但是极有可能造成指数级的损失。
其中一个例子是深度造假,比如说,被用来操纵视频或照片中的面孔和声音。而要注意到的是,生成式人工智能模型通常以 API 的形式提供,这就可以使用户更容易获得和使用该技术,这可能会增加滥用的风险。
需要承认的是,基于 API 的生成性人工智能模型本身并没有风险,但它们的使用方式和训练的数据会使他们具备风险。
欧盟的人工智能立法,即《人工智能法案》,将于 2024 年正式生效。
《人工智能法案》的目标,是让公民和消费者感到信任,并维护欧盟包括人权在内的价值基础。欧盟委员会在《人工智能法》中提议,成员国必须任命或建立至少一个监督机构,负责确保「必要的程序得到遵循」。
随着生成式人工智能系统逐步出现的巨大潜力,尤其是在医疗保健方面,例如正确诊断和优化疾病的治疗,关键是,要有可用的风险评估框架,并任命一个负责任的机构。
人工智能的伦理框架,为所有部门创造了一个高度的创新环境。因此,有关机构迫切需要任命这一负责机构,并提供风险评估框架,以便瑞典企业和瑞典当局不会像 GDPR 那样对人工智能法案缺乏警惕性。