圖靈獎得主、馬斯克(Elon Musk)及許多AI專家公開呼籲暫停開發比ChatGPT-4更強大的AI系統

2023年3月22日,未來生命研究所(Future of Life Institute)在其網站上公開了一封公開信,標題為” 「暫停大型AI實驗:一封公開信」(Pause Giant AI Experiments: An Open Letter)。引起各界關注並出現廣泛的討論。

生命研究所成立於2014年,屬於非營利組織,其使命是” 引導變革性技術造福於生活,遠離極端大規模的風險。” 該組織相信,強大技術的開發和使用方式將是決定未來生活前景的最重要因素。

該組織目前關注四大主題: 分別為人工智能、生物科技、核武器及氣候變遷,每個主題都與人類未來的生活息息相關。

這封公開信一出現就引起各界的討論與關注,主要原因除了其議題與最近流行的ChatGPT有關,還有多位學界、企業界大老簽名背書,包括2018年圖靈獎得主Yoshua Bengio、Elon Musk(Space X、特斯拉汽車及Twitter的執行長)、Stuart Russell(伯克利大學計算機科學教授,智能系統中心主任)、Steve Wozniak(蘋果聯合創始人)等人,這封公開信不長,只有590個英文字,但卻字字珠璣,公開信主要重點及筆者想法如下:

一、引用Asilomar AI 原則來支持其論點

公開信引用Asilomar AI 原則,”高級 AI 可能代表地球生命史上的深刻變化,應以相應的關懷和資源進行規劃和管理。不幸的是,這種級別的規劃和管理並沒有發生,儘管最近幾個月人工智能實驗室陷入了一場失控的競賽,以開發和部署更強大的數字思維,沒有人——甚至他們的創造者——都無法理解,預測,或可靠地控制。”

這些原則是在2017年ASILOMAR會議上共同開發的,可通過此網站查看過程描述。

此原則共有23條,詳如下述

1)  研究目標: 人工智慧研究的目標應該建立有益的智慧,而不是無秩序的的智慧。

2)  研究資金: 投資人工智慧的同時,應資助那些確保其創造有益價值的研究,包括電腦,經濟學,法律,倫理學和社會學的棘手問題,諸如:

  1. 我們如何使得未來人工智慧系統高度穩健,從而按照我們的意志行事且不會發生故障或被入侵?
  2. 在維護人類的資源和目標的同時,如何通過自動化來提高我們的繁榮?
  3. 為緊隨人工智慧發展步伐,並管理人工智慧相關風險,我們該如何更新我們的法律系統,使其更為公平和有效?
  4. 人工智慧應該遵守哪些價值觀?人工智慧的法律和倫理狀態應當是什麼?

3)  科學政策連結:人工智慧研究人員和政策制定者之間,應形成積極、有建設性的溝通。

4)  研究文化: 研究人員和人工智慧開發人員應該被培養一種互相合作、互相信任和互相透明的文化。

5)  規避不當競爭: 人工智慧開發團隊間應積極合作,避免以妥協安全標準為競爭的代價。

道德標準和價值觀念

6) 安全性: 人工智慧系統應當在運行全週期均是安全可靠的,並在適用且可行的情況下可驗證其安全性。

7) 故障透明: 如果一個人工智慧系統引起損害,應該有辦法查明原因。

8) 審判透明: 在司法裁決中,但凡涉及自主研製系統,都應提供一個有說服力的解釋,並由一個有能力勝任的人員進行審計。

9) 職責: 高級人工智慧系統的設計者和建設者是系統利用,濫用和行動的權益方,他們有責任和機會塑造這些道德含義。

10) 價值觀一致:對於高度自主人工智慧系統的設計,應確保其目標和行為在整個運行過程中與人類價值觀相一致。

11) 人類價值觀: 人工智慧系統的設計和運作應符合人類對尊嚴、權利、自由和文化多樣性的理想。

12) 個人隱私: 既然人工智慧系統能分析和利用資料,人們應該有權利獲取,管理和控制他們產生的資料。

13) 自由與隱私: 人工智慧對個人資料的應用不能不合理地削減人們的實際或感知的自由。

14) 共用利益: 人工智慧技術應使盡可能多地人受益和賦能。

15) 共用繁榮: 人工智慧創造的經濟繁榮應該廣泛的共用,造福全人類。

16) 人類控制:為實現人為目標,人類應該選擇如何以及是否由人工智慧代做決策。

17) 非顛覆:通過控制高級人工智慧系統所實現的權力,應尊重和改善健康社會所基於的社會和公民進程,而不是顛覆它。

18) 人工智慧軍備競賽: 應該避免一個使用致命自主武器的軍備競賽。

長期問題

19) 性能警示: 因為沒有達成共識,我們應該強烈避免關於未來人工智慧性能的假設上限。

20) 重要性: 超級人工智慧可代表地球生命歷程中一個深遠的變化,應以相應的關注和資源對其規劃和管理。

21) 風險: 對於人工智慧造成的風險,尤其是那些災難性的和存在價值性的風險,必須付出與其所造成的影響相稱的努力,以用於進行規劃和緩解風險。

22) 遞迴自我完善: 那些會遞迴地自我改進和自我複製的人工智慧系統若能迅速增加品質或數量, 必須服從嚴格的安全控制措施。

23) 共同利益: 超級人工智慧只應服務于廣大道德理想,應造福於全人類,而不是為了某個國家或某個組織的利益。

二、具人類智慧的AI系統可能對人類構成深遠的風險,但卻無法理解與控制

公開信引用了2017年~2023年的12篇關於AI的研究報告,並做出結論: 「具有人類競爭智能的 AI 系統可能對社會和人類構成深遠的風險。」,

筆者觀點:

最近幾個月ChatGPT風靡全球,各大人工智能實驗室為不落人後,紛紛陷入了一場失控的競賽,例如,Google為對抗ChatGPT,於2023年2月8日倉促推出聊天機器人,並以直播方式介紹新產品(Bard),在那場”Live in Paris”的直播中,因主辦單位準備不周全,演示的手機遺失及Bard答題錯誤等問題,而倍受爭議,還造成股價下跌。

Live from Paris

現階段無論AI機器人多麼厲害,應該沒有人(即使發明者)能理解或可靠地控制AI機器人,這是深度學習的老問題,靠著機器學習的黑箱訓練,超過上億個參數的大模型,沒人能了解其來龍去脈,最理想的情況是: 只有當人們確信AI的影響是積極的並且風險是可控的時候,才應該開發強大的人工智能系統,不過這真的很難,但我們相信應該會有那麼一天來臨,由此可知,「模型的可解釋性」是現在及未來研究AI的另一個重要的課題。

筆者觀點:

模型的可解釋性」是現在及未來研究AI的另一個重要的課題。

筆者看文章,喜歡研究來源及出處,以下是公開信引用的12篇報告的相關標題,有興趣的朋友可自行進一步深入研究。

12篇報告的標題

  1. Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
  2. Bostrom, N. (2016). Superintelligence. Oxford University Press.
  3. Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
  4. Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
  5. Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
  6. Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine43(3) (pp. 282-293).
  7. Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
  8. Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
  9. Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
  10. Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
  11. Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
  12. Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

三、公開呼籲暫停6個月的訓練比ChatGPT-4 更強大的 AI 系統

1.暫停開發

公開信呼籲所有 AI 實驗室立即暫停至少 6 個月的訓練比 GPT-4 更強大的 AI 系統。這種暫停應該是公開的和可驗證的,並且包括所有關鍵參與者。如果不能迅速實施這種暫停,政府應介入並暫停。

2.研擬安全協議

人工智能實驗室和獨立專家應該利用這次暫停,共同開發和實施一套用於高級人工智能設計和開發的共享安全協議,並由獨立的外部專家進行嚴格審計和監督。這些協議應確保遵守它們的系統是安全的,無可置疑。

筆者觀點:

六個月後不會有啥變化,要政府介入也很難,但大家可能對開發AI會更謹慎小心,但利之所趨,成效有多大,有待觀察

四、開發強大的 AI 治理系統

  1. 專門負責 AI 的新的和有能力的監管機構;
  2. 監督和跟踪高性能人工智能系統和大量計算能力;
  3. 資料出處和浮水印系統,以幫助區分真實與合成並跟踪模型洩漏;
  4. 強大的審計和認證生態系統;
  5. 人工智能造成的傷害的責任;
  6. 為技術人工智能安全研究提供強大的公共資金;以及
  7. 資源充足的機構來應對人工智能將造成的巨大的經濟和政治破壞(尤其是對民主的破壞)。

筆者觀點:
AI治理系統這七點可作為一般企業開發及使用AI系統的參考。

若同意此公開信內容且有興趣參與聯署的朋友,可到公開信網站參與聯署。

五、ChatGPT引發的效應及負面影響

1.義大利開了第一槍 | 全球第一個公開官方宣告暫時禁用ChatGPT的國家

2023年3月31日,義大利數據保護局(GPDP,Garante per la protezione dei dati personali) 在其官網宣稱因ChatGPT因 “非法蒐集個人資料及未成年人年齡核實系統缺失”,停止使用ChatGPT,這個舉措使義大利成為全球第一個官方公開禁用ChatGPT的國家,在全球風靡此AI聊天機器人之際,無疑潑下一盆冷水,讓大家開始思考這款聊天機器人對於人類社會的影響性,同時也間接呼應了 “靈獎得主、馬斯克(Elon Musk)及許多AI專家公開呼籲暫停開發比ChatGPT-4更強大的AI系統的公開信”。

註: 意大利數據保護局(Garante per la protezione dei dati personali) 是一個獨立機構,旨在保護與個人數據處理相關的基本權利和自由,並確保尊重個人尊嚴。

GPDP強調,OpenAI 必須為使用人工智能模擬人類對話的 ChatGPT 平台大量收集和存儲用戶個人數據提供法律依據。缺乏這一法律依據會導致個人數據的處理不准確,並且不符合現行的隱私法規。

OpenAI 在歐盟沒有辦公室,但在歐洲經濟區指定了代表,OpenAI必須在 20 天內通報為執行GPDP的要求而採取的措施,否則會被處以最高可處以 2000 萬歐元的罰款歐元或高達年度全球營業額的 4%。

以往對於這些科技巨頭(Apple, Microsoft, Google等)的罰款(因違反資料隱私問題、市場競爭問題等),以歐盟的國家的幾個領頭國家(如英國、法國、德國等)主導,此次義大利頗為強勢的第一個跳出來倒是有點出乎意料之外。

2.香港大學宣布禁用ChatGPT

2023年2月17日(週五)香港大學副校長何立仁教授透過發給全校師生的內部郵件,為避免人工智能對於學校的影響,該校將實施臨時措施,禁止在香港大學的所有課堂、課業和評估工作中使用ChatGPT或任何其他人工智慧工具。除非得到課程導師的書面許可,學生不能為自己或其他學生提供許可、豁免。

信中還提及,若涉嫌違反這一臨時措施的行為將會被視為潛在的剽竊情況處理。

筆者肯定該校的作法,相信該校的學術品質能持續維持一定的水準。

香港大學的這項措施雖然是短暫的臨時措施,相信日後該校會推出一項長期政策才應對人工智能所產生的學術品質的問題。

香港大學副校長何立仁教授透過發給全校師生的內部郵件

部分內部郵件英文原文

” You’ll have heard of ChatGPT, one of many large language models sweeping the internet and shaking up global education.

We’ve started to consider the implications of AI-based tools for teaching and learning at HKU and plan to launch a broad-based campus debate involving both teachers and students. Since the implications are certain to be significant, however, it will take a while for us to settle on a long-term policy. Meanwhile, we’re in the middle of a teaching semester with little room for manoeuvre as courses and assessments take place each week. We therefore need to adopt a short-term policy.

This is it: As an interim measure, we prohibit the use of ChatGPT or and other AI-based tool for all classroom, coursework and assessment tasks at HKU. Exemptions require written permission from course instructors. Students cannot provide themselves or other students with exemptions. “