OpenAI正在資助人工智能道德研究
鞭牛士報道,11月23日消息,據外電報道,OpenAI 正在資助能夠預測人類道德判斷的算法的學術研究。
在提交給美國國稅局的文件中,OpenAI 的非盈利組織 OpenAI Inc. 披露,它向杜克大學的研究人員提供了一項名爲研究人工智能道德的項目資助。
在接受採訪時,OpenAI 的一位發言人指出,一份新聞稿表明,該獎項是向杜克大學教授提供的一項爲期三年、金額高達 100 萬美元的資助的一部分,這些教授正在研究製造道德人工智能。
關於 OpenAI 資助的這項道德研究,除了資助將於 2025 年結束之外,很少有公開的消息。
該研究的首席研究員、杜克大學實用倫理學教授 Walter Sinnott-Armstrong 通過電子郵件告訴 TechCrunch,他無法談論這項工作。
Sinnott-Armstrong 和該項目的聯合研究員 Jana Borg 已經完成了幾項研究,並出版了一本書,探討了人工智能作爲道德 GPS幫助人類做出更好判斷的潛力。作爲大型團隊的一員,他們創建了一種道德一致的算法來幫助決定誰接受腎臟捐贈,並研究了在哪些情況下人們更希望人工智能做出道德決定。
根據新聞稿,OpenAI 資助的研究工作的目標是訓練算法,以在涉及醫學、法律和商業中的道德相關特徵衝突的場景中預測人類的道德判斷。
但目前還不清楚,像道德這樣微妙的概念是否在當今技術所能及的範圍內。
2021 年,非營利性機構艾倫人工智能研究所 (Allen Institute for AI) 開發了一款名爲 Ask Delphi 的工具,旨在提供符合道德的建議。它能夠很好地判斷基本的道德困境——例如,該機器人知道考試作弊是錯誤的。但稍微改寫和重新措辭問題就足以讓 Delphi 批准幾乎任何事情,包括窒息嬰兒。
原因與現代人工智能系統的工作方式有關。
機器學習模型是統計機器。通過對來自網絡的大量示例進行訓練,它們會學習這些示例中的模式以進行預測,例如短語致誰通常位於可能相關之前。
人工智能不理解道德概念,也不理解道德決策中涉及的推理和情感。這就是爲什麼人工智能傾向於附和西方受過教育和工業化國家的價值觀——網絡以及人工智能的訓練數據中充斥着支持這些觀點的文章。
毫不奇怪,許多人的價值觀並沒有在人工智能給出的答案中得到體現,特別是如果這些人沒有通過在線發佈來爲人工智能的訓練集做出貢獻。人工智能會吸收西方人以外的一系列偏見。德爾菲說,異性戀比同性戀更“在道德上可接受”。
OpenAI 及其支持的研究人員面臨的挑戰因道德固有的主觀性而變得更加棘手。數千年來,哲學家們一直在爭論各種倫理理論的優點,但目前還沒有一個普遍適用的框架。
克勞德支持康德主義(即專注於絕對的道德規則),而 ChatGPT 則略微偏向功利主義(優先考慮大多數人的最大利益)。兩者孰優孰劣?這取決於你問的是誰。
預測人類道德判斷的算法必須將所有這些因素考慮在內。這是一個非常高的標準——假設這種算法是可能的。