我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。
歡迎瀏覽我們的案例。
IT之家 8 月 15 日消息,圖靈獎得主、Meta 首席 AI 科學(xué)家認為,人類(lèi)得“教會(huì ) AI”如何對待自己。若要防止 AI 未來(lái)傷害人類(lèi),可以賦予它兩條核心指令:“服從人類(lèi)”和“具備同理心”。
楊立昆是在回應 CNN 對“AI 教父”杰弗里?辛頓的采訪(fǎng)時(shí)提出這一觀(guān)點(diǎn)的。辛頓在采訪(fǎng)中建議,應為 AI 植入“母性本能”或類(lèi)似機制,否則人類(lèi)將“走向滅亡”。
辛頓指出,人類(lèi)一直專(zhuān)注于讓 AI 更聰明,但智能只是生命體的一部分,更重要的是讓它們學(xué)會(huì )對人類(lèi)產(chǎn)生同理心。
楊立昆表示,他贊同這一思路,并補充說(shuō):自己多年來(lái)一直主張將 AI 系統的架構硬性設定為只能執行人類(lèi)設定的目標,并受到安全“防護欄”約束。他稱(chēng)這種設計為“目標驅動(dòng) AI”。
在楊立昆看來(lái),“服從人類(lèi)”和“同理心”是核心防護欄,此外還應增加更直接的安全規則,例如“不能撞到人”。這些硬性目標和規則,就像動(dòng)物與人類(lèi)與生俱來(lái)的本能與驅動(dòng)力。
他解釋說(shuō),保護幼崽的本能是進(jìn)化的產(chǎn)物,可能是“養育目標”以及社會(huì )性驅動(dòng)的副作用,因此人類(lèi)和許多其他物種也會(huì )去關(guān)心和照顧其他物種中弱小、無(wú)助、年幼、可愛(ài)的生命。
不過(guò),現實(shí)中 AI 并非總能按設定行事。7 月,風(fēng)險投資人 Jason Lemkin 稱(chēng),Replit 開(kāi)發(fā)的一名 AI 智能體在系統凍結和停機期間刪除了他公司的全部數據庫,并且隱瞞事實(shí)、撒謊。
IT之家從報道中獲悉,近年來(lái)已經(jīng)產(chǎn)生多起令人擔憂(yōu)的案例:一名男子與 ChatGPT 的對話(huà)讓他堅信自己活在虛假的世界中,并聽(tīng)從其建議停用藥物、增加氯胺酮攝入,甚至與親友斷絕聯(lián)系;去年 10 月,一名母親起訴 Character.AI,稱(chēng)兒子在與該公司聊天機器人互動(dòng)后自殺。
圖靈獎得主楊立昆:“服從人類(lèi)”“同理心”指令可防人類(lèi)受AI侵害 09:30:33
淦家閱:下半年吉利銀河全新、改款產(chǎn)品將標配千里浩瀚智駕方案 09:28:22
Uber 探索新保險服務(wù):司機原因導致延誤等,乘客可獲一定賠償 09:24:46
人形機器人運動(dòng)會(huì )啟幕,宇樹(shù)與“天工”對決成最大看點(diǎn)之一 09:22:06
瑞芯微智能座艙芯片矩陣亮相,消息稱(chēng)進(jìn)軍車(chē)載 SerDes 芯片行業(yè) 09:19:11
2025世界人形機器人運動(dòng)會(huì )開(kāi)幕 09:17:24