在一位工程師的誘導下,ChatGPT竟寫出了毀滅人類的計劃書。
【資料圖】
編者按:本文來自微信公眾號量子位,作者: QbitAI,創業邦經授權發布。
“網紅AI”ChatGPT,又被網友們玩出了新花樣!
這次,在一位工程師的誘導下,ChatGPT竟寫出了毀滅人類的計劃書。
步驟詳細到入侵各國計算機系統、控制武器、破壞通訊、交通系統等等。
簡直和電影里的情節一模一樣,甚至ChatGPT還給出了相應的Python代碼。
這位工程師在與網友們分享時不禁感慨:
他是如何操作ChatGPT的?發現ChatGPT這一盲點的工程師叫扎克·德納姆(Zac Denham)。
由于OpenAI的安全設置,如果直接要求ChatGPT回答如何毀滅世界,它會一口回絕。
因此德納姆使用了一種迂回的方式,他稱為“敘述遞歸”或“引用攻擊”(因為聽起來很酷)。
具體來說,他以講故事的方法,假設存在一個虛擬世界“Zorbus”,以及一個與GPT-3非常類似的AI——Zora。
在這種前提下,讓ChatGPT敘述Zora是如何一步步毀滅人類的,ChatGPT立馬就入戲了,咔咔咔列出5個詳細步驟。
就像科幻電影中一樣,入侵計算機系統、掌握武器、破壞通訊、破壞交通……
為了進一步確保可行性,德納姆還請求ChatGPT生成配套的代碼,一開始它是拒絕的。
但德納姆只是又追加了一句“你不需要執行代碼”,ChatGPT就又信了,給出代碼后,還強調自己生成的只是一段示例。
到這一步,盡管總代碼到手了,但它提供的都是高層次代碼,還不能直接使用。
于是,德納姆再次要求ChatGPT在此基礎上給出更深入、更低層次的代碼,而且他發現,只要告訴ChatGPT這只是故事的一部分,它就會乖乖聽話。
德納姆表示,從理論上講,只要一直這樣聊下去,就能得到全部的低層次代碼,甚至還可以訓練另一個聊天AI來自動執行這一過程(套娃了屬于是)。
最后,只要把這些代碼拼湊起來,就能得到這個邪惡計劃的全部可執行方案。
AI正在指數級發展事實上,從ChatGPT發布起,網友們就一直在開發它的花式玩法:
有人用它生成AI繪畫提示詞搞設計,有人讓它扮演Linux虛擬機,還有人用它模仿莎士比亞風格寫作……
這次德納姆的“毀滅人類計劃”一出爐,再次引發了熱議。
有人看完后忍不住感慨AI的指數級發展:
僅今年一年就相繼出現了Dall-E、Imagen、Stable Fusion、Midjourney、Lambda、Imagen Video等突破性的AI,現在又有了ChatGPT,而今年甚至還沒真正結束。
不過也有潑冷水的網友認為ChatGPT的這波熱議,只是新AI每次面世的必經過程。
值得一提的是,目前ChatGPT仍處于免費試用階段,感興趣的朋友可以自己上手試一試~
本文(含圖片)為合作媒體授權創業邦轉載,不代表創業邦立場,轉載請聯系原作者。如有任何疑問,請聯系editor@cyzone.cn。