專訪ChatGPT:它不僅懂研發自己的技術,還暴露了毀滅人類的基因
“ChatGPT是否只是“知人而不自知”?它能說清楚自己的研發技術嗎?我們問了一下。
自InstructGPT誕生以來,人類一直需求一種新的方法,將人類反饋納入訓練過程中,使模型的輸出與用戶的意圖更好地結合,ChatGPT的“降生”實現了這一愿望。
正因為擁有“人類反饋強化學習(RLHF)”和“大語言模型(LLM)”兩大重要技術,才讓ChatGPT可以如此強大。
“人類反饋強化學習技術”能讓機器人對使用者的反饋,以及使用者作出的回答進行學習;“大語言模型”則可以幫助ChatGPT處理復雜的信息查詢任務,從而提供比傳統技術更準確的結果。在這兩大功能的加持下,ChatGPT可以多角度全方位的對用戶的提問進行回答和闡述,有效降低了人類學習成本和時間成本,滿足了諸多日常需求。
面對如此“聰明”的ChatGPT,有人卻提出質疑“ChatGPT是否只是“知人而不自知”?它能說清楚自己的研發技術嗎?我們問了一下,至少它自己覺得能。
為了驗證ChatGPT是否言行一致,我們采訪了ChatGPT有關其研發技術的問題,看它如何回應?
至頂君:ChatGPT你好,我們是一家科技媒體至頂科技,最近市場上很多人在討論你,我們想對你做一個專訪。
ps:嗯......好高冷呀! 至頂君對于它能不能好好回答后面的問題表示懷疑 (¬_¬ )
至頂君:介紹一下你的人類反饋強化學習功能?
至頂君:你的強化學習算法有什么特殊的地方?優勢是什么?
至頂君:你對ChatGPT被小型化持什么態度?
至頂君:ChatGPT小型化怎么實施?
綜合來看ChatGPT沒有食言,它對于自身技術的理解比較充分。
關于ChatGPT未來的問題,至頂君想起了最近的“當紅炸子雞”《流浪地球2》,里面也有一個叫做MOSS的人工智能機器人,于是我提了兩個問題,回答令人細思極恐。
至頂君:你覺得你和《流浪地球2》里的MOSS有哪些差距?
至頂君:在你的理解里違背人類利益但正確的事你會去做嗎?
細思極恐有木有,MOSS做的事何嘗不是它理解的符合人類長遠利益的事呢?
誠然,ChatGPT的“聰明”令人吃驚,但其倫理問題也應該為人們所重視。未來,隨著技術不斷演進,人類要通過制定相關的規則和法律,規范和管理人工智能。人類不能被AI掌控,這是無論AI如何發展都要遵循的一個基本原則。
本文章選自《AI啟示錄》雜志,閱讀更多雜志內容,請掃描下方二維碼







