高尿酸血癥|ChatGPT爆火,但我們想潑盆冷水 | 頂端100℃

高尿酸血癥|ChatGPT爆火,但我們想潑盆冷水 | 頂端100℃

頂端新聞記者 張恒
“ChatGPT上線2個月活躍用戶破億” “ChatGPT讓蘋果急了” “馬斯克曾稱ChatGPT好得嚇人”......ChatGPT橫空出世 , 引起陣陣狂歡 , 迅速成為現象級的AI應用 。
作為美國人工智能研究實驗室OpenAI新推出的一種人工智能技術驅動的自然語言處理工具 , ChatGPT以聊天機器人的形式上線 , 功能卻大到驚人:它能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務 。
激進的聲音認為 , 爆火的ChatGPT大有取代人類工作的潛力 。 事實確實如此嗎?
是突破 , 但也有先期設限
人工智能上一次給人類社會帶來的集體狂歡 , 還是圍棋高手Alpha Go 。 作為Alpha Go的后輩 , ChatGPT沒有局限于單個領域 , 它幾乎覆蓋了所有領域 , 幾乎有問必答 , 且內容組織得“有模有樣” 。
可以肯定的是 , ChatGPT在AI人工智能領域 , 帶來的影響確實具有革命性 。
清華大學計算機系智能技術與系統實驗室副主任、博導兼聆心智能創始人黃民烈接受頂端新聞記者采訪時說:“在我看來 , ChatGPT 的出現宣示著無縫人機交互時代的來臨 。 可以在這個模型里完成很多任務 , 即使是很困難的任務也能被ChatGPT解決得很好 。 ”
工信部新基建重大項目評審專家、北京郵電大學科技園元宇宙產業協同創新中心執行主任陳曉華接受頂端新聞記者采訪時說 , 相比其他聊天機器人競品 , ChatGPT能更好地理解對話語境 , 并在生成文本時考慮到先前的對話內容 , 輸出更符合語言邏輯與人類價值觀的高質量文本 。
陳曉華說 , ChatGPT可以進行多類對話任務 , 包括情境建模 , 論文甚至詩歌 , 模型還新增了代碼理解和生成能力 , 極大地拓寬了其應用場景和實用性 。
但是在實際應用中 , ChatGPT會限制在自身設定的“安全系統”內 。 它會拒絕回答不合法、不合理或敏感問題 , 還拒絕做出預測 。 有人問它有沒有談戀愛 , 它一本正經地回答:我只是個機器人……
黃民烈認為 , 這是策略的問題 , 由數據標注和模型訓練所致 。 就是當用戶在問這類問題的時候 , 給模型設置了安全的回復策略 , 不要去做任何判斷 , 這也是人賦予它的一種策略 。 從這個角度來說 , 其實它存在一定局限 , 這是出于倫理、安全性方面的考慮 。
數據滯后、會出錯 , 并非標準產品
ChatGPT也存在一些缺陷 , 比如在媒體試驗中 , 它把今日頭條的創立者表述成王興;被要求寫一首杜甫風格的詩時 , 生成了樸實的打油詩 。 ChatGPT在接受媒體“采訪”時直言 , 其自身“缺乏創造力、不能體現個人情感、容易存在誤導性” 。
事實上 , AI如何發揮潛能 , 還是取決于人類輸入的數據庫 。 ChatGPT的“知識結構”也具有滯后性 。
Google 總部前科學家、“出門問問”創始人李志飛接受媒體采訪時說 , ChatGPT的“認知”建立在虛擬訓練文本上 , 學習生涯停留在了2021年之前的互聯網離線文本 , 沒有跟實時的數據庫或信息連接 , 沒有語義理解需要的背景 , 也沒有顯式的邏輯推理 。 總體還是有點空中樓閣的味道 , 無法實時調用外部網絡資源 , 因此很多最新的問題是無法得到解答的 。
頂端新聞記者的采訪也證實了這一點 , ChatGPT自稱:“我的知識截止到2021年 , 因此無法報告當下的實時熱點事件 。 ”
黃民烈認為 , ChatGPT展現出的對話能力驚人 , 但還只是Demo , 不能用產品的標準去要求它 。 作為生成模型 , 都會存在犯錯、隨機編造等缺點 , 這需要靠數據和算法 , 包括結合應用場景的特點來優化 。