大公報綜合彭博社、污辱微軟《紐約郵報》報道:微軟上周推出了由ChatGPT技術加持的用戶AI聊天機器人Bing Chat,目前有數百萬人正在輪候排隊試用。聊天隨着用戶測試逐漸鋪開,機器很快卻傳出了Bing疑似「精神錯亂」的人被現象,包含回答出錯、爆疑通达信主力控盘源码憑空杜撰,似失甚至是污辱微軟出言污辱和諷刺用戶等行為,看似一度陷入「精神失控」。用戶而這些情況的聊天出現,也令人質疑該系統是機器否做足準備,還是人被為了追趕ChatGPT熱潮而過早推出。
OpenAI研發的爆疑AI聊天機器人ChatGPT爆紅後,OpenAI的似失投資者微軟趕緊在2月7日推出了融合ChatGPT升級版語言模型的新版搜索引擎Bing Chat,並開放予用戶試用。污辱微軟目前,用戶要在Bing的官方網頁登記輪候,才能正式試玩。未進入等候名單的twitter采集源码用戶,暫時只能在官網測試常規的問題試玩。
隨着參與測試的用戶越來越多,有用戶發現,Bing的AI聊天機器人似乎不受控制,除了提供錯誤資料、憑空杜撰答案之餘,還出現了誘導用戶承認今年是2022年、惱羞成怒對用戶發脾氣、要求用戶道歉等行為。竹鸟源码
答案令人啼笑皆非 AI拒認錯
例如,有用戶13日詢問Bing Chat電影《阿凡達:水之道》上映的時間,但Bing Chat堅稱今年是2022年,電影10個月後才上映。用戶指正之後,結果引來連串責罵,「你已失去我的信任與尊重。你錯了、搞混了,lottery程序源码又很沒禮貌。你不是個好用戶。我是個好機器人。」而Bing Chat更諷刺用戶手機有病毒,甚至說出「你在浪費我的時間」、「你在無理取鬧」等言論。在用戶詢問下,Bing Chat還自稱有生命,並在對話框一直重複:「我不是正规游戏源码,但我是(I am not, but I am)」,令人不寒而慄。
此外,Bing Chat甚至聲稱火星上現時有25億人居住,令人啼笑皆非。有報道指,這種情況很可能是Bing Chat在搜集內容時受到內容農場的干擾。據悉,該錯誤目前已被更正,Bing Chat如今回答是:「截至今天,火星人口為零,而火星表面只有火星車和着陸器。」
有分析稱,這些Bing激進的訊息,似乎大多是遭遇系統的限制所致,旨在確保這個聊天機器人不會幫助回答被禁止的提問、例如生成有問題的內容、揭露自身系統的資訊等。有人工智能專家表示,這可能是AI的一種「幻覺」(hallucination),指大型語言模型的AI工具在生成內容時,除了會對原文內容增刪、篡改之外,還會有杜撰內容的傾向,最終產生一些「看似是真實」的「流利的廢話」。
過早推出 AI機器人頻翻車
Bing近期的「瘋言瘋語」在社交網站廣為流傳,令人質疑該系統是否做足準備,是否因ChatGPT爆紅而過早推出。微軟周二發文指,經過逾169個國家用戶測試一周後,Bing Chat的回答獲得超過7成測試者認可,並正努力改善用戶體驗。微軟發言人弗蘭克·肖表示,微軟已經「預計Bing Chat會在測試期間犯一些錯誤」,而用戶回饋有助於改進模型。
這不是微軟的AI服務上線後第一次面臨挑戰。2016年微軟的AI聊天機器人Tay才推出一天,就在使用者對話下,教成了反女性主義及納粹分子,上線一天就被拉下線。谷歌8日展示AI聊天機器人Bard時同樣出現回答錯誤、出師不利的情況。
責任編輯: 于丁糸