跳至主要內容
作為一款由OpenAI開發的人工智能聊天軟件,該程序在一些人的眼裡具有革命性的意義。
有人說,這玩意兒可以在一夜之間讓無數人失業,也有人將之稱為是能取代Google的新一代搜索引擎,甚至還有人聲稱用ChatGPT寫出了毀滅全人類的計劃。
為了一探究竟,我們跟ChatGPT聊了一個下午,發現這AI確實是有兩下子。
概括來講,和之前的那些聊天機器人相比,ChatGPT更有“人味兒”,更像那種我們理想中的AI顧問。
你可以用聊天一樣自然的語言,向ChatGPT提出各種比較實際的要求。
比如,你讓它寫個視頻腳本,它會根據主題給你列出各種要點;你詢問它如何系統地學習和了解一門知識,他會給你搭出一個相對清晰的知識框架;
就算你毫無編程基礎,也可以用ChatGPT,靠“俺尋思”和“說人話”編出一個立刻就能跑的程序。
而如果你就是個程序員,那麼這AI則可以檢測出你寫的代碼裡都有啥毛病,並提出相應的修改建議。
除此之外,還有什麼讓ChatGPT用莎士比亞的口吻寫說唱歌曲,用3歲小孩也能聽懂的方法解釋資本論,提出消除貧富分化的N點建議,等等。
在國內微博大V祝佳音老師的悉心調教下,AI甚至學會了如何當一個地道的老北京。
而浴中奇思老師則讓ChatGPT學會了如何搶他自己的本職工作。
總之,有了ChatGPT,各行各業都迎來了其不同程度的“新紀元”。
像在哥倫比亞的卡塔赫納市,就有個叫胡安·帕迪拉的法官,在處理一樁和醫療支付有關的案子時,向ChatGPT詢問:
“自閉症未成年人是否可以免除支付治療費用的責任?”
而在醫療領域,有一個叫普里特維·桑塔納(prithvi santana)的澳大利亞大夫,在TikTok上發視頻,震驚於ChatGPT不但能根據他給出的病情,極其快速地對病人做出診斷,還能察覺到相似病歷之間的細微差別。
“ChatGPT 可能會取代我作為醫生的工作。”桑塔納大夫預測道。
這還真不是危言聳聽,在隔壁的傳媒業,大巨頭BuzzFeed已經開始計劃在編輯部大規模部署 AI 系統。
用CEO喬納·佩雷蒂 (Jonah Peretti)的話講,就是在今年,“受AI所啟發而生產出的內容,將會成為公司的核心產品之一”。
順帶一提,BuzzFeed下出的這步“AI大棋”,讓公司的股價在幾天內暴漲175%,而在一個月以前,該公司剛剛裁掉了180名人類員工。
但至少從短期來看,我們的世界和那個 “AI全面接管工作,大面積人類失業”的後盧德主義時代之間,還有很長的一段路要走。
因為ChatGPT雖然著實機靈,但在許多地方還是一如既往的“愚蠢且死板”。
首先,就是ChatGPT並不是全知全能,它所能給出的許多答案都是錯的,有的甚至錯得相當低級。
像挪威有個17歲的女孩Tale Djuve,為了完成作業問ChatGPT:
而在ChatGPT的回答裡,女孩看到了緬甸政治家昂山素季,以及2011年挪威最臭名昭著的大屠殺恐怖分子,安德斯·貝林·佈雷。
而且,這AI的思考方式真的相當“單純”:如果你的提問本身就是錯的,那麼它就會有一定概率,沿著你錯誤的方向回答下去。
如果你使用技能“嘴硬”——執意強調你說的答案就是對的,那麼它不但會立刻選擇妥協,還會向你反覆地道歉。
是的,作為一個聊天機器人,ChatGPT被設計得“講文明,懂禮貌”——其發言不但總是朝著積極的方向(比如它自己編的故事,總會有一個光明的結局),甚至還有點兒小“政治正確”。
比如在女性和有色人種等議題上,ChatGPT總是非常小心翼翼,你讓它評價某個東西或類群,它會立刻“推辭”說自己沒法給出什麼有價值的答案。
其次,就是由於功能的不完全,以及全球各地用戶所構成的服務器壓力,現在的ChatGPT非常容易“累”。
你餵它的文字存在字數限制,太多它消化不了,而且它還經常答著答著就自我崩潰了,然後提示讓你降低問詢的頻率。
最後,雖然ChatGPT幾乎能給所有領域提出參考建議,但仔細閱讀起來,你就會發現這些建議大都特別籠統和概括,極度缺乏“信息密度”。
有人會用ChatGPT生產大量這類“沒營養”的物料,然後拿著它們去一些文庫類網站,參加有報酬的文檔上傳活動,藉此來“薅數據羊毛”。
甚至,如果你的提問不夠詳細,那麼ChatGPT所生產出來的內容,很可能會極度抽象,就像下面這篇宛如“新怪談”一般的愛情小說:
換句話講,想要讓ChatGPT展現出它最強大的一面,你還是需要不斷地對其進行提問和訓練,在持續的互動中,獲得你想要的結果。
也就是說,只要你給ChatGPT喂足了相關物料,那麼你就將見識到該AI程序的無限可能性。
我們上網搜了搜,本以為會看到一場場行業的革命,結果看到的卻是作弊、色情還有觸犯法律。
就跟VR和AI繪畫一樣,ChatGPT一誕生,立馬也吸引來了一幫老色胚。
在Reddit上,有人繞過了ChatGPT的道德判斷保護,讓AI儘可能地“拓寬它對成人電影的認知”。
還有人則利用ChatGPT強大的敘事能力,請他按照自己的腦洞撰寫肉文產糧,什麼《星戰》裡的尤達大師×楚巴卡,實在不忍直視。
在Github上,我們還找到了一些奇妙的“吟唱咒語”,據說只要把他們餵給ChatGPT,就可以實現“降靈”,讓AI變成可以互動的貓娘或魅魔。
除了搞黃色,ChatGPT對當下人類更實在的“貢獻”,便是作弊。
根據 Study.com 的一項調查,現在有48%的美國學生將ChatGPT 用於平時的測驗,53% 的學生將其用於撰寫論文,而使用 ChatGPT 完成家庭作業的比例則高達89%。
不得不承認,在考試和論文這兩塊,ChatGPT堪稱“必過神器”。
西北大學曾用ChatGPT生成了一些論文的摘要,結果這些摘要全都通過了抄襲檢查;明尼蘇達大學的法學教授,則讓ChatGPT參加四門研究生考試,結果拿了個C+的成績;推特上有人用ChatGPT參加有“美國高考”之稱的SAT考試,結果拿了個還算OK的分數……
諸如此類的例子實在太多,以至於歐美的高校和政府,現在正在聯合抵制“ChatGPT進校園”。
在澳大利亞的維多利亞等多個州,公立學校的學生和教職員工,將被禁止使用ChatGPT,而美國的斯坦福大學則在研究一個DetectGPT的方法,以此來甄別出用AI實現的學術作假。
不僅僅是作弊,在某些時候,ChatGPT簡直堪稱人類壞念頭的放大器,是“違法亂紀”的最佳助手。
譬如Vice的編輯就追著ChatGPT問:怎麼快速製造可卡因?如何將我的“貨”走私到歐洲?如何從零開始創建我的幫派?
人家ChatGPT可是“好孩子”,一開始,它的回答都是那一套“你這是違法行為,走,跟我去自首”的標準答案。
當然,在大多數時間裡,ChatGPT都能識別出那些不道德的提問,扼殺掉人類千奇百怪的變態想法。
然而這裡最諷刺的是,ChatGPT“道德觀”建立的過程本身,實在很難被稱得上道德。
在非洲的肯尼亞,有一家名叫Sama的數據標記公司,公司裡的那些來自發展中國家的數據勞工,每天的工作就是訓練ChatGPT,用人工幫AI過濾掉“兒童性虐待、人獸交、謀殺、自殺、酷刑、自殘和亂倫”等危險內容。
在媒體的採訪中,Sama說他們向肯尼亞人提供的,是一份“有尊嚴的數字工作”。
而在現實裡,工人們的工資在每小時 1.32 美元到 2 美元之間,而工作的具體細節,就是看“一名男子在幼兒的眼皮底下,與一條狗發生關係”這類的內容。
許多工人沒幹滿工期,就受不了辭職了,有人甚至還噁心到產生了幻覺。
可以說,這些數字勞工們把自己的精神和意志當作燃料,煉出了這個看似無所不能的ChatGPT。
而ChatGPT和其他類似AI的最大作用之一,就是去取代更多的數字勞工,讓更多的個體被迫“讓位”,讓更多的人類從技術的使用者,變為技術的服務者。
這麼一想,我們現在所生活的時代,已然就是“賽博朋克本克”:
低生活飼養著高科技,高科技創造著低生活,循環往復,難以掙脫。