2022年9月,一位年輕人用Al繪畫工具M(jìn)idtravel創(chuàng)作的作品《太空歌劇》在美國科羅拉多博覽會的藝術(shù)競賽中獲獎。該獎項(xiàng)是“數(shù)字藝術(shù)/數(shù)字修飾照片”組中的第一個獎項(xiàng)。然而,這引發(fā)了一波文化爭議和反人工智能繪畫。
一位網(wǎng)友說,我們已經(jīng)眼睜睜地目睹了藝術(shù)的消亡。“如果即使是藝術(shù)作品也無法避免被機(jī)器吞噬,那么高技能工人也將面臨被淘汰的危機(jī)。那么我們該怎么辦?”
AI科學(xué)家們最初的猜想是,AI大發(fā)展后,一些藍(lán)領(lǐng)崗位、重復(fù)性的工作會首先被取代。然而,ChatGPT、AlphaFold等工具出來后,人們發(fā)現(xiàn),最先感受到AI沖擊的,反而是創(chuàng)造性的工作,而送餐這一類涉及勞動力的工作卻沒能被取代。他解釋說,在機(jī)器人、自動駕駛等領(lǐng)域,機(jī)械與智能是兩個基本的模塊。現(xiàn)實(shí)進(jìn)展來看,機(jī)械部分有很多物理上的限制,很多技術(shù)目前尚未突破;得益于深度學(xué)習(xí)等模型的發(fā)展,智能部分反而突破更快。
這些涉及創(chuàng)造力、知識探索、信息獲取的行業(yè),是人文領(lǐng)域的核心,是人類最擔(dān)心被機(jī)器化的部分。一直以來,AI在這些領(lǐng)域的重大突破都伴隨著廣泛的倫理爭議。
世界知名的復(fù)雜性科學(xué)研究中心、美國圣塔菲研究所教授梅勒妮·米切爾近日在接受媒體采訪時就談到,過于盲目采用這些技術(shù),將我們的交流和創(chuàng)意自動化,可能會導(dǎo)致人類失去對機(jī)器的控制,“機(jī)器人會給機(jī)器人寫電子郵件,而機(jī)器人會回復(fù)其他機(jī)器人”。米切爾說,“我們作為人的特質(zhì)從我們的信息中被卷走了?!?/p>
1月5日,紐約市教育部門表示,紐約公立學(xué)校的所有設(shè)備和網(wǎng)絡(luò)上將禁止使用ChatGPT。紐約市教育部門發(fā)言人詹娜·萊爾指出,這一決定是基于“該工具可能會對學(xué)生學(xué)習(xí)產(chǎn)生負(fù)面影響,以及對其內(nèi)容的安全性和準(zhǔn)確性的擔(dān)憂”。
人們普遍表示擔(dān)心,該工具可能會鼓勵學(xué)生抄襲。詹娜·萊爾說,雖然ChatGPT能夠?yàn)閱栴}提供快速而簡單的答案,但它沒有培養(yǎng)批判性思維和解決問題的能力,而這些能力對學(xué)術(shù)和終身成功來說是至關(guān)重要的。
2022年12月27日,美國西北大學(xué)的一個團(tuán)隊(duì)在預(yù)印本論文bioRxiv上發(fā)表了一篇文章。這項(xiàng)研究中,研究者讓ChatGPT學(xué)習(xí)發(fā)表在《柳葉刀》《美國醫(yī)學(xué)會雜志》等頂刊上的文章,并撰寫50篇醫(yī)學(xué)研究摘要,然后讓抄襲檢測器、人工智能輸出檢測器和期刊審稿人將這些摘要與原始摘要比較,找出ChatGPT編造的摘要。
結(jié)果發(fā)現(xiàn),ChatGPT生成的摘要全部順利通過了抄襲檢測器,人工智能輸出器找出了66%的生成摘要,期刊審稿人僅正確識別了68%的生成摘要和86%的真實(shí)摘要。研究者們表示,使用大型語言模型進(jìn)行科學(xué)寫作的道德和可接受邊界需要被進(jìn)一步明確。
《自然》雜志最新發(fā)布的規(guī)定稱,任何大型語言模型工具都不能成為論文作者;如在論文創(chuàng)作中用過相關(guān)工具,作者應(yīng)在“方法”或“致謝”或適當(dāng)部分明確說明。
用AI寫論文這樣的事情,技術(shù)上一定會發(fā)生的,而且知識獲取的門檻越來越低,“我覺得發(fā)展方向上更多不一定是禁止它,而是說教育評估的標(biāo)準(zhǔn)和理念需要發(fā)生變化。相比那些大段輸出的、能夠在機(jī)器的幫助下寫得更好的文字,思考的質(zhì)量、深度和研究的原創(chuàng)性等將會越來越重要”。
這就好像一項(xiàng)新的技術(shù),比如說汽車、飛機(jī)被發(fā)明了,不可能說不用它們,關(guān)鍵是如何使用、如何規(guī)范。從這一意義上來說,王帥表示,以ChatGPT為代表的生成式人工智能的出現(xiàn),圍繞它及其應(yīng)用相關(guān)的各方面都沒有跟上,包括法律、教育、社會、倫理等。實(shí)際上,就算是圈內(nèi)人,也沒有完全理解AI領(lǐng)域正在發(fā)生的事情意味著什么。
2022年12月,《大西洋月刊》在《大學(xué)論文已死》的文章中警示,沒有人為人工智能將如何改變學(xué)術(shù)界做好準(zhǔn)備。“如今AI模型遠(yuǎn)比我們想象的更強(qiáng)大,而我們用于探索它們的技術(shù)卻非常幼稚。”O(jiān)penAI實(shí)驗(yàn)室的人工智能政策專家杰克·克拉克在近來的一篇文章中寫道。
目前,業(yè)內(nèi)沒有能力去處理AI帶來的可能的社會影響,因?yàn)槿藗儗λ牧私膺€很有限,這是最大的問題。比如說,盡管美國部分學(xué)校禁用ChatGPT生成的內(nèi)容,但現(xiàn)在卻沒有手段檢測和區(qū)分機(jī)器與人類生產(chǎn)的內(nèi)容,也就更加難說防御機(jī)制,“因?yàn)镚PT這些技術(shù)太新了,監(jiān)管部門也沒辦法去理解。我認(rèn)為,在幾年時間內(nèi),網(wǎng)絡(luò)上會有很多虛假信息的出現(xiàn)”。
每一次AI出現(xiàn)一個新東西,大眾總是會覺得某種巨大的變化將要來臨,并且往往伴隨著機(jī)器代替人工的擔(dān)憂。然而,王詠剛說,人們一方面太容易夸大AI短期內(nèi)取得的成果和影響;另一方面,卻又忽視AI正在發(fā)生的、真正可能帶來不可逆的長期變化。
在他看來,短期來說,ChatGPT等人工智能的應(yīng)用仍舊是工具式的,它會提高效率、替代一部分工作,但真正值得擔(dān)心的是,隨著計(jì)算機(jī)能夠處理的數(shù)據(jù)結(jié)構(gòu)、模型、算法越來越膨脹和復(fù)雜,里面可能有大量的“黑盒子”運(yùn)算,人們未必能預(yù)測其最終輸出的結(jié)果。會不會在某個時間點(diǎn),人工智能會跨越某個關(guān)鍵的節(jié)點(diǎn),進(jìn)入到一個我們尚未看到的世界,沒有人可以預(yù)測。
本文標(biāo)題: ChatGPT會取代人類的大部分工作嗎?
本文地址: http://m.eat023.com/brand/news-0558da7f4.html
內(nèi)容均來源于網(wǎng)絡(luò),錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com
2009-2024 黃頁88版權(quán)所有 京ICP備2023012932號-1 │ 京公網(wǎng)安備 11010802023561號 京ICP證100626
內(nèi)容均來源于網(wǎng)絡(luò),錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com