日本电影一区二区_日本va欧美va精品发布_日本黄h兄妹h动漫一区二区三区_日本欧美黄色

聊天機(jī)器人ChatGPT火出圈,能寫論文、編代碼、創(chuàng)作小說(聊天機(jī)器人實(shí)現(xiàn))

“最近開始玩ChatGPT,的確很驚人?!币晃簧飳W(xué)領(lǐng)域的科學(xué)家近日在社交媒體上感慨。在他展示的向ChatGPT發(fā)起的挑戰(zhàn)中,提出的問題包括如何運(yùn)營公司、如何管理孩子、為何生育率下降,再到中國的文化和政策問題,ChatGPT大多能應(yīng)對流暢。

這款當(dāng)今最火爆的AI語言模型,由美國人工智能實(shí)驗(yàn)室OpenAI于去年11月底發(fā)布,并迅速火遍全球。人們長期苦于那些智能語音助手的傻瓜回答,這次ChatGPT卻出乎意料的聰明:它可以用來創(chuàng)作故事、撰寫新聞、回答客觀問題、聊天、寫代碼和查找代碼問題等。外媒評論稱,ChatGPT會成為科技行業(yè)的下一個(gè)顛覆者。

ChatGPT是自然語言處理(NLP)中一項(xiàng)引人矚目的進(jìn)展,它閱覽了互聯(lián)網(wǎng)上幾乎所有數(shù)據(jù),并在超級復(fù)雜的模型之下進(jìn)行深度學(xué)習(xí)。因?yàn)檎Z言是人類智慧、思維方式的核心體現(xiàn),因此,自然語言處理被稱作“AI皇冠上的明珠”。而ChatGPT的出色表現(xiàn),被認(rèn)為可能是邁向通用型AI的一種可行路徑——作為一種底層模型,它再次驗(yàn)證了深度學(xué)習(xí)中“規(guī)?!钡囊饬x。

1月12日,在美國一場活動上,曾擔(dān)任微軟董事長的比爾·蓋茨表示,他不認(rèn)為Web3有那么重要,也不認(rèn)為元宇宙本身是革命性的,但是人工智能卻是頗具顛覆性的。當(dāng)被問及如何看待ChatGPT時(shí),他說,“這讓我能一窺未來。整個(gè)平臺的方法和創(chuàng)新速度都令我印象深刻。”

聊天機(jī)器人ChatGPT火出圈,能寫論文、編代碼、創(chuàng)作小說(聊天機(jī)器人實(shí)現(xiàn))

最新發(fā)布的ChatGPT,在應(yīng)用層進(jìn)行了強(qiáng)化訓(xùn)練,提高了對話質(zhì)量。圖/視覺中國

文本生成和對話領(lǐng)域,基本要被“洗一遍”

GPT英文全稱為Generative Pre-trained Transformer(生成式預(yù)訓(xùn)練轉(zhuǎn)換器),是一種基于互聯(lián)網(wǎng)可用數(shù)據(jù)訓(xùn)練的文本生成深度學(xué)習(xí)模型。ChatGPT“脫胎”于OpenAI在2020年發(fā)布的GPT-3,后者是目前訓(xùn)練參數(shù)量最大的AI模型,當(dāng)時(shí)發(fā)布后便引發(fā)了廣泛的關(guān)注。

此次發(fā)布的ChatGPT實(shí)際上是GPT-3.5。在3.0的基礎(chǔ)上,ChatGPT在應(yīng)用層進(jìn)行了強(qiáng)化訓(xùn)練,提高了對話質(zhì)量。

王帥是AI領(lǐng)域從業(yè)20多年的一位工程師,目前在英偉達(dá)工作。他對《中國新聞周刊》介紹說,首先,OpenAI引入了人類監(jiān)督員,對AI的回答進(jìn)行打分,使得它在眾多可能的回答中選擇那些更加符合人類預(yù)期的答案;其次,新版本還引入了多輪對話,尤其是在涉及一些有關(guān)步驟的問答當(dāng)中,讓這個(gè)模型的語言前后邏輯更加明晰、有因果關(guān)聯(lián)。

創(chuàng)新工場人工智能工程院執(zhí)行院長王詠剛告訴《中國新聞周刊》,人類處理數(shù)學(xué)公式時(shí),如果有幾十個(gè)參數(shù),就已非常之復(fù)雜了。然而,GPT-3卻相當(dāng)于是一個(gè)包含1750億個(gè)參數(shù)的公式,來處理所有互聯(lián)網(wǎng)上的數(shù)據(jù),以理解人類當(dāng)今的文本和語言。因此,他評價(jià),OpenAI的超大規(guī)模預(yù)訓(xùn)練模型是深度學(xué)習(xí)誕生以來,AI在行為表現(xiàn)上最接近人類智慧的一個(gè)時(shí)期。OpenAI還在不斷提升AI訓(xùn)練的規(guī)模和復(fù)雜度。

硅谷科技公司PerceptIn創(chuàng)始人劉少山在接受《中國新聞周刊》采訪時(shí)表示,過去,AI已經(jīng)能在一些特定任務(wù)上做得很出色,比如,在圖像識別、語音理解方面,計(jì)算機(jī)正逐漸取代人的眼睛和耳朵行使的功能,但一直無法實(shí)現(xiàn)通用。所謂通用人工智能,即與實(shí)現(xiàn)特定任務(wù)的AI相對應(yīng)。

2020年,在一場業(yè)內(nèi)會議上,美國康奈爾大學(xué)計(jì)算機(jī)教授巴特·塞爾曼談到,通用人工智能可能還需要20年以上才可以實(shí)現(xiàn),“不過如果我們在未來五到十年能在真正的自然語言理解上獲得突破,使得AI可以去閱讀圖書、從互聯(lián)網(wǎng)獲得知識,那么這個(gè)進(jìn)程可能會被大大加速”。

ChatGPT有更好的語言理解能力,意味著它可以更像一個(gè)通用的任務(wù)助理,能夠和不同行業(yè)結(jié)合,衍生出很多應(yīng)用的場景。劉少山認(rèn)為,它可以說是打開了通用人工智能的一扇大門。

王詠剛指出,可以說,互聯(lián)網(wǎng)的每一個(gè)環(huán)節(jié),只要涉及文本生成和對話的,未來基本上要被ChatGPT“洗一遍”。也就是說,都需要結(jié)合這一語言工具,才能得到一個(gè)接近于自然人類語言對話的效果。

以自動駕駛為例,劉少山說,目前的自動駕駛還比較“傻”,因?yàn)槠嚨闹悄芟到y(tǒng)與人的交互是比較機(jī)械的,比如說,前面有一輛車,按照規(guī)則,它有可能會無法正確判斷什么時(shí)候該繞行。而ChatGPT等人工智能的迭代,未來可能會讓機(jī)器更接近人的思維模式,學(xué)習(xí)人的駕駛行為,帶領(lǐng)自動駕駛進(jìn)入“2.0時(shí)代”。

近來,據(jù)美國硅谷的科技媒體報(bào)道,微軟已經(jīng)討論在Word、PowerPoint、Outlook和其他應(yīng)用程序中加入ChatGPT。1月17日舉行的達(dá)沃斯世界經(jīng)濟(jì)論壇《華爾街日報(bào)》座談會上,微軟CEO薩提亞·納德拉表示,微軟將迅速采取行動,力爭讓OpenAI的工具快速商業(yè)化。

人類世界有許多重復(fù)性的、程式化的語言文字工作,不需要復(fù)雜的邏輯思考或決策判斷。ChatGPT幫助人們更流暢、更快速地書寫這些段落的潛力,可能會成為微軟這些應(yīng)用程序的“殺手锏”。比如,在人們需要請假時(shí),只要打出“寫一封請病假的郵件”幾個(gè)字,Outlook就能把措辭正式的請假申請寫好。

在“ChatGPT ”的世界,搜索引擎領(lǐng)域的變化,尤為引發(fā)關(guān)注。目前的搜索引擎基于關(guān)鍵字響應(yīng),根據(jù)搜索結(jié)果進(jìn)一步篩選信息然后整合。一些人相信,基于對話的搜索,可能會徹底改造甚至取代當(dāng)前的信息檢索方式。有美國科技媒體1月初的報(bào)道指出,微軟正在考慮將ChatGPT整合到其搜索引擎“必應(yīng)”當(dāng)中。

20多年來,谷歌搜索引擎一直是全球互聯(lián)網(wǎng)的主要門戶網(wǎng)站之一。隨著ChatGPT等產(chǎn)品的出現(xiàn),《紐約時(shí)報(bào)》在2022年12月21日的文章中指出,谷歌的主要搜索業(yè)務(wù)可能首次面臨嚴(yán)重威脅。谷歌的管理層已發(fā)布表示情況緊急的“紅色代碼”,著手應(yīng)對。一些人擔(dān)心,一場可能顛覆整個(gè)AI行業(yè)的巨大技術(shù)變革正在到來。

谷歌率先提出關(guān)于深度學(xué)習(xí)模型最核心的算法,但是應(yīng)用上卻是OpenAI這樣的機(jī)構(gòu)推得更快。對谷歌較為熟悉的王詠剛指出,一個(gè)很重要的原因是,像谷歌這樣的大公司,作為互聯(lián)網(wǎng)的信息提供商,其實(shí)對于新技術(shù)的商業(yè)化使用是很謹(jǐn)慎的。比如,如果ChatGPT在知識性的回答上有95%的正確率,那5%的錯(cuò)誤率能夠接受嗎?

在2021年5月的谷歌網(wǎng)絡(luò)開發(fā)者年會上,谷歌就展示了其最新的人工智能系統(tǒng)LaMDA。谷歌表示,LaMDA可以使回答更加“合情合理”,讓對話更自然地進(jìn)行,而且這些回復(fù)都不是預(yù)先設(shè)定的。但目前,谷歌仍不愿向公眾發(fā)布LaMDA。谷歌表示,部分原因在于,LaMDA存在較高的誤差,且容易對用戶造成傷害。

“現(xiàn)在還很難判斷。”在英偉達(dá)工作的王帥說,如果ChatGPT能夠取代當(dāng)前的搜索引擎,谷歌也不會坐以待斃,因?yàn)樵诖笠?guī)模語言模型上,它與微軟之間并不存在技術(shù)上有與沒有的區(qū)別;其次,技術(shù)只是一方面的原因,這背后還有運(yùn)營成本、效率、商業(yè)模式等方面的考慮。

事實(shí)上,《紐約時(shí)報(bào)》也指出,谷歌可能不愿意部署這項(xiàng)新技術(shù)來替代在線搜索,因?yàn)樗贿m合投放數(shù)字廣告——如果ChatGPT能夠完美響應(yīng)搜索,人們就沒有動機(jī)點(diǎn)擊額外的鏈接,而廣告在2021年為谷歌掙了2080億美元,占谷歌母公司Alphabet總收入的81%。

更先進(jìn)的GPT-4出來以后,可能會帶來更為驚艷的成果。幾個(gè)月前,王詠剛與OpenAI的兩位聯(lián)合創(chuàng)始人見了個(gè)面,談?wù)摿薌PT-4的一些技術(shù)問題。盡管尚沒有準(zhǔn)確的數(shù)據(jù),但他分析說,GPT-3模型參數(shù)量級是1750億規(guī)模的,而GPT-4的參數(shù)可能將比它高出幾個(gè)量級。他表示,那是令人嘆為觀止的訓(xùn)練量,“想象一下,如果說GPT-3相當(dāng)于昆蟲大小的腦容量,那么 GPT-4可能會達(dá)到哺乳動物的腦容量”。

不過,ChatGPT還遠(yuǎn)不完美。因?yàn)檫@類人工智能對話機(jī)器人是通過消化互聯(lián)網(wǎng)上公開的大量數(shù)據(jù)來成長的,所以,它們的知識結(jié)構(gòu)中同時(shí)有事實(shí)和虛構(gòu)的部分,傳遞的信息可能也會存在偏見、甚至仇恨言論等。前述生物學(xué)家表示,ChatGPT“不禁逗”,一些問題回答錯(cuò)誤或者無法解答。

《麻省理工科技評論》在去年11月末尖銳地指出,所有的大規(guī)模語言模型都在輸出“nonsense(愚蠢的話)”,ChatGPT看起來解決了一些問題,但遠(yuǎn)不是一個(gè)徹底的終結(jié)。OpenAI的科學(xué)家約翰·舒爾曼也承認(rèn),還有很多事情要做,“我們在這個(gè)問題上取得了一些進(jìn)展,但還遠(yuǎn)未解決”。

“從水下100米到馬里亞納海溝

長期以來,在AI領(lǐng)域,存在著一場曠日持久的爭論:基于深度學(xué)習(xí)和超強(qiáng)算力的大模型訓(xùn)練,是否是抵達(dá)通用人工智能的最終道路?在這方面,OpenAI無疑是一個(gè)堅(jiān)定的押注者。

2018年6月,OpenAI發(fā)表論文《通過生成式預(yù)訓(xùn)練加強(qiáng)語言理解》,首次介紹了自己的語言模型GPT-1。它在深度學(xué)習(xí)模型Transformer架構(gòu)上,使用了內(nèi)含幾十億個(gè)文本文檔的超大規(guī)模語言資料庫進(jìn)行訓(xùn)練,參數(shù)量為1.17億。2019年2月,升級版GPT-2發(fā)布,模型參數(shù)達(dá)到15億,且訓(xùn)練模型的數(shù)據(jù)庫也更大;2020年,規(guī)模大百倍的GPT-3誕生。

創(chuàng)新工場人工智能工程院執(zhí)行院長王詠剛打了個(gè)比方,如果說傳統(tǒng)的機(jī)器學(xué)習(xí)或人工智能是在水下一米的深處探索,那么深度學(xué)習(xí)的出現(xiàn)將人們帶到了一百米的深水區(qū);而在Transformer、GPT等架構(gòu)后,從業(yè)者們直接能抵達(dá)深度超過萬米的馬里亞納海溝。

過去5年中,大規(guī)模預(yù)訓(xùn)練語言模型受到業(yè)內(nèi)越來越多的重視。王帥指出,過去依靠人工標(biāo)注和精巧設(shè)計(jì)的訓(xùn)練方法,數(shù)據(jù)量大幅增加以后,表現(xiàn)并不好;相反,大家逐漸意識到,不斷擴(kuò)大模型規(guī)模、不斷用更多數(shù)據(jù)去訓(xùn)練模型,是提高算法能力非常有效的一個(gè)手段。

“目前看起來,這種模型太有用了。而且從ChatGPT的結(jié)果來看,超出了我們的預(yù)料。”王帥說,可以認(rèn)為這種不斷增加規(guī)模的大模型已經(jīng)是領(lǐng)域的一種范式,可能人工智能領(lǐng)域未來有很多地方都可以用類似方法推進(jìn)。

“今天,全世界的人工智能研究有很多方向,也產(chǎn)生了大量的成果。但是嚴(yán)格來說,所有這些最令人驚艷的結(jié)果, 90%以上是基于Transformer迭代來的這些大模型技術(shù)得到的?!蓖踉亜傄仓赋?,目前幾乎所有的AI任務(wù)和項(xiàng)目,都會和大語言模型技術(shù)有關(guān)聯(lián),它已經(jīng)代表了AI界最主流的科研和技術(shù)迭代方向。

2022年7月,Alphabet旗下的DeepMind公司與歐洲生物信息研究所的團(tuán)隊(duì)合作公布了生物學(xué)領(lǐng)域的一項(xiàng)重大飛躍。他們利用人工智能系統(tǒng)AlphaFold預(yù)測出超過100萬個(gè)物種的2.14億個(gè)蛋白質(zhì)結(jié)構(gòu),幾乎涵蓋了地球上所有已知蛋白質(zhì)。許多研究人員表示,這一系列突破將加速新藥開發(fā),并為基礎(chǔ)科學(xué)帶來全新革命。而Alphafold同樣是基于Transformer結(jié)構(gòu)的深度學(xué)習(xí)模型。

OpenAI是一家非營利性的研究機(jī)構(gòu),于2015年成立,由特斯拉創(chuàng)始人馬斯克、創(chuàng)業(yè)孵化器Y Combinator總裁山姆·奧特曼、PayPal聯(lián)合創(chuàng)始人彼得·蒂爾硅谷大亨們創(chuàng)建,其愿景是實(shí)現(xiàn)安全的通用人工智能,并向公眾開放。

多位受訪業(yè)內(nèi)人士指出,大規(guī)模語言模型并不是OpenAI的“獨(dú)門技術(shù)”;再加上人才和資金的雄厚,谷歌、微軟、百度等AI領(lǐng)域的巨頭公司并不是無法復(fù)制下一個(gè)ChatGPT。實(shí)際上,ChatGPT誕生之前,硅谷巨頭們都意識到了大語言模型的重要性,比如,DeepMind也發(fā)布了人工智能聊天機(jī)器人Sparrow,Facebook母公司Meta也有自己的同類產(chǎn)品。

然而,不同的是,這些年來,OpenAI一直將資源集中在這個(gè)方向上。在微軟等巨頭公司的資金和技術(shù)支持下,它不斷將這種方法論推向極致。“規(guī)模至上的這種理念和方法論是OpenAI特別推崇的,相對來說,其他公司或者團(tuán)隊(duì)沒有他們這么堅(jiān)信?!蓖踉亜傉f。

不過,王詠剛說,在ChatGPT出圈之后,從業(yè)者們的心態(tài)是比較微妙的。一方面,業(yè)界可能會越來越重視這條路徑,投入更多資源;另一方面,大家又希望它不是AI領(lǐng)域唯一核心的方法,還能夠有空間探索更多的可能性。

“僅僅靠數(shù)據(jù)驅(qū)動的路徑,雖然能讓AI在一些領(lǐng)域達(dá)到接近或者超過人類的水平,例如人臉識別,但在另一些領(lǐng)域,比如自動駕駛,我們需要的是接近100%的安全性?!?span id="qsh1b7padf" class="candidate-entity-word" data-gid="366023">康奈爾大學(xué)計(jì)算機(jī)教授巴特·塞爾曼就認(rèn)為,這最后的10%、5%的提升,可能不是深度學(xué)習(xí)本身能夠解決的,需要不同的思路。

對AI的理解落后于其發(fā)展速度

2022年9月,一位年輕人用Al繪畫工具M(jìn)idjourney生成的作品《太空歌劇院》,在美國科羅拉多州博覽會的美術(shù)比賽中獲得大獎(jiǎng),獲獎(jiǎng)?lì)悇e是“數(shù)字藝術(shù)/數(shù)字修飾照片”組第一名。不過,這引發(fā)了一場人文爭議和反AI繪畫的浪潮。

有網(wǎng)友表示,我們眼睜睜地見證了藝術(shù)的死亡,“如果連藝術(shù)工作都無法避免被機(jī)器所吞沒,那么高技能的工種也將面臨被淘汰的危機(jī)。到時(shí)候,我們又能剩下什么呢?”

劉少山談到,AI科學(xué)家們最初的猜想是,AI大發(fā)展后,一些藍(lán)領(lǐng)崗位、重復(fù)性的工作會首先被取代。然而,ChatGPT、AlphaFold等工具出來后,人們發(fā)現(xiàn),最先感受到AI沖擊的,反而是創(chuàng)造性的工作,而送餐這一類涉及勞動力的工作卻沒能被取代。他解釋說,在機(jī)器人、自動駕駛等領(lǐng)域,機(jī)械與智能是兩個(gè)基本的模塊?,F(xiàn)實(shí)進(jìn)展來看,機(jī)械部分有很多物理上的限制,很多技術(shù)目前尚未突破;得益于深度學(xué)習(xí)等模型的發(fā)展,智能部分反而突破更快。

這些涉及創(chuàng)造力、知識探索、信息獲取的行業(yè),是人文領(lǐng)域的核心,是人類最擔(dān)心被機(jī)器化的部分。一直以來,AI在這些領(lǐng)域的重大突破都伴隨著廣泛的倫理爭議。

世界知名的復(fù)雜性科學(xué)研究中心、美國圣塔菲研究所教授梅勒妮·米切爾近日在接受媒體采訪時(shí)就談到,過于盲目采用這些技術(shù),將我們的交流和創(chuàng)意自動化,可能會導(dǎo)致人類失去對機(jī)器的控制,“機(jī)器人會給機(jī)器人寫電子郵件,而機(jī)器人會回復(fù)其他機(jī)器人”。米切爾說,“我們作為人的特質(zhì)從我們的信息中被卷走了?!?/span>

1月5日,紐約市教育部門表示,紐約公立學(xué)校的所有設(shè)備和網(wǎng)絡(luò)上將禁止使用ChatGPT。紐約市教育部門發(fā)言人詹娜·萊爾指出,這一決定是基于“該工具可能會對學(xué)生學(xué)習(xí)產(chǎn)生負(fù)面影響,以及對其內(nèi)容的安全性和準(zhǔn)確性的擔(dān)憂”。

人們普遍表示擔(dān)心,該工具可能會鼓勵(lì)學(xué)生抄襲。詹娜·萊爾說,雖然ChatGPT能夠?yàn)閱栴}提供快速而簡單的答案,但它沒有培養(yǎng)批判性思維和解決問題的能力,而這些能力對學(xué)術(shù)和終身成功來說是至關(guān)重要的。

2022年12月27日,美國西北大學(xué)的一個(gè)團(tuán)隊(duì)在預(yù)印本論文bioRxiv上發(fā)表了一篇文章。這項(xiàng)研究中,研究者讓ChatGPT學(xué)習(xí)發(fā)表在《柳葉刀》《美國醫(yī)學(xué)會雜志》等頂刊上的文章,并撰寫50篇醫(yī)學(xué)研究摘要,然后讓抄襲檢測器、人工智能輸出檢測器和期刊審稿人將這些摘要與原始摘要比較,找出ChatGPT編造的摘要。

結(jié)果發(fā)現(xiàn),ChatGPT生成的摘要全部順利通過了抄襲檢測器,人工智能輸出器找出了66%的生成摘要,期刊審稿人僅正確識別了68%的生成摘要和86%的真實(shí)摘要。研究者們表示,使用大型語言模型進(jìn)行科學(xué)寫作的道德和可接受邊界需要被進(jìn)一步明確。

《自然》雜志最新發(fā)布的規(guī)定稱,任何大型語言模型工具都不能成為論文作者;如在論文創(chuàng)作中用過相關(guān)工具,作者應(yīng)在“方法”或“致謝”或適當(dāng)部分明確說明。

王帥認(rèn)為,用AI寫論文這樣的事情,技術(shù)上一定會發(fā)生的,而且知識獲取的門檻越來越低,“我覺得發(fā)展方向上更多不一定是禁止它,而是說教育評估的標(biāo)準(zhǔn)和理念需要發(fā)生變化。相比那些大段輸出的、能夠在機(jī)器的幫助下寫得更好的文字,思考的質(zhì)量、深度和研究的原創(chuàng)性等將會越來越重要”。

這就好像一項(xiàng)新的技術(shù),比如說汽車、飛機(jī)被發(fā)明了,不可能說不用它們,關(guān)鍵是如何使用、如何規(guī)范。從這一意義上來說,王帥表示,以ChatGPT為代表的生成式人工智能的出現(xiàn),圍繞它及其應(yīng)用相關(guān)的各方面都沒有跟上,包括法律、教育、社會、倫理等。實(shí)際上,就算是圈內(nèi)人,也沒有完全理解AI領(lǐng)域正在發(fā)生的事情意味著什么。

2022年12月,《大西洋月刊》在《大學(xué)論文已死》的文章中警示,沒有人為人工智能將如何改變學(xué)術(shù)界做好準(zhǔn)備?!叭缃馎I模型遠(yuǎn)比我們想象的更強(qiáng)大,而我們用于探索它們的技術(shù)卻非常幼稚?!監(jiān)penAI實(shí)驗(yàn)室的人工智能政策專家杰克·克拉克在近來的一篇文章中寫道。

劉少山也認(rèn)為,目前,業(yè)內(nèi)沒有能力去處理AI帶來的可能的社會影響,因?yàn)槿藗儗λ牧私膺€很有限,這是最大的問題。比如說,盡管美國部分學(xué)校禁用ChatGPT生成的內(nèi)容,但現(xiàn)在卻沒有手段檢測和區(qū)分機(jī)器與人類生產(chǎn)的內(nèi)容,也就更加難說防御機(jī)制,“因?yàn)镚PT這些技術(shù)太新了,監(jiān)管部門也沒辦法去理解。我認(rèn)為,在幾年時(shí)間內(nèi),網(wǎng)絡(luò)上會有很多虛假信息的出現(xiàn)”。

每一次AI出現(xiàn)一個(gè)新東西,大眾總是會覺得某種巨大的變化將要來臨,并且往往伴隨著機(jī)器代替人工的擔(dān)憂。然而,王詠剛說,人們一方面太容易夸大AI短期內(nèi)取得的成果和影響;另一方面,卻又忽視AI正在發(fā)生的、真正可能帶來不可逆的長期變化。

在他看來,短期來說,ChatGPT等人工智能的應(yīng)用仍舊是工具式的,它會提高效率、替代一部分工作,但真正值得擔(dān)心的是,隨著計(jì)算機(jī)能夠處理的數(shù)據(jù)結(jié)構(gòu)、模型、算法越來越膨脹和復(fù)雜,里面可能有大量的“黑盒子”運(yùn)算,人們未必能預(yù)測其最終輸出的結(jié)果。會不會在某個(gè)時(shí)間點(diǎn),人工智能會跨越某個(gè)關(guān)鍵的節(jié)點(diǎn),進(jìn)入到一個(gè)我們尚未看到的世界,沒有人可以預(yù)測。

(文中王帥為化名,實(shí)習(xí)生李金津?qū)Ρ疚囊嘤胸暙I(xiàn)。)

記者:彭丹妮

相關(guān)新聞

聯(lián)系我們
聯(lián)系我們
公眾號
公眾號
在線咨詢
分享本頁
返回頂部
全州县| 犍为县| 汝南县| 翁源县| 如东县| 永川市| 柯坪县| 环江| 丹江口市| 甘孜县| 曲靖市| 荆州市| 葫芦岛市| 镇江市| 乌鲁木齐县| 平罗县| 溆浦县| 南和县| 高要市| 漾濞| 荃湾区| 淮安市| 镇江市| 五河县| 延津县| 永顺县| 永泰县| 邹平县| 增城市| 湘乡市| 漳平市| 西华县| 永定县| 闻喜县| 高安市| 常宁市| 高邮市| 手机| 南溪县| 会宁县| 时尚|