首頁 > 新聞 > 智能 > 正文

ChatGPT 全新功能公開演示!能做 Excel、能上網(wǎng),聊天機(jī)器人未來會成為全能 app-當(dāng)前通訊

2023-04-21 20:23:49來源:ZAKER科技  

作為 OpenAI 的總裁,Greg Brockman 毫無疑問是世界上最了解和最會用 ChatGPT 的人之一。


(資料圖片僅供參考)

最近,他在 TED 做了一場精彩的演講,詳細(xì)地演示了 ChatGPT 的「正確用法」,以及分享他對 ChatGPT、AI 的獨到思考。

ChatGPT 到底是什么?它對人類社會有什么意義?AI 未來應(yīng)該怎么發(fā)展?從這篇演講中你都能找到答案。

核心信息提煉:

未來幾個月內(nèi)所有 ChatGPT 用戶都能用上插件功能。

建立在無數(shù)工具之上的 ChatGPT 是一種新的用戶界面模式。

人類與 AI 協(xié)作能解決許多看似不可能解決的問題,例如重新設(shè)計我們與計算機(jī)交互的方式。

七年前,我們成立了 OpenAI,因為我們覺得人工智能領(lǐng)域正發(fā)生著一些非常有趣的事情,而我們希望幫助它朝著積極的方向發(fā)展。自那以后,整個領(lǐng)域的發(fā)展速度十分驚人。

我們從使用我們的技術(shù)的開發(fā)者(比如 Raymond)那里聽到了許多美妙的事情,真的很令人欣慰。

我們已經(jīng)聽到了一些人對人工智能感到興奮、擔(dān)憂或同時感受這兩種情緒的聲音老實說,這也是我們自己的感覺。

最重要的是,我們感到我們正在進(jìn)入一個歷史時期,在這個時期里,我們將會定義一項對我們社會至關(guān)重要的技術(shù)。

我相信我們可以將其善加利用。今天,我想向大家展示這項技術(shù)的當(dāng)前狀態(tài)以及我們所堅持的一些基本設(shè)計原則。首先,我要向大家展示的是,構(gòu)建人工智能工具與構(gòu)建人類工具的不同之處。

我們現(xiàn)在有一個新的 DALL-E 模型,可以將其作為 ChatGPT 的插件搭配使用。

你可以這樣做:給個建議,告訴我結(jié)束演講后的晚餐吃什么,并把它畫出來。你可以從 ChatGPT 的交流中得到創(chuàng)意和創(chuàng)造性的靈感,而 AI 則能為你完成剩余的所有細(xì)節(jié)。

現(xiàn)在,ChatGPT 并不僅僅生成文本,它也生成圖像(注:使用了 DALL- E 插件后)。這使得它能夠更好地代替你,把你的想法變成現(xiàn)實。

現(xiàn)在,讓我們來看另一個 AI 工具的例子,比如存儲記憶。當(dāng)你說「將它保存下來以備后用」時,這個工具將會保存這個信息。這些工具在使用時都是有跡可循的,你可以清晰地了解到機(jī)器在使用哪些工具,并提供反饋。

(圖片生成好了)這里,我要指出的是這是一個現(xiàn)場演示,這一切都是由 AI 實時生成的,所以我實際上甚至不知道我們會看到什么。這張圖看起來很不錯,把我也給看餓了。

讓我們回到正題,我們還使用其他工具擴(kuò)展了 ChatGPT,例如,記憶功能。您可以說「將這個保存到以后(的使用中)」。

當(dāng)你在使用這些工具時,你會看到寫著「使用 DALL-E 應(yīng)用程序」的提示。順便說一下,所有 ChatGPT 用戶都會在未來幾個月內(nèi)都能用上這個功能。

在這里你可以看到 AI 是如何像人類一樣編寫提示的,便于你在后續(xù)做反饋調(diào)整。

現(xiàn)在這些信息已經(jīng)被保存,讓我展示一下如何使用這些信息,并與其他應(yīng)用程序組合使用。

你可以說:「現(xiàn)在為我之前建議的美食制作一個購物清單,還要發(fā)布在 Twitter 上。」

你可以看到,ChatGPT 會選擇合適的插件,而無需我的指引。我認(rèn)為這是一種新的用戶界面模式。

過去我們總是習(xí)慣于思考該怎么在不同的應(yīng)用程序之間切換、復(fù)制 / 粘貼,并且通常只有在你對這些應(yīng)用很熟悉的情況下,才能獲得一個很好的使用體驗。

現(xiàn)在我們通過一個建立在無數(shù)工具之上的統(tǒng)一語言界面,就可以完成這些工作。

ChatGPT 為我們生成了一個 Instacart 的購物清單,里面包含了我們需要的購買的材料,非常方便。

需要說明的是,傳統(tǒng)的用戶界面仍然非常有價值。通過傳統(tǒng)用戶界面,我們可以快速地修改實際數(shù)量(等操作)。這表明傳統(tǒng)的用戶界面并沒有因此而消失,只是現(xiàn)在我們有了一種新的、更高效的方式來構(gòu)建它們。

現(xiàn)在,我們已經(jīng)起草了一條推文,供我們審閱。這也是非常重要的一點。我們可以根據(jù)自己的意愿,去調(diào)整人工智能的工作。

現(xiàn)在,讓我們回到主題上。我們打造 ChatGPT 的關(guān)鍵,不僅僅在于創(chuàng)建這些工具,還在于教導(dǎo) AI 如何使用它們。當(dāng)我們提出一些高難度的問題時,我們要求它做些什么呢?

為此,我們采用了一個古老的想法——阿蘭 · 圖靈 1950 年論文中提到的圖靈測試。

他說,你不可能用程序來為這個測試生成一個答案,相反,你可以教它。就像教一個小孩子一樣,我們可以建立一個機(jī)器,并提供獎勵和懲罰來教導(dǎo)它嘗試一些事情,不論是好的還是壞的。

這正是我們訓(xùn)練 ChatGPT 的方法。我們將其分為兩個步驟。

首先,我們通過無監(jiān)督學(xué)習(xí)的過程生成一個所謂的「機(jī)器孩子」,就像圖靈所說的一樣。我們向這個「小孩」輸入整個世界、互聯(lián)網(wǎng)的數(shù)據(jù),然后讓它根據(jù)提供的文本預(yù)測下一個詞。

這個過程賦予了它各種技能,例如可以看懂?dāng)?shù)學(xué)題并通過推理得出答案。

但要掌握這些技能還需要進(jìn)行第二步,即教導(dǎo) AI 如何使用這些技能。為此,我們要給 AI 提供反饋。

我們讓 AI 用多種方法為我們提供不同的建議,然后再由人類評分,選出最合理的答案。

這樣不僅可以強(qiáng)化 AI 的具體表達(dá),還可以強(qiáng)化產(chǎn)生答案的整個過程。

這使得 AI 能夠概括、教授并推斷人類的意圖,還能將其應(yīng)用于它之前沒有見過或沒有收到過反饋的情況。

但有時我們需要教授 AI 的東西并不是我們期望的。

例如,當(dāng)我向可汗學(xué)院展示 GPT-4 時,他們認(rèn)為它很棒,可以用來給學(xué)生做輔導(dǎo)。他們發(fā)現(xiàn) GPT-4 不會糾正學(xué)生的數(shù)學(xué)錯誤,如果在對話中出現(xiàn)錯誤,它會假裝 1 加 1 等于 3 并繼續(xù)運行。

因此,我們需要收集更多的反饋數(shù)據(jù),教授 AI 要在特定情況下反駁人類。

當(dāng)在 ChatGPT 中點下 按鈕時,就會給我們發(fā)送一個信號告訴我們需要收集這段反饋。這是我們聽取用戶意見的方式,確保我們正在構(gòu)建對每個人更有用的東西。

提供高質(zhì)量的反饋是一件困難的事情,但是 AI 本身愿意提供幫助。它愿意幫助我們提供更好的反饋,并隨著時間的推移擴(kuò)大我們監(jiān)督機(jī)器的能力。

舉個例子。你可以向 GPT-4 提個問題,然后它會給你回答兩個月。要知道,大模型回答的答案往往并不可靠,我們怎么確保它的答案是正確的呢?

通常情況下,我們需要自己上網(wǎng)再次搜索相關(guān)的問題,對照檢查答案。這非常枯燥、繁瑣、費時。

現(xiàn)在我們可以把這些重復(fù)性工作丟給 AI。利用瀏覽工具,我們可以 AI 自己來核實事實。我們把剛才的問題和回答輸入進(jìn)去,然后讓它重新核實事實,它就會自己寫下它的思考鏈,一步步地搜索所需內(nèi)容、對應(yīng)檢查答案。

結(jié)果證明,GPT-4 果然回答錯了,正確答案是兩個月又一個星期。這是它自己檢查出來的正確結(jié)果。

這個過程非常有趣,因為它需要人類與人工智能多步合作:人類使用事實核查工具是為了為另一個人工智能生成數(shù)據(jù),從而使其能更好地為人類服務(wù)。

我認(rèn)為這種合作模式在未來會變得非常普遍,即我們需要人類和機(jī)器協(xié)作來解決問題,確保人類以一種可視化和值得信賴的方式管理、監(jiān)督和反饋機(jī)器。在這兩種力量的共同努力下,我們可以建立更加可靠的機(jī)器。

我相信,隨著時間的推移,如果我們成功地把這個過程進(jìn)行下去,我們將能夠解決一些看似不可能解決的問題——例如我們能夠重新設(shè)計我們與計算機(jī)交互的方式。

我相信,隨著時間的推移,如果我們成功地進(jìn)行這個過程,我們將能夠解決一些看似不可能的問題。為了讓你更好地理解我所說的 " 不可能 " 的難度,我認(rèn)為我們將能夠重新思考我們與計算機(jī)交互的幾乎每一個方面。

讓我們拿電子表格作為例子。

自從 40 年前出現(xiàn)了 VisiCalc 以來,電子表格就一直以某種形式存在。

但是,在這段時間里,它們的變化并不是很大。這里有一個關(guān)于過去 30 年 arXiv 上的所有 AI 論文的電子表格。大約有 167000 篇。

讓我向你展示 ChatGPT 如何分析這個數(shù)據(jù)集。我們可以讓 ChatGPT 使用 Python 解釋器作為工具,這樣它就能像數(shù)據(jù)科學(xué)家一樣運行代碼。你可以直接上傳一個文件并提出問題。

你可以問它:「能不能做一些探索性的圖表?」

需要強(qiáng)調(diào)的是,這是一個超級高層次的指令,里面帶有大量的意圖,我甚至不知道我想要的是什么。因此,AI 必須推斷出我可能感興趣的內(nèi)容。

它給出了一些不錯的想法,例如對論文作者數(shù)量的每篇文章的直方圖、每年論文數(shù)量的時間序列、論文標(biāo)題的詞云。我認(rèn)為所有這些都很有趣。很棒的是,它確實可以畫出來。

然后它會根據(jù)每年的論文數(shù)量制作一張圖表。然而,我們可以看到在 2023 年發(fā)生了一些奇怪的事情,看起來我們一直處于指數(shù)增長,然后就發(fā)生了墜崖式的跌落。

順便說一下,所有這些都是 Python 代碼,你可以隨便檢閱生成的過程。這里的問題很簡單,因為我們今年還沒有結(jié)束,因此從數(shù)據(jù)來看 2023 才會這么糟糕。

讓我們繼續(xù)輸入我們的反饋,讓他統(tǒng)計根據(jù) 2022 年 4 月 13 日前發(fā)布的文章數(shù)量占據(jù) 2022 年全年文章總量的百分比,公平地預(yù)測 2023 年全年的論文數(shù)量。

也許這對它來說有點過分,因為它本已經(jīng)神奇地推斷出這是我想要的圖標(biāo)。

但我為我的意圖提供了這個額外的指引。在幕后,AI 又寫了一遍代碼,所以如果你想要檢查它在做什么都可以看到。

現(xiàn)在,它做出了正確的預(yù)測。

如果你注意到的話,它甚至更新了標(biāo)題。我沒有要求這一點,但它知道我想要什么。

現(xiàn)在我們回到幻燈片上。這張幻燈片展示了我對我們未來如何使用這項技術(shù)的愿景。

在這個故事中,一個人帶著他病得很重的狗去看獸醫(yī),但獸醫(yī)做出了錯誤的診斷,說:「讓我們再觀察一下。」如果主人照做了,這只狗可能就沒能活下來。

但他沒有。他將狗狗的血液測試和完整的醫(yī)療記錄輸入給了 ChatGPT,ChatGPT 回復(fù)說:「我不是獸醫(yī),你需要找專業(yè)人士咨詢,但我可以給你一些假設(shè)。」

帶著這些信息,他找到了第二個獸醫(yī),后者成功地挽救了狗的生命。

我想表達(dá)的是,盡管我們現(xiàn)在的系統(tǒng)并不完美,但如果一個人與 ChatGPT 作為頭腦風(fēng)暴伙伴合作,或許就能取得非同凡響的結(jié)果。我認(rèn)為這是我們考慮如何將 AI 整合到我們的世界中時,需要反思和思考的事情。

我深信,讓 AI 正確運作需要每個人的參與。我們要共同地決定如何將 AI 整合進(jìn)我們的生活,為它制定規(guī)則,確定 AI 將能夠和不能夠做什么。

AI 的發(fā)展已經(jīng)超出了人們的預(yù)期,因此,我們每個人都必須得熟練掌握它,這也是我們發(fā)布 ChatGPT 的原因之一。我相信,我們能夠?qū)崿F(xiàn) OpenAI 的使命,確保人工通用智能造福人類。

訪談:

CA:主持人 Chris Anderson:

GB:Greg Brockman

CA:哇,我注意到在場的每個人的內(nèi)心都有些許顫抖。我想,很多人看到這里時,會覺得自己的工作每個環(huán)節(jié)都需要重新考慮。這太驚人了,但也太可怕了。那么,讓我們談?wù)劙伞N业牡谝粋€問題就是,你們究竟能如何做到這一點?

OpenAI 只有大約幾百名員工,Google 有數(shù)千名員工從事人工智能領(lǐng)域的研究。為什么是 OpenAI 開發(fā)了這個震驚世界的技術(shù)呢?

GB:實際上,我們都是站在巨人的肩膀上進(jìn)行研究的,這是毫無疑問的。如果你關(guān)注計算機(jī)進(jìn)展、算法進(jìn)展或數(shù)據(jù)進(jìn)展,那么這些都是整個行業(yè)的進(jìn)展。但我認(rèn)為,我們在 OpenAI 內(nèi)部從早期就做出了許多深思熟慮的選擇。

第一個決定是直面現(xiàn)實。我們深思熟慮,思考實現(xiàn)進(jìn)展需要什么。我們嘗試了許多失敗的嘗試,所以你只看到了我們成功的地方我認(rèn)為最重要的一點是讓團(tuán)隊中不同的人和諧地合作。

CA:你是否認(rèn)為你們在語言模型中看到的東西意味著,如果繼續(xù)投資和壯大它們,某些時刻可能會出現(xiàn)某些新的東西呢?

GB:是的。而且,我認(rèn)為這非常有啟示性。高層的深度學(xué)習(xí)一直是我們想做的事,這是一個深度學(xué)習(xí)實驗室,但具體該如何做呢?

早期我們不知道該怎么做。我們嘗試了許多事情,其中一個人正在訓(xùn)練一個模型,預(yù)測亞馬遜評論中的下一個字符,這聽起來就像是一個句法分析的過程,但他沒想到的是這其實一個最先進(jìn)的情感分析分類器。這個模型可以告訴你評論是積極的還是消極的。

今天,我們會覺得這很容易,任何人都可以做到。但當(dāng)你第一次看到這種從底層句法過程中出現(xiàn)的語義,我們知道,我們必須要擴(kuò)展這個模型,看看它會走到哪里。

CA:ChatGPT 被描述為預(yù)測機(jī)器,然而我們所看到的卻感覺不太可能是通過預(yù)測得出的。有沒有一刻,讓你看到的事情出乎意料,震驚到了你的內(nèi)心?請給我分享一下這個瞬間。

GB:是的,你可以在 ChatGPT 中嘗試做 40 位數(shù)之間的加法,這個模型將會計算出它們的和,這意味著它確實學(xué)會了一個內(nèi)部的法則來解決這個問題。

而真正有趣的是,如果你讓它計算一個 40 位數(shù)加上 35 位數(shù)的和,它經(jīng)常會出錯。這表明它確實在學(xué)習(xí)這個過程,但它還沒有完全泛化,對嗎?就像你不能記住 40 位加法表一樣,那比宇宙中的原子還要多。

所以它必須學(xué)會了一些普遍的方法,但它還沒有完全學(xué)會:噢,我可以將這個方法推廣到處理任意長度的任意數(shù)值加法。

CA:所以這里發(fā)生的是你讓它擴(kuò)大并查看大量的文本。它正在學(xué)習(xí)一些你不知道它能夠?qū)W習(xí)的東西。

GB:是的,而且它也更加細(xì)膩。所以我們開始真正擅長的一門科學(xué)是預(yù)測其中一些新出現(xiàn)的功能。而要做到這一點,我認(rèn)為這個領(lǐng)域中一個非常被低估的事情是工程質(zhì)量。

就像你構(gòu)建火箭時,每個公差都必須非常小一樣,在機(jī)器學(xué)習(xí)中同樣如此。你必須將整個堆棧的每個部分都正確地編好,然后才能開始進(jìn)行這些預(yù)測。這里有許多非常平滑的縮放曲線,它們向我們展示了智能的本質(zhì)。

如果你查看我們的 GPT-4 博客文章,你可以看到這些曲線。現(xiàn)在我們開始能夠進(jìn)行預(yù)測了。例如,我們能夠預(yù)測編碼問題的表現(xiàn)。我們基本上觀察一些模型,這些模型要小 1000 倍或者 10000 倍。這其實是縮放曲線的一部分,盡管現(xiàn)在還在早期階段。

CA: 在這里,一個大的擔(dān)憂就是,隨著規(guī)模的擴(kuò)大,有些東西可能是可以被預(yù)測的,但是有時又會出現(xiàn)令人驚訝的情況。誰能保證這里不會有巨大的風(fēng)險導(dǎo)致某些非常可怕的事情發(fā)生呢?

GB: 我認(rèn)為這些都是程度和規(guī)模以及時間的問題。此外,人們還會忽略與世界的融合,這也是一件極為突出的緊急事件。這就是我們認(rèn)為逐步部署的重要原因之一。

因此,我認(rèn)為目前我們所看到的,如果你看看這次演講,大部分的注意力都集中在提供高質(zhì)量的反饋上。今天我們所做的任務(wù),可以進(jìn)行檢查。比如說,很容易看出這道數(shù)學(xué)問題的正確答案是七而不是八。

但就連書籍的摘要,也是一個很難監(jiān)督的事情。你怎么知道這個書摘是好的呢?你必須讀整本書。沒人想這么做。因此,我認(rèn)為重要的是我們要一步一步地做。當(dāng)我們進(jìn)入到書摘階段時,我們必須妥善監(jiān)督這個任務(wù)。

我們必須建立起機(jī)器能夠真正執(zhí)行我們的意圖的記錄。我認(rèn)為我們將不得不制定出更好、更高效、更可靠的方法來擴(kuò)展這個技術(shù),使機(jī)器與你保持一致。

CA: 隨后我們將會聽到有批評者說,你知道,系統(tǒng)內(nèi)部沒有真正的理解力,它總是會產(chǎn)生錯誤它沒有常識等等。你相信它任何時刻都會是這樣嗎?你剛才談到的規(guī)模的擴(kuò)大和人類的反饋,基本上會帶它走向真理和智慧等目標(biāo),你有信心嗎?

GB: 是的,我相信 OpenAI,我的短期答案是「yes」。我認(rèn)為 OpenAI 的方法一直都是盡可能地接觸現(xiàn)實。這個領(lǐng)域是充滿了破滅的承諾,所有這些專家都在說這樣或者那樣,事實并非如此。

人們已經(jīng)說了 70 年內(nèi)神經(jīng)網(wǎng)絡(luò)都行不通。但他們不一定對。也許還需要再過 71 年這樣子。但我認(rèn)為我們的方法一直都是要推動這個技術(shù)的極限,從而真正看到實際效果,因為這會告訴你,噢,這就是我們?nèi)绾芜^渡到一個新的范式。我們還沒有挖盡這個領(lǐng)域的潛力。

CA:你所持有的立場相當(dāng)具有爭議性,認(rèn)為公開發(fā)布并利用這一切(而不是只讓你的團(tuán)隊提供反饋),讓全世界都提供反饋是做好這件事的正確途徑。但是……如果會出現(xiàn)不好的事情,當(dāng)然這已經(jīng)有不少。

我聽說過 OpenAI 在成為非營利組織時的最初目的,是要作為一個偉大的審核員,對于那些可能使用 AI 開展未知、可能惡意的行為的大公司進(jìn)行調(diào)查。你將建立一種模型,以某種方式使它們對其負(fù)責(zé),并且在需要時能夠減緩進(jìn)展。

或者至少我聽說是這樣的。然而,所發(fā)生的情況與此相反。你們發(fā)布的 GPT 尤其是 ChatGPT,在技術(shù)界引起了巨大的震動,以至于 Google、Meta 等公司現(xiàn)在都在瘋狂趕超你們。

他們的一些批評是,你們迫使他們在沒有適當(dāng)防護(hù)的情況下發(fā)布這些內(nèi)容,否則就會失敗。你們?nèi)绾巫C明自己的做法是對社會負(fù)責(zé)而不是魯莽的呢?

GB:是的,我們經(jīng)常思考這些問題。

嚴(yán)格意義上來說,我們始終不可能做得完全正確。但是,有一件事我認(rèn)為至關(guān)重要,即從一開始思考如何構(gòu)建通用人工智能,使其有益于整個人類的角度出發(fā),你該怎么做呢?

你會選擇保持秘密,然后獲得這個極其強(qiáng)大的東西,接著就能將其安全使用,或者你就這樣去執(zhí)行計劃,希望一切都能成功。我不知道怎樣執(zhí)行這個計劃,或許其他人知道。但對于我來說,這個計劃讓人感到恐懼,并不合適。

因此,我認(rèn)為這個替代方案是我所看到的唯一另一條路線,即直面現(xiàn)實。我認(rèn)為,在這些機(jī)器變得完美、超級強(qiáng)大之前,給人們時間提供反饋、觀察它們實際行動是非常重要的。

我們從 GPT-3 看到了這一點。當(dāng)時,我們真的擔(dān)心,人們使用它的主要目的是生成錯誤信息、嘗試干預(yù)選舉。而它實際上被用來生成銷售偉哥的垃圾郵件,這成為了它最主要的用途。

CA:所以說,垃圾郵件是很糟糕的,但有些事情比它還糟糕。讓我來談個思維實驗。假設(shè)你坐在一個房間里,桌子上有一個盒子。你相信在那個盒子里裝著一些東西,其中有很大的可能性是美好的東西。但有百分之一的可能會釋放出世界無法想象的邪惡。你會打開這個盒子嗎?

GB:那么,當(dāng)然不。我認(rèn)為你不能那么做。老實說,我會告訴你一個以前從未講過的故事,就是在我們成立 OpenAI 不久之后,我記得我在波多黎各參加了一次 AI 會議。

我坐在酒店房間里望著這美好的水,所有人都玩得很愉快。你會想一想,如果你可以選擇讓潘多拉的盒子在 5 年后或 500 年后打開,你會選擇哪個,對吧?

一方面,你也許會認(rèn)為對你個人來說,5 年后更好一些。但如果能等到 500 年后,人們可以有更多時間做對它,你會選擇哪個呢?我當(dāng)時真的很感受到這一點。我覺得當(dāng)然是 500 年。所以,我真的很明白你必須把它正確地應(yīng)對。但我認(rèn)為這并不是實際情況。

如果你看看計算機(jī)的整個歷史,這是一次行業(yè)甚至是作為技術(shù)發(fā)展的人類歷史上的轉(zhuǎn)變。你越是不把它們放在一起,就意味著你會留下一個負(fù)擔(dān),也就是說,如果有人或某一時刻有人設(shè)法連接到電路上,那么你就會突然擁有這個非常強(qiáng)大的東西,沒有人有任何時間去調(diào)整,也不知道會有什么樣的安全措施。

所以,我的一個觀點是,即使是其他技術(shù)的開發(fā),例如核武器,人們談?wù)撍且粋€人類社會從 0 到 1 的變化。但我實際上認(rèn)為,它的研發(fā)在時間上一直非常平穩(wěn)。

CA:我的理解是,我們擁有的模型可以視為我們已經(jīng)孕育了這個非凡的孩子,這個孩子可能擁有超能力,讓人類走向一個全新的世界。

這是我們共同的責(zé)任,為這個孩子提供護(hù)欄,共同教導(dǎo)它成為明智的人,而不是摧毀我們所有人。對嗎

GB:是的。我認(rèn)為非常重要的是,我們要學(xué)會理解這項技術(shù),找出如何提供反饋,決定我們想從中得到什么。我希望這會是正確的路徑。

點擊「在看」

是對我們最大的鼓勵

關(guān)鍵詞:

責(zé)任編輯:hnmd003

相關(guān)閱讀

相關(guān)閱讀

精彩推送

推薦閱讀