大模型迎來(lái)「開(kāi)源季」,盤(pán)點(diǎn)過(guò)去一個(gè)月那些開(kāi)源的 LLM 和數(shù)據(jù)集
選自 Ahead of AI
(資料圖片)
機(jī)器之心編譯
編譯:杜偉、澤南
開(kāi)源的力量正在源源不斷地影響著整個(gè) AI 社區(qū),無(wú)論是 LLM 還是數(shù)據(jù)集。本文作者 Sebastian Raschka 對(duì)相關(guān)資源進(jìn)行了匯總,并分享了自己的洞見(jiàn)。
前段時(shí)間,谷歌泄露的內(nèi)部文件表達(dá)了這樣一個(gè)觀點(diǎn),雖然表面看起來(lái) OpenAI 和谷歌在 AI 大模型上你追我趕,但真正的贏家未必會(huì)從這兩家中產(chǎn)生,因?yàn)椤?/p>
圍繞 Meta 的 LLaMA 開(kāi)源模型,整個(gè)社區(qū)正在迅速構(gòu)建與 OpenAI、谷歌大模型能力類似的模型,而且開(kāi)源模型的迭代速度更快,可定制性更強(qiáng),更有私密性。
近日,前威斯康星大學(xué)麥迪遜分校助理教授、初創(chuàng)公司 Lightning AI 首席 AI 教育官 Sebastian Raschka 表示,對(duì)于開(kāi)源而言,過(guò)去一個(gè)月很偉大。
不過(guò),那么多大語(yǔ)言模型(LLM)紛紛出現(xiàn),要緊緊把握住所有模型并不容易。所以,Sebastian 在本文中分享了關(guān)于最新開(kāi)源 LLM 和數(shù)據(jù)集的資源和研究洞見(jiàn)。
論文與趨勢(shì)過(guò)去一個(gè)月出現(xiàn)了很多研究論文,因此很難從中挑選出最中意的幾篇進(jìn)行深入的探討。Sebastian 更喜歡提供額外洞見(jiàn)而非簡(jiǎn)單展示更強(qiáng)大模型的論文。鑒于此,引起他注意力的首先是 Eleuther AI 和耶魯大學(xué)等機(jī)構(gòu)研究者共同撰寫(xiě)的 Pythia 論文。
論文地址:https://arxiv.org/pdf/2304.01373.pdfPythia:從大規(guī)模訓(xùn)練中得到洞見(jiàn)
開(kāi)源 Pythia 系列大模型真的是其他自回歸解碼器風(fēng)格模型(即類 GPT 模型)的有趣平替。論文中揭示了關(guān)于訓(xùn)練機(jī)制的一些有趣洞見(jiàn),并介紹了從 70M 到 12B 參數(shù)不等的相應(yīng)模型。
Pythia 模型架構(gòu)與 GPT-3 相似,但包含一些改進(jìn),比如 Flash 注意力(像 LLaMA)和旋轉(zhuǎn)位置嵌入(像 PaLM)。同時(shí) Pythia 在 800GB 的多樣化文本數(shù)據(jù)集 Pile 上接受了 300B token 的訓(xùn)練(其中在常規(guī) Pile 上訓(xùn)練 1 個(gè) epoch,在去重 Pile 上訓(xùn)練 1.5 個(gè) epoch )。
下面為一些從 Pythia 論文中得到的洞見(jiàn)和思考:在重復(fù)數(shù)據(jù)上的訓(xùn)練(即訓(xùn)練 epoch>1)會(huì)不會(huì)有什么影響?結(jié)果表明,數(shù)據(jù)去重不會(huì)改善或損害性能;
訓(xùn)練命令會(huì)影響記憶嗎?遺憾的是,結(jié)果表明并不會(huì)。之所以說(shuō)遺憾,是因?yàn)槿绻绊懙脑挘瑒t可以通過(guò)訓(xùn)練數(shù)據(jù)的重新排序來(lái)減輕討厭的逐字記憶問(wèn)題;
batch 大小加倍可以將訓(xùn)練時(shí)間減半但不損害收斂。
開(kāi)源數(shù)據(jù)
對(duì)于開(kāi)源 AI,過(guò)去一個(gè)月特別令人興奮,出現(xiàn)了幾個(gè) LLM 的開(kāi)源實(shí)現(xiàn)和一大波開(kāi)源數(shù)據(jù)集。這些數(shù)據(jù)集包括 Databricks Dolly 15k、用于指令微調(diào)的 OpenAssistant Conversations ( OASST1 ) 、用于預(yù)訓(xùn)練的 RedPajama。這些數(shù)據(jù)集工作尤其值得稱贊,因?yàn)閿?shù)據(jù)收集和清理占了真實(shí)世界機(jī)器學(xué)習(xí)項(xiàng)目的 90%,但很少有人喜歡這項(xiàng)工作。
Databricks-Dolly-15 數(shù)據(jù)集
Databricks-Dolly-15 是一個(gè)用于 LLM 微調(diào)的數(shù)據(jù)集,它由數(shù)千名 DataBricks 員工編寫(xiě)了超過(guò) 15,000 個(gè)指令對(duì)(與訓(xùn)練 InstructGPT 和 ChatGPT 等系統(tǒng)類似)。
OASST1 數(shù)據(jù)集
OASST1 數(shù)據(jù)集用于在由人類創(chuàng)建和標(biāo)注的類 ChatGPT 助手的對(duì)話集合上微調(diào)預(yù)訓(xùn)練 LLM,包含了 35 種語(yǔ)言編寫(xiě)的 161,443 條消息以及 461,292 個(gè)質(zhì)量評(píng)估。這些是在超過(guò) 10,000 個(gè)完全標(biāo)注的對(duì)話樹(shù)中組織起來(lái)。
用于預(yù)訓(xùn)練的 RedPajama 數(shù)據(jù)集
RedPajama 是一個(gè)用于 LLM 預(yù)訓(xùn)練的開(kāi)源數(shù)據(jù)集,類似于 Meta 的 SOTA LLaMA 模型。該數(shù)據(jù)集旨在創(chuàng)建一個(gè)媲美大多數(shù)流行 LLM 的開(kāi)源競(jìng)爭(zhēng)者,目前這些 LLM 要么是閉源商業(yè)模型要么僅部分開(kāi)源。RedPajama 的大部分由 CommonCrawl 組成,它對(duì)英文網(wǎng)站進(jìn)行了過(guò)濾,但維基百科的文章涵蓋了 20 種不同的語(yǔ)言。
LongForm 數(shù)據(jù)集論文《The LongForm: Optimizing Instruction Tuning for Long Text Generation with Corpus Extraction》介紹了基于 C4 和 Wikipedia 等已有語(yǔ)料庫(kù)的人工創(chuàng)作文檔集合以及這些文檔的指令,從而創(chuàng)建了一個(gè)適合長(zhǎng)文本生成的指令調(diào)優(yōu)數(shù)據(jù)集。
論文地址:https://arxiv.org/abs/2304.08460
Alpaca Libre 項(xiàng)目
Alpaca Libre 項(xiàng)目旨在通過(guò)將來(lái)自 Anthropics HH-RLHF 存儲(chǔ)庫(kù)的 100k + 個(gè) MIT 許可演示轉(zhuǎn)換為 Alpaca 兼容格式,以重現(xiàn) Alpaca 項(xiàng)目。
擴(kuò)展開(kāi)源數(shù)據(jù)集
指令微調(diào)是我們從類 GPT-3 預(yù)訓(xùn)練基礎(chǔ)模型演化到更強(qiáng)大類 ChatGPT 大語(yǔ)言模型的關(guān)鍵方式。Databricks-Dolly-15 等開(kāi)源人工生成指令數(shù)據(jù)集有助于實(shí)現(xiàn)這一點(diǎn)。但我們?nèi)绾芜M(jìn)一步擴(kuò)展呢?是否可以不收集額外數(shù)據(jù)呢?一種方法是從自身的迭代中 bootstrap 一個(gè) LLM。雖然 Self-Instruct 方法在 5 個(gè)月前提出(以如今標(biāo)準(zhǔn)來(lái)看過(guò)時(shí)了),但它仍是一種非常有趣的方法。值得強(qiáng)調(diào)的是,由于 Self-Instruct 一種幾乎不需要注釋的方法,因而可以將預(yù)訓(xùn)練 LLM 與指令對(duì)齊。
如何運(yùn)作呢?簡(jiǎn)而言之可以分為以下四個(gè)步驟:
首先是具有一組人工編寫(xiě)指令(本例中為 175)和樣本指令的種子任務(wù)池;
其次使用一個(gè)預(yù)訓(xùn)練 LLM(如 GPT-3)來(lái)確定任務(wù)類別;
接著給定新指令,使預(yù)訓(xùn)練 LLM 生成響應(yīng);
最后在將指令添加到任務(wù)池之前收集、修剪和過(guò)濾響應(yīng)。
在實(shí)踐中,基于 ROUGE 分?jǐn)?shù)的工作會(huì)比較有效、例如 Self-Instruct 微調(diào)的 LLM 優(yōu)于 GPT-3 基礎(chǔ) LLM,并可以在大型人工編寫(xiě)指令集上預(yù)訓(xùn)練的 LLM 競(jìng)爭(zhēng)。同時(shí) self-instruct 也可以使在人工指令上微調(diào)過(guò)的 LLM 收益。但是當(dāng)然,評(píng)估 LLM 的黃金標(biāo)準(zhǔn)是詢問(wèn)人類評(píng)分員。基于人類評(píng)估,Self-Instruct 優(yōu)于基礎(chǔ) LLM、以及以監(jiān)督方式在人類指令數(shù)據(jù)集上訓(xùn)練的 LLM(比如 SuperNI, T0 Trainer)。不過(guò)有趣的是,Self-Instruct 的表現(xiàn)并不優(yōu)于通過(guò)人類反饋強(qiáng)化學(xué)習(xí)(RLHF)訓(xùn)練的方法。
人工生成 vs 合成訓(xùn)練數(shù)據(jù)集
人工生成指令數(shù)據(jù)集和 self-instruct 數(shù)據(jù)集,它們兩個(gè)哪個(gè)更有前途呢?Sebastian 認(rèn)為兩者皆有前途。為什么不從人工生成指令數(shù)據(jù)集(例如 15k 指令的 databricks-dolly-15k)開(kāi)始,然后使用 self-instruct 對(duì)它進(jìn)行擴(kuò)展呢?論文《Synthetic Data from Diffusion Models Improves ImageNet Classification》表明,真實(shí)圖像訓(xùn)練集與 AI 生成圖像相結(jié)合可以提升模型性能。探究對(duì)于文本數(shù)據(jù)是否也是這樣是一件有趣的事情。
論文地址:https://arxiv.org/abs/2304.08466
最近的論文《Better Language Models of Code through Self-Improvement》就是關(guān)于這一方向的研究。研究者發(fā)現(xiàn)如果一個(gè)預(yù)訓(xùn)練 LLM 使用它自己生成的數(shù)據(jù),則可以改進(jìn)代碼生成任務(wù)。
論文地址:https://arxiv.org/abs/2304.01228
少即是多(Less is more)?
此外,除了在越來(lái)越大的數(shù)據(jù)集上預(yù)訓(xùn)練和微調(diào)模型之外,又如何提高在更小數(shù)據(jù)集上的效率呢?論文《Distilling Step-by-Step! Outperforming Larger Language Models with Less Training Data and Smaller Model Sizes》中提出使用一種蒸餾機(jī)制來(lái)管理任務(wù)特定的更小模型,它們使用更少的訓(xùn)練數(shù)據(jù)卻超越了標(biāo)準(zhǔn)微調(diào)的性能。
論文地址:https://arxiv.org/abs/2305.02301
追蹤開(kāi)源 LLM開(kāi)源 LLM 的數(shù)量呈爆炸式增長(zhǎng),一方面是非常好的發(fā)展趨勢(shì)(相較于通過(guò)付費(fèi) API 控制模型),但另一方面追蹤這一切可能很麻煩。以下四種資源提供了大多數(shù)相關(guān)模型的不同摘要,包括它們的關(guān)系、底層數(shù)據(jù)集和各種許可信息。
第一種資源是基于論文《Ecosystem Graphs: The Social Footprint of Foundation Models》的生態(tài)系統(tǒng)圖網(wǎng)站,提供如下表格和交互式依賴圖(這里未展示)。
這個(gè)生態(tài)系統(tǒng)圖是 Sebastian 迄今為止見(jiàn)過(guò)的最全面的列表,但由于包含了很多不太流行的 LLM,因而可能顯得有點(diǎn)混亂。檢查相應(yīng)的 GitHub 庫(kù)發(fā)現(xiàn),它已經(jīng)更新了至少一個(gè)月。此外尚不清楚它會(huì)不會(huì)添加更新的模型。
論文地址:https://arxiv.org/abs/2303.15772生態(tài)系統(tǒng)圖網(wǎng)站地址:https://crfm.stanford.edu/ecosystem-graphs/index.html?mode=table
第二種資源是最近論文《Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond》中繪制精美的進(jìn)化樹(shù),該論文側(cè)重于最流行的 LLM 和它們的關(guān)系。
雖然讀者看到了非常美觀和清晰的可視化 LLM 進(jìn)化樹(shù),但也有一些小的疑惑。例如不清楚為什么底部沒(méi)有從原始 transformer 架構(gòu)開(kāi)始。此外開(kāi)源標(biāo)簽并不是非常的準(zhǔn)確,例如 LLaMA 被列為開(kāi)源,但權(quán)重在開(kāi)源許可下不可用(只有推理代碼是這樣的)。
論文地址:https://arxiv.org/abs/2304.13712第三種資源是 Sebastian 同事 Daniela Dapena 繪制的表格,出自于博客《The Ultimate Battle of Language Models: Lit-LLaMA vs GPT3.5 vs Bloom vs …》。
雖然下述表格比其他資源要小,但其優(yōu)點(diǎn)在于包含了模型尺寸和許可信息。如果你計(jì)劃在任何項(xiàng)目中采用這些模型,則該表格會(huì)非常有實(shí)用性。
博客地址:https://lightning.ai/pages/community/community-discussions/the-ultimate-battle-of-language-models-lit-llama-vs-gpt3.5-vs-bloom-vs/第四種資源是 LLaMA-Cult-and-More 總覽表,它提供了有關(guān)微調(diào)方法和硬件成本的額外信息。
總覽表地址:https://github.com/shm007g/LLaMA-Cult-and-More/blob/main/chart.md利用 LLaMA-Adapter V2 微調(diào)多模態(tài) LLM
Sebastian 預(yù)測(cè)本月會(huì)看到更多的多模態(tài) LLM 模型,因此不得不談到不久前發(fā)布的論文《LLaMA-Adapter V2: Parameter-Efficient Visual Instruction Model》。先來(lái)回顧一下什么是 LLaMA-Adapter?它是一種參數(shù)高效的 LLM 微調(diào)技術(shù),修改了前面幾個(gè) transformer 塊并引入一種門(mén)控機(jī)制來(lái)穩(wěn)定訓(xùn)練。
論文地址:https://arxiv.org/abs/2304.15010
使用 LLaMA-Adapter 方法,研究人員能夠在 52k 個(gè)指令對(duì)上僅用 1 小時(shí)(8 塊 A100 GPU)來(lái)微調(diào)一個(gè) 7B 參數(shù)的 LLaMA 模型。雖然僅對(duì)新添加的 1.2M 參數(shù)(adapter 層)進(jìn)行了微調(diào),但 7B LLaMA 模型仍處于凍結(jié)(frozen)狀態(tài)。
LLaMA-Adapter V2 的重點(diǎn)在多模態(tài),即構(gòu)建一個(gè)可以接收?qǐng)D像輸入的視覺(jué)指令模型。最初的 V1 雖然可以接收文本 token 和圖像 token,但在圖像方面沒(méi)有得到充分探索。
LLaMA-Adapter 從 V1 到 V2,研究人員通過(guò)以下三個(gè)主要技巧來(lái)改進(jìn) adapter 方法。
早期視覺(jué)知識(shí)融合:不再在每個(gè) adapted 層融合視覺(jué)和 adapted 提示,而是在第一個(gè) transformer 塊中將視覺(jué) token 與單詞 token 連接起來(lái);
使用更多參數(shù):解凍(unfreeze)所有歸一化層,并將偏置單元和縮放因子添加到 transformer 塊中每個(gè)線性層;
具有不相交參數(shù)的聯(lián)合訓(xùn)練:對(duì)于圖文字幕數(shù)據(jù),僅訓(xùn)練視覺(jué)投影層;針對(duì)指令遵循的數(shù)據(jù)僅訓(xùn)練 adaption 層(以及上述新添加的參數(shù))。
LLaMA V2(14M)比 LLaMA V1 ( 1.2 M ) 的參數(shù)多了很多,但它仍是輕量級(jí),僅占 65B LLaMA 總參數(shù)的 0.02%。特別令人印象深刻的是,通過(guò)僅對(duì) 65B LLaMA 模型的 14M 參數(shù)進(jìn)行微調(diào),得到的 LLaMA-Adapter V2 在性能上媲美 ChatGPT(當(dāng)使用 GPT-4 模型進(jìn)行評(píng)估)。LLaMA-Adapter V2 還優(yōu)于使用全微調(diào)方法的 13B Vicuna 模型。
遺憾的是,LLaMA-Adapter V2 論文省略了 V1 論文中包含的計(jì)算性能基準(zhǔn),但我們可以假設(shè) V2 仍然比全微調(diào)方法快得多。
其他開(kāi)源 LLM大模型的發(fā)展速度奇快,我們無(wú)法一一列舉,本月推出的一些著名的開(kāi)源 LLM 和聊天機(jī)器人包括 Open-Assistant、Baize、StableVicuna、ColossalChat、Mosaic 的 MPT 等。此外,下面是兩個(gè)特別有趣的多模態(tài) LLM。
OpenFlamingo
OpenFlamingo 是 Google DeepMind 去年發(fā)布的 Flamingo 模型的開(kāi)源復(fù)制版。OpenFlamingo 旨在為 LLM 提供多模式圖像推理功能,讓人們能夠交錯(cuò)輸入文本和圖像。
MiniGPT-4
MiniGPT-4 是另一種具有視覺(jué)語(yǔ)言功能的開(kāi)源模型。它基于 BLIP-27 的凍結(jié)視覺(jué)編碼器和凍結(jié)的 Vicuna LLM。
NeMo Guardrails隨著這些大語(yǔ)言模型的出現(xiàn),許多公司都在思考如何以及是否應(yīng)該部署它們,安全方面的擔(dān)憂尤為突出。目前還沒(méi)有好的解決方案,但至少有一個(gè)更有前途的方法:英偉達(dá)開(kāi)源了一個(gè)工具包來(lái)解決 LLM 的幻覺(jué)問(wèn)題。
簡(jiǎn)而言之,它的工作原理是此方法使用數(shù)據(jù)庫(kù)鏈接到硬編碼的 prompt,這些 prompt 必須手動(dòng)管理。然后,如果用戶輸入 prompt,該內(nèi)容將首先與該數(shù)據(jù)庫(kù)中最相似的條目相匹配。然后數(shù)據(jù)庫(kù)返回一個(gè)硬編碼的 prompt,然后傳遞給 LLM。因此,如果有人仔細(xì)測(cè)試硬編碼 prompt,就可以確保交互不會(huì)偏離允許的主題等。
這是一種有趣但不是開(kāi)創(chuàng)性的方法,因?yàn)樗鼪](méi)有為 LLM 提供更好的或新的能力,它只是限制了用戶可以與 LLM 交互的程度。盡管如此,在研究人員找到減輕 LLM 中的幻覺(jué)問(wèn)題和負(fù)面行為的替代方法之前,這可能是一種可行的方法。guardrails 方法還可以與其他對(duì)齊技術(shù)相結(jié)合,例如作者在上一期 Ahead of AI 中介紹的流行的人類反饋強(qiáng)化學(xué)習(xí)訓(xùn)練范例。
一致性模型
談?wù)?LLM 以外的有趣模型是一個(gè)不錯(cuò)的嘗試,OpenAI 終于開(kāi)源了他們一致性模型的代碼:https://github.com/openai/consistency_models。
一致性模型被認(rèn)為是擴(kuò)散模型的可行、有效的替代方案。你可以在一致性模型的論文中獲得更多信息。
原文地址:https://magazine.sebastianraschka.com/p/ahead-of-ai-8-the-latest-open-source
THE END
投稿或?qū)で髨?bào)道:content@jiqizhixin.com
責(zé)任編輯:hnmd003
相關(guān)閱讀
-
大模型迎來(lái)「開(kāi)源季」,盤(pán)點(diǎn)過(guò)去一個(gè)月那些開(kāi)源的 LLM 和數(shù)據(jù)集
選自AheadofAI機(jī)器之心編譯編譯:杜偉、澤南開(kāi)源的力量正在源源不斷地影響著整個(gè)AI社區(qū),無(wú)論是LLM還是數(shù)據(jù)
2023-05-16 -
微軟和 ChatGPT 之父下注核聚變:2028 年用上核聚變商業(yè)發(fā)電
鈦媒體App5月16日消息,微軟日前表示已與核聚變初創(chuàng)公司HelionEnergy簽訂電力采購(gòu)協(xié)議,將在2028年采購(gòu)由該
2023-05-16 -
樂(lè)歌股份:將盡快進(jìn)軍學(xué)校學(xué)生桌椅,正研究智慧屏接入 ChatGPT 觀點(diǎn)
多知網(wǎng)5月16日消息,智能升降家居品牌樂(lè)歌人體工學(xué)科技股份有限公司(以下簡(jiǎn)稱樂(lè)歌股份)近日舉行了投資者活
2023-05-16 -
你信嗎?谷歌 AI 公司創(chuàng)始人稱傳統(tǒng)搜索引擎十年內(nèi)將消亡
【CNMO新聞】近日,據(jù)CNMO了解,谷歌旗下人工智能子公司DeepMind聯(lián)合創(chuàng)始人穆斯塔法·蘇萊曼(MustafaSuley
2023-05-16 -
蘋(píng)果 iPhone 15 系列初期備貨量“不容樂(lè)觀”,供應(yīng)鏈普遍信心不足
蘋(píng)果將會(huì)在今年秋天帶來(lái)新一代iPhone15系列手機(jī),目前相關(guān)準(zhǔn)備工作正在進(jìn)行當(dāng)中。今年智能手機(jī)市場(chǎng)形勢(shì)嚴(yán)峻
2023-05-16 -
拆解報(bào)告:飛利浦 DLM3542N 無(wú)線麥克風(fēng)
短視頻平臺(tái)的興起,人們記錄和分享生活的方式開(kāi)始以視頻為主,隨之體積輕巧便攜,用于提升視頻音頻質(zhì)量的無(wú)
2023-05-16
相關(guān)閱讀
-
大模型迎來(lái)「開(kāi)源季」,盤(pán)點(diǎn)過(guò)去一個(gè)月那些開(kāi)源的 LLM 和數(shù)據(jù)集
選自AheadofAI機(jī)器之心編譯編譯:杜偉、澤南開(kāi)源的力量正在源源不斷地影響著整個(gè)AI社區(qū),無(wú)論是LLM還是數(shù)據(jù)
-
微軟和 ChatGPT 之父下注核聚變:2028 年用上核聚變商業(yè)發(fā)電
鈦媒體App5月16日消息,微軟日前表示已與核聚變初創(chuàng)公司HelionEnergy簽訂電力采購(gòu)協(xié)議,將在2028年采購(gòu)由該
-
樂(lè)歌股份:將盡快進(jìn)軍學(xué)校學(xué)生桌椅,正研究智慧屏接入 ChatGPT 觀點(diǎn)
多知網(wǎng)5月16日消息,智能升降家居品牌樂(lè)歌人體工學(xué)科技股份有限公司(以下簡(jiǎn)稱樂(lè)歌股份)近日舉行了投資者活
-
全國(guó)人大常委會(huì)的職權(quán)主要有哪幾個(gè)方面?國(guó)家立法權(quán)具體包括哪些內(nèi)容?
全國(guó)人大常委會(huì)的職權(quán),主要有以下幾個(gè)方面:(一)、國(guó)家立法權(quán)。憲法規(guī)定;全國(guó)人民代表大會(huì)和全國(guó)人民代...
-
世界視訊!WPS AI 再發(fā)布新 AI 能力,覆蓋文字、表格、PPT、PDF 四大辦公組件
作者|鄧詠儀編輯|蘇建勛36氪獲悉,5月16日,金山辦公旗下的WPSAI正式對(duì)外展示了文字、表格、PPT、PDF四大辦
-
ofo 創(chuàng)始人戴威在美國(guó)創(chuàng)業(yè) 開(kāi)設(shè) About Time Coffee 咖啡連鎖店
ofo小黃車(chē)創(chuàng)始人戴威再次開(kāi)始創(chuàng)業(yè),這次選在美國(guó)。他開(kāi)了一家名為AboutTimeCoffee的咖啡店,已經(jīng)在紐約市中
-
ofo小黃車(chē)創(chuàng)始人赴美創(chuàng)業(yè)!ofo小黃車(chē)押金還能退回來(lái)嗎?
ofo小黃車(chē)創(chuàng)始人赴美創(chuàng)業(yè)!ofo小黃車(chē)創(chuàng)始人戴威赴美創(chuàng)業(yè):注冊(cè)用戶免費(fèi)喝咖啡,估值2億美元。5月16日,據(jù)...
-
對(duì)公銀行開(kāi)戶要多久?對(duì)公銀行開(kāi)戶需要帶什么資料?
對(duì)公銀行開(kāi)戶要多久?公司銀行開(kāi)戶需要7天到15天左右。注冊(cè)公司時(shí),必須要開(kāi)立銀行基本戶,公司的銀行賬...
-
余額寶銀華貨幣基金a保本嗎?余額寶三種基金哪個(gè)好?
余額寶銀華貨幣基金a保本嗎?銀華多利寶貨幣a屬于基金類產(chǎn)品。除了保本基金之外,所有基金都是不保本,也...
-
微信備用金怎么開(kāi)通?微信備用金能提現(xiàn)嗎?
微信備用金怎么開(kāi)通?1、第一步打開(kāi)微信,進(jìn)去我的界面之后,點(diǎn)擊支付2、第二步進(jìn)去微信支付之后,點(diǎn)擊微...
-
全球動(dòng)態(tài):為國(guó)家低碳城市賦能: 英威騰光伏助力常州打造多個(gè)工商業(yè)光伏電站
常州,你好!這座位于蘇南擁有著3200多年歷史的文化古城,時(shí)時(shí)在煥發(fā)新的生機(jī)。逆變每一縷陽(yáng)光英威騰光伏行走
-
天天快消息!北京擬實(shí)施算力伙伴計(jì)劃
北京商報(bào)訊(記者楊月涵)近日,北京出臺(tái)《北京市促進(jìn)通用人工智能創(chuàng)新發(fā)展的若干措施(2023-2025年)(征
-
針對(duì)彈性算力需求 北京擬建設(shè)統(tǒng)一的多云算力調(diào)度平臺(tái)
利用政府統(tǒng)一入口,降低公有云采購(gòu)成本,普惠中小企業(yè),同時(shí)減少企業(yè)分別面對(duì)不同云廠商的溝通成本。針對(duì)彈
-
焦點(diǎn)消息!北京擬整合現(xiàn)有開(kāi)源中文預(yù)訓(xùn)練數(shù)據(jù)集和高質(zhì)量互聯(lián)網(wǎng)中文數(shù)據(jù)
同時(shí)持續(xù)擴(kuò)展高質(zhì)量多模態(tài)數(shù)據(jù)來(lái)源,建設(shè)合規(guī)安全的中文、圖文對(duì)、音頻、視頻等大模型預(yù)訓(xùn)練語(yǔ)料庫(kù),通過(guò)北
-
世界關(guān)注:我國(guó)首臺(tái)國(guó)產(chǎn)化150兆瓦級(jí)大型沖擊式轉(zhuǎn)輪成功下線
中國(guó)經(jīng)濟(jì)網(wǎng)北京5月16日訊記者今日從東方電氣集團(tuán)東方電機(jī)有限公司獲悉,東方電氣自主研制的國(guó)內(nèi)首臺(tái)單機(jī)容
-
IDC:一季度中國(guó)平板電腦市場(chǎng)同比下降1.1%
證券時(shí)報(bào)e公司訊,國(guó)際數(shù)據(jù)公司(IDC)最新平板電腦季度跟蹤報(bào)告顯示,2023年第一季度,中國(guó)平板電腦市場(chǎng)出
-
中國(guó)人壽c賬戶怎么樣?可以一次性把錢(qián)支出來(lái)嗎? 焦點(diǎn)快報(bào)
中國(guó)人壽c賬戶旨在滿足客戶長(zhǎng)期儲(chǔ)蓄和風(fēng)險(xiǎn)保障的需要,與傳統(tǒng)的儲(chǔ)蓄方式不同,c賬戶的收益主要來(lái)自于固定利
-
中國(guó)人壽保險(xiǎn)靠譜不?有哪些險(xiǎn)種?
靠譜。 作為中國(guó)最大的保險(xiǎn)公司之一,中國(guó)人壽保險(xiǎn)具有廣泛的服務(wù)網(wǎng)絡(luò)和全面的保險(xiǎn)產(chǎn)品線。截至2021年底,
-
全球簡(jiǎn)訊:華夏保險(xiǎn)存錢(qián)可靠嗎?存錢(qián)一年可以取嗎?
可靠。 華夏保險(xiǎn)作為中國(guó)大陸上市的一家股份制保險(xiǎn)公司,具有較高的信譽(yù)度和業(yè)務(wù)水平。其推出的存錢(qián)型保險(xiǎn)
-
要聞速遞:北京印刷學(xué)院突發(fā)集體食物中毒,學(xué)生多次在食物中吃到蟑螂腿、鐵絲、頭發(fā)等異物
據(jù)國(guó)是直通車(chē)消息,15日下午,在北京印刷學(xué)院班級(jí)群中,多位學(xué)生反應(yīng)在學(xué)校食堂用餐后出現(xiàn)上吐下瀉的情
-
北京市今年將招聘鄉(xiāng)村振興協(xié)理員近500名
北京市將啟動(dòng)2023年鄉(xiāng)村振興協(xié)理員招聘工作,面向北京生源應(yīng)屆畢業(yè)生,計(jì)劃招聘494人。報(bào)名時(shí)間從2023年5月
-
美財(cái)長(zhǎng)耶倫:美國(guó)政府最早6月1日出現(xiàn)債務(wù)違約|全球熱聞
從過(guò)去經(jīng)驗(yàn)來(lái)看,如果等到最后時(shí)刻再提高政府債務(wù)上限將對(duì)企業(yè)和消費(fèi)者信心帶來(lái)“嚴(yán)重危害”,對(duì)美國(guó)政...
-
9個(gè)項(xiàng)目集中簽約落戶重慶影視城(江津白沙)-世界今亮點(diǎn)
9個(gè)項(xiàng)目涉及到了外景拍攝、數(shù)字?jǐn)z影棚、影視道具庫(kù)全產(chǎn)業(yè)鏈等諸多領(lǐng)域。這批影視產(chǎn)業(yè)項(xiàng)目將為白沙加快建設(shè)
-
無(wú)錫搭建養(yǎng)老"幸福圈" 今年將打造35個(gè)鄉(xiāng)村睦鄰點(diǎn) 世界熱推薦
以“睦鄰點(diǎn)”為中心,打造鄉(xiāng)村養(yǎng)老“幸福圈”。據(jù)悉,無(wú)錫市今年將打造35個(gè)同類鄉(xiāng)村“睦鄰點(diǎn)”。
-
你信嗎?谷歌 AI 公司創(chuàng)始人稱傳統(tǒng)搜索引擎十年內(nèi)將消亡
【CNMO新聞】近日,據(jù)CNMO了解,谷歌旗下人工智能子公司DeepMind聯(lián)合創(chuàng)始人穆斯塔法·蘇萊曼(MustafaSuley
-
蘋(píng)果 iPhone 15 系列初期備貨量“不容樂(lè)觀”,供應(yīng)鏈普遍信心不足
蘋(píng)果將會(huì)在今年秋天帶來(lái)新一代iPhone15系列手機(jī),目前相關(guān)準(zhǔn)備工作正在進(jìn)行當(dāng)中。今年智能手機(jī)市場(chǎng)形勢(shì)嚴(yán)峻
-
拆解報(bào)告:飛利浦 DLM3542N 無(wú)線麥克風(fēng)
短視頻平臺(tái)的興起,人們記錄和分享生活的方式開(kāi)始以視頻為主,隨之體積輕巧便攜,用于提升視頻音頻質(zhì)量的無(wú)
-
SpaceX 公理太空 Ax-2 私人航天任務(wù)將于 5 月 22 日發(fā)射,送四人到國(guó)際空間站停留八天 全球聚焦
品玩5月16日訊,據(jù)IT之家報(bào)道,NASA、SpaceX和AxiomSpace(公理太空)今天(美國(guó)時(shí)間5月15日)對(duì)Ax-2任務(wù)進(jìn)
-
主板廠商新版 BIOS 或沒(méi)有解決 AM5 主板問(wèn)題,SoC 電壓仍會(huì)超過(guò) 1.3V
由于芯片電壓提高到不安全的水平,導(dǎo)致Ryzen7000X3D系列處理器可能會(huì)出現(xiàn)突然燒壞的情況。各大主板廠商在近
-
叫“鶴”的城市房?jī)r(jià)都低?北京一市民連買(mǎi) 12 套房,最低 1000 元一套,網(wǎng)友驚呼鶴壁在哪?官方回應(yīng)這里無(wú)限購(gòu)!_世界快消息
又是個(gè)類似鶴崗的故事,不過(guò)主角換成了鶴壁。這兩天,有人花10萬(wàn)在鶴壁買(mǎi)了8套房占據(jù)各大熱搜,一時(shí)激起無(wú)
精彩推薦
- 拉薩全面打造公園城市 今年計(jì)劃新建4個(gè)...
- 當(dāng)前通訊!西藏首部關(guān)心關(guān)愛(ài)農(nóng)村留守兒...
- 環(huán)球今日訊!西藏山南市去年禽蛋產(chǎn)量占...
- 新動(dòng)態(tài):西藏昌都市持續(xù)平穩(wěn)推進(jìn)畜牧生...
- 讓“藏字號(hào)”越走越遠(yuǎn)——西藏推動(dòng)特色...
- 大興推出體教融合九條舉措 構(gòu)建覆蓋所...
- 每日熱訊!張家灣群眾文化周共建共享文明...
- 近兩天北京將迎35攝氏度高溫_環(huán)球滾動(dòng)
- 《喜馬拉雅——山水人文的影像探尋》新...
- 西藏阿里:“田間警務(wù)”撒播春耕“安全...
閱讀排行
- 大模型迎來(lái)「開(kāi)源季」,盤(pán)點(diǎn)過(guò)去...
- 微軟和 ChatGPT 之父下注核聚...
- 樂(lè)歌股份:將盡快進(jìn)軍學(xué)校學(xué)生桌...
- 天天快消息!北京擬實(shí)施算力伙伴...
- 針對(duì)彈性算力需求 北京擬建設(shè)統(tǒng)...
- 焦點(diǎn)消息!北京擬整合現(xiàn)有開(kāi)源中...
- 世界關(guān)注:我國(guó)首臺(tái)國(guó)產(chǎn)化150兆...
- IDC:一季度中國(guó)平板電腦市場(chǎng)同...
- 北京市今年將招聘鄉(xiāng)村振興協(xié)理員...
- 美財(cái)長(zhǎng)耶倫:美國(guó)政府最早6月1日...
精彩推送
- 平安電工:自我提示虧損,靠收購(gòu)...
- 世界關(guān)注:熱搜!馬斯克收到法院...
- 全球熱消息:重大發(fā)現(xiàn)!抗阿爾茨...
- 網(wǎng)約車(chē)要飽和了,比亞迪與廣汽埃...
- 汽車(chē)服務(wù)工程專業(yè)介紹及就業(yè)方向...
- 每日焦點(diǎn)!中國(guó)太平人壽保險(xiǎn)怎么...
- 焦點(diǎn)短訊!泰康保險(xiǎn)可靠嗎?怎么...
- 工地工傷保險(xiǎn)賠償標(biāo)準(zhǔn)是多少?多...
- 保險(xiǎn)合同終止的原因有哪些?怎么...
- 養(yǎng)老保險(xiǎn)跨省轉(zhuǎn)移最新政策是什么...
- 當(dāng)前要聞:復(fù)星聯(lián)合健康增資屢敗...
- 2023新財(cái)富500富人:4562億,鐘...
- 馬斯克:荒謬 愛(ài)潑斯坦從未向我...
- 用戶價(jià)值驅(qū)動(dòng)的汽車(chē)電子電氣架構(gòu)...
- 通過(guò)軟件平臺(tái)賦能客戶可擴(kuò)展ADAS...
- AITO問(wèn)界與能鏈智電達(dá)成戰(zhàn)略合作...
- 全球熱資訊!細(xì)節(jié)小幅調(diào)整,阿斯...
- 福祿雙喜是什么保險(xiǎn)?福祿雙喜兩...
- 微業(yè)貸貸款需要什么條件?微業(yè)貸...
- 華夏貨幣基金怎么樣?華夏貨幣基...
- 焦點(diǎn)播報(bào):輝瑞宣布全資子公司發(fā)...
- 讓“帶娃”不再難 未來(lái)我國(guó)每千...
- 多行一起下架“智能通知存款”產(chǎn)品
- 今日熱議:倍諳基宣布完成逾3億...
- 當(dāng)前速遞!華麗家族股價(jià)封死漲停...
- 全球資訊:華為 MateBook E ...
- 小冰宣布啟動(dòng)“ GPT 克隆人計(jì)...
- WPS AI 二次亮相 展示類微軟 Copilot 能力
- 當(dāng)前熱文:生態(tài)融合 華為 Mate...
- 第二代驍龍 8 助力實(shí)現(xiàn) 5G ...