首頁 > 新聞 > 智能 > 正文

專訪柏睿數(shù)據(jù)董事長劉睿民:Data+AI 智能算力底座將助力解決“千模時代”算力需求

2023-07-10 11:28:52來源:ZAKER科技  

7 月 7 日,柏睿數(shù)據(jù)董事長兼首席科學(xué)家劉睿民在世界人工智能大會中的區(qū)塊鏈 +WEB3 新發(fā)展論壇發(fā)表題為 " 分布式數(shù)據(jù)庫智能算力底座賦能金融 WEB3.0" 的演講,分享智能算力底座如何促進(jìn)金融賦能實(shí)體經(jīng)濟(jì)。


【資料圖】

柏睿數(shù)據(jù)為國內(nèi)目前僅看到的推出全內(nèi)存分布式計(jì)算引擎的智能數(shù)據(jù)算力公司,目前已處于上市輔導(dǎo)階段。劉睿民是國內(nèi)資深的數(shù)據(jù)庫研發(fā)領(lǐng)軍專家,自 2014 年開始成立團(tuán)隊(duì)致力于研發(fā)國內(nèi)首個大規(guī)模并行 MPP 內(nèi)存數(shù)據(jù)倉庫引擎。后成功其中,以 MLOPS 為方法論的數(shù)據(jù)智能開發(fā)平臺,包括 LLMOps 平臺(大模型開發(fā)運(yùn)維平臺)、Rapids VectorDB(向量數(shù)據(jù)庫)等產(chǎn)品,覆蓋從數(shù)據(jù)采集、存儲、計(jì)算分析到模型訓(xùn)練、部署、應(yīng)用的全生命周期解決方案。近期,柏睿數(shù)據(jù)全球創(chuàng)新賦能中心在上海浦東新區(qū)授牌,也與多家海內(nèi)外創(chuàng)新主體聯(lián)合組建國際 AI 創(chuàng)新聯(lián)合體。

劉睿民在接受藍(lán)鯨財(cái)經(jīng)專訪時舉例,算力基座就相當(dāng)于引擎,數(shù)據(jù)就像油,AI、web3 等訓(xùn)練、推理、使用數(shù)據(jù)庫的框架都需要靠底層算力。柏睿數(shù)據(jù)自主研發(fā)打造的 Data+AI 智能算力底座,融合大數(shù)據(jù)、人工智能、數(shù)據(jù)計(jì)算加速加密等技術(shù),能夠滿足產(chǎn)業(yè)智能下大規(guī)模的數(shù)據(jù)實(shí)時計(jì)算需求,并向云端演進(jìn),讓算力不再成為 Web3.0 發(fā)展的瓶頸。

藍(lán)鯨財(cái)經(jīng):作為已經(jīng)深耕分布式數(shù)據(jù)庫十年的企業(yè),是否會覺得大眾對 AI、Web3 的關(guān)注將帶領(lǐng)行業(yè)迎來全盛年代?

劉睿民:現(xiàn)在所說的千模萬模,基本上都是在應(yīng)用領(lǐng)域,因?yàn)槲覀兪亲龌A(chǔ)領(lǐng)域,所以說最后無論呈現(xiàn)模式是什么,都要用同樣的東西,就是算力。

現(xiàn)在市場需求量的急速擴(kuò)張,很多人的困擾是模型已經(jīng)搭建好了,但無法進(jìn)行訓(xùn)練。我們其實(shí)是從國產(chǎn)的角度來做數(shù)據(jù)庫,我們主要研發(fā)大內(nèi)存的全內(nèi)存分布式計(jì)算引擎。當(dāng)前算力的不足是一個關(guān)鍵問題,其中一項(xiàng)卡脖子的因素是英偉達(dá)的 A100H100 卡,由于禁運(yùn)很多單位無法獲得這個昂貴的卡。而我們的全內(nèi)存分布式計(jì)算引擎通過軟硬件協(xié)同打通,可以達(dá)到 196GB 的內(nèi)存容量,相比之下,幾年前我們能夠?qū)崿F(xiàn)單板達(dá)到 1TB 內(nèi)存的規(guī)模。從行業(yè)角度來看,我們是國內(nèi)目前僅看到的專注于全內(nèi)存分布式計(jì)算引擎的公司,國外也只有五六家。國內(nèi)的用戶往往在買 GPU 時會有各種限制,這也面臨一些問題。像英偉達(dá)等公司,首先推出的是一款爆款產(chǎn)品。這種產(chǎn)品可能價格較高,但隨后會推出其他評級較低但價格更為實(shí)惠的產(chǎn)品版本。這些版本在性能方面可能達(dá)到原產(chǎn)品的六七成,但價格僅為原產(chǎn)品的十分之一。

因此,我們提供相對廉價的算力解決方案,直接利用內(nèi)存進(jìn)行訓(xùn)練,創(chuàng)新解決算力問題。

藍(lán)鯨財(cái)經(jīng):柏睿數(shù)據(jù)推出的大模型開發(fā)運(yùn)維平臺 LLMOps 平臺和其他產(chǎn)品如何助力 Web3.0 場景的落地?

劉睿民:LLMOps 平臺賦能了應(yīng)用端的開發(fā)階段,使用者無需從頭開始開發(fā),而是可以借助平臺提供的基礎(chǔ)底層,通過簡單的拖拉拽操作來建立大模型。這意味著用戶只需要很少的代碼就能完成模型的建立。目前,LLMOps 平臺在海外的客戶中使用較多,因?yàn)楹M饪蛻粝鄬Τ墒煲恍6鴩鴥?nèi)客戶由于接觸國外平臺的機(jī)會較少,所以對 LLMOps 的了解還不夠。在人工智能領(lǐng)域,我們主要吸引了海外客戶的關(guān)注,比如新加坡的客戶。國內(nèi)的用戶也對我們的產(chǎn)品感興趣,但由于國外資源相對不易獲取,所以在某種程度上有些滯后。

這方面目前主要客戶是國外的人工智能公司,國外人工貴,他們需要將人工智能應(yīng)用落地到工業(yè)領(lǐng)域中,比如機(jī)器人優(yōu)化、港口調(diào)度等場景中的優(yōu)化問題。過去,他們通常通過編寫代碼來實(shí)現(xiàn)這些優(yōu)化場景,但現(xiàn)在情況不同了。他們可以在 LLMOps 平臺上進(jìn)行拖拉拽式建模和試算,然后部署到計(jì)算機(jī)集群上進(jìn)行計(jì)算。他們可以選擇連接到不同的平臺,如谷歌、AWS 或微軟的集群。對于這些客戶來說,LLMOps 的優(yōu)勢在于低門檻的使用和加速功能的提供。

藍(lán)鯨財(cái)經(jīng):是否意味著未來高自動化、低代碼化的公司會越來越多,這將成為必然發(fā)展趨勢?

劉睿民:這是必然的。隨著人工智能的發(fā)展,越來越多的任務(wù)和工作將被自動化取代,包括編寫簡單的代碼。這并不意味著復(fù)雜的編程工作將完全消失,但對于一般的程序員來說,未來可能會面臨挑戰(zhàn)。因此,自動化和低代碼的趨勢將成為主流,這是一種正常的發(fā)展過程。在未來的三到五年內(nèi),簡單的編程工作可能會變得相對無關(guān)緊要。

藍(lán)鯨財(cái)經(jīng):如何理解在 WEB3.0 特定應(yīng)用場景中,"FPGA 計(jì)算引擎 + 配套軟件 " 如何提供比 SmartNIC、GPU 和 AI 大模型加速芯片等通用芯片更強(qiáng)大的專業(yè)計(jì)算能力?

劉睿民:舉例來說,GPU 的功能原本是用于打游戲的,它的功能并非專為人工智能而設(shè)計(jì),有段時間甚至被用來挖礦。這只是因?yàn)榇蠹覜]有一個芯片來運(yùn)行更復(fù)雜的計(jì)算。無論后面的應(yīng)用場景是什么,通用的東西其實(shí)是雙精度運(yùn)算,就是浮點(diǎn)運(yùn)算。

我們現(xiàn)在把浮點(diǎn)運(yùn)算的算法都放到了 FPDA 卡上,配上大內(nèi)存,然后內(nèi)存板和內(nèi)存板之間的通訊,通過我們?nèi)珒?nèi)存的分布式計(jì)算引擎連接在一起,這樣的話用戶就能夠調(diào)動比如說 1TB 甚至幾個 TB 的內(nèi)存。

在某種程度上,以后有一種專門運(yùn)用于 AI 計(jì)算的芯片將成為必然。以前科學(xué)計(jì)算,尤其是超級計(jì)算中,開始使用了 GPU,并建立了一個完整的生態(tài)系統(tǒng)。后來,GPU 被應(yīng)用于人工智能的訓(xùn)練中,導(dǎo)致我們陷入了這樣一個循環(huán)。

所以,這是一個逐漸發(fā)展的過程,不是說有很多選擇可以做。事實(shí)上,在進(jìn)行雙精度計(jì)算時,以前并沒有其他選擇,也沒有其他人在這個領(lǐng)域有大量研究。現(xiàn)在雖然有了這樣的選擇,但限制還是很多。

藍(lán)鯨財(cái)經(jīng):柏睿數(shù)據(jù)對于數(shù)據(jù)隱私和安全方面有哪些保障措施和技術(shù)手段?

劉睿民:我們使用的是國密,技術(shù)路線類似于隱私計(jì)算,公司只有一個鎖芯,鑰匙是掌握在用戶手里的。" 鎖芯 " 的安全性、穩(wěn)定性越高," 鎖 " 就越安全,數(shù)據(jù)就越安全。RapidsDB 總體代碼自研率高達(dá) 99.32%,通過中國信通院、金融信創(chuàng)生態(tài)實(shí)驗(yàn)室、國家密碼管理局商用密碼產(chǎn)品等多項(xiàng)國家級測試認(rèn)證,并在運(yùn)營商、金融、電力、政務(wù)、醫(yī)療等多個行業(yè)成功落地應(yīng)用,安全性遙遙領(lǐng)先。

關(guān)鍵詞:

責(zé)任編輯:hnmd003

相關(guān)閱讀

相關(guān)閱讀

精彩推送

推薦閱讀