首頁 > 新聞 > 智能 > 正文

Ai 生圖原理,那些一眼心動的美女是如何騙你的?|全球快看點

2023-05-19 06:20:03來源:ZAKER科技  

作為一名自詡 " 賽博寫手 " 的無名小編,在完成每天的工作之余,就是在各類 Ai 繪畫社群與某鳥上沖浪,最近一段時間 ChatGPT 的 "Meme 時刻 "(就是常說的高光時刻)明顯已經過去了,與之伴隨的 Ai 整體熱度也開始下滑,沒有 3 月初期那種一刷信息流就全是 Ai 內容的 " 擁擠感 "。

百度的 Ai 搜索指數谷歌的 Ai 關鍵詞全球搜索指數(這越南有點東西啊)

其實這也是好事,任何獨特新鮮技術的 " 誕生時刻 " 都是惹人關注的,但想要真正有所建樹,還是需要時間的沉淀,哪怕是 Ai 技術的迭代是普通科技產品的指數級倍數。比如最近,谷歌的 2023 IO 開發者大會上,劍指微軟系(ChatGPT/Bing/copliot)的 Palm2 模型發布,不僅擁有與 GPT4 相抗衡的語言能力,同時還打了一套 Ai 組合拳來維系谷歌科技龍頭的地位。

圖片源自互聯網

PaLM 2 模型有四個版本,按照大小從小到大分別是 Gecko、Otter、Bison 和 Unicorn。其中,輕量級的 Gecko 模型可以快速的在移動設備上運行,無需網絡連接。PaLM 2 在超過 100 種語言的語料庫上進行訓練,因此它在處理多語言任務上表現優異,能理解、生成和翻譯更精細、多樣化的文本。在一些基準評估中,PaLM 2 部分成績甚至超過了 GPT-4。盡管 PaLM 2 的參數數量更少,但其性能卻優于上一代 PaLM 模型。


(資料圖)

谷歌 bard 對話模型進步比較明顯,應該已經使用了 PaLM 2 模型

可見在短短的幾個月中,由算法、算力組織起來的 Ai 智慧樹已經從一棵小樹苗長成一棵碩果累累的巨樹,至于這棵樹會不會成為未來人類科技的 " 智慧之母 ",還是要等待與辯證地看待。

Midjourney 丨 Ai 繪畫

回歸到標題上,最近在 C 站發現了一個運行在 stable diffusion 上的新模型,名字叫做BRA ( Beautiful Realistic Asians ) V5直譯為美麗逼真的亞洲人,點擊查看其效果照片,非常驚艷,不少用戶展示出的作品都能達到照片級別,于是我就下載嘗試玩玩。

根據該模型的創作者介紹,該模型使用了大約 3 個月的訓練失敗以及訓練合并的結果。該作者是一位在新加坡的華人,會說一點點中文與日文。使用 Discord 和該模型制作者交流一下使用心得

下面是我利用該模型配合一些特定的 prompt 產出的效果圖片,部分圖片由于原生精度與分辨率不足,我利用 NVIDIA 推薦的 ON1 Ai 放大軟件進行了分辨率擴展,大家可以來看看這些 Ai 產出的圖片是否很具有迷惑性。

stable diffusion 丨 BRA V5

部分 prompt:8k, best quality, masterpiece, ultra highres_1.2 ) Photo of Pretty Japanese woman in the style of paul rubens and rebecca guay

部分 prompt:A beautiful woman is setting up a stall in the street market,beautiful face,cinematic, Faint side light,fine details, 8k, 部分 prompt:A lovely girl typing in front of the office computer, beautiful, lovely face, shot with Nikon Z7 full frame camera, 50mm lens,部分 prompt:girl at the bus stop on a rainy day, no umbrella, getting wet, cute face, short haircinematic,Faint side light,fine details部分 prompt:Cute girl at the beach, short hair, smile, sunset, with a bow, half body, film style,cinematic,Faint side light,fine details, 8k

部分 prompt:girl in supermarket, young girl, bangs, cute face, 50mm, F1.2, shot by Nikon camera, faded film style,Faint side light,

部分 prompt:Snowy girl with a scarf covering her nose, big eyes, eyelashes, black pupils, F1.2, shot by Nikon camera, faded film style部分 prompt:Urban girl, city neon as background, city night view from high above, neon flashing, with love, short hair, wearing glasses

是不是感到很驚艷,不僅僅是屏幕前的大家,就算訓練過千張 Ai 圖片的我,當看到光線、五官、表情與神態與照片幾乎無差別的 Ai 生圖時也是激動得不行,要知道就在 20 天前我們在做《NVIDIA顯卡Ai 算力大比拼,想畫 Ai 女友該怎么選?》時畫出的 Ai 女友也就僅僅長成這樣:

雖然也是非常美麗動人,但一眼就能覺得這是 Ai 出圖,在臉部與皮膚的生成上,Ai 非常傾向給出非常完美的 " 光線效果 ",讓皮膚的顏色、光感都處于絕佳狀態,眼睛與嘴唇的細節處理也偏向于極致,眼妝與口紅的色號也都是使用了 " 婚禮級別 ",讓圖片中的女生雖然光彩動人,但是太過于 " 完美 ",少了真實感。但在 BRA V5 中,在生成人像時,Ai 模型甚至會刻意避開臉部的細節光線,讓圖像中的臉部處于陰暗面或者側光面,同時在臉上加入了不少 " 瑕疵 ",比如明顯的血管紋、痘痘、雀斑等來增加人像的真實感。圖片中的女生甚至有抬頭紋,膚色也相對更偏向真實,另外人臉的骨骼結構也更偏向真人在該張中,女生的眼袋與雀斑也是比較明顯,同時不會出現 Ai 經典的假笑同樣的,臉部會出現一些血管紋、印記等瑕疵來烘托真實感臉部會有明顯的高光與陰影區域,符合在真實光線與攝影環境中的出圖

這樣的照片也成功騙到了我的朋友們,雖然他們已經給我打上了 " 我發的女生 99% 都是 Ai 畫的 " 標簽,但依然這幾組成功唬到了不少人。

看來,在可預見的未來,喜歡好看妹妹的男生們不僅要防過度美顏大法還要警惕 Ai 美女的以假亂真,這也從側面反映了,當前的 Ai 生圖技術的強大,那么目前流行的 stable diffusion 和 midjourney 的 Ai 繪圖軟件到底是怎么理解文字,然后生成這樣的圖片的呢?接下來就來為大家揭開 Ai 畫圖的奧秘,但其中會涉及大量的技術類名詞,為了更方便大家的理解,我會用大量的比喻來代替。

教學時刻

使用過 stable diffusion 和 midjourney 的小伙伴都應該清楚,Ai 繪圖都一個從 " 模糊到清晰 " 的過程,不論是基于本地的 stable diffusion 還是基于線上高性能服務器的 midjourney。

這模糊到清晰的過程就是當前 Ai 繪畫的主流手段 -Diffusion model(擴散模型),簡單點說,Ai 繪畫會先把圖片進行 " 降維 " 然后訓練,這個降維的過程很像是大家平時使用的榨汁機,將一個蘋果放在榨汁機里去打碎了,變成蘋果泥,然后吃一口,記住蘋果泥的味道,從而知道這個味道的果泥就是蘋果。而 Ai 則是將圖片進行 " 嚼碎 "(加噪點)來變成一組組的馬賽克圖片,這樣的用意是在有限的算力下盡可能地多學習幾組圖片,多生成幾組圖片。因為馬賽克的數據值是精確圖片的 1/100 甚至 1/1000.那現在知道了 Ai 是如何快速學習圖片的,那如何生成呢?還是拿蘋果泥舉例,在我們吃過了許多的果泥,比如蘋果的、西瓜的、哈密瓜的、香蕉的,我們即使蒙上眼睛,只需要通過一點點的果泥就能分辨這個水果,然后回答出來。Ai 也是重復類似的過程,通過大量的圖片加噪點得到的馬賽克圖片,Ai 也總結出了這個馬賽克是貓、那個馬賽克是狗之類的規則(具體邏輯比較深,不做贅述)。那就可以通過馬賽克來反向還原圖像,這一步就叫做 Reverse diffusion 反向擴散。那么,Ai 是如何理解我們的語言,并根據我們的想法畫出 " 我們想要的小姐姐 " 的呢?過程中需要將文本進行 " 分詞器 Tokenizer" 然后進行 "clip" 再進行 " 嵌入 Embedding",就可以讓機器學習、認到了!謝謝大家!好了,不鬧了。這些拗口且復雜的概念應該留給更加專業的小伙伴去學習,我們只需要知道,Ai(不管是繪圖的,還是 GPT 類型的)都是通過將文字 " 降維 " 的方式來理解并學習,有點像是上述提到的 " 蘋果泥 " 概念,Ai 會將用戶輸入的文本拆分為更小的單元(詞或字符),然后將分詞后的文本轉換成數學向量,這樣模型才能更好地理解和處理。Ai 理解就是將文本碎片化、數字化丨 Midjourney 丨 Ai 繪畫

然后就要用到轉換器模型(Transformer Model):這是一個能夠處理序列數據(如文本)的深度學習模型。它通過捕捉文本中的依賴關系和上下文信息,為生成圖像提供豐富的信息。類似于專業的語言學家來幫計算機處理文本的關系,比如用戶輸出 " 可愛的貓 ",不至于出現 " 貓的愛可 " 這樣的計算機識別錯誤。

轉換器模型就是將成堆的拼圖碎片轉換成一張張完整的拼圖丨 Midjourney 丨 Ai 繪畫

理解完文本,就到了畫畫的過程了,就要用到噪聲畫畫這個概念,如同吃水果泥來辨別水果,噪聲預測器(Noise Predictor):這一步利用轉換器模型提供的信息,逐漸生成圖像。通過迭代過程,噪聲預測器會從粗糙的圖像開始,逐步細化細節。這就是為啥我們看到的 Ai 畫圖都是從模糊到清晰的過程。也像是一個畫家根據一段描述開始創作,先繪制大致輪廓,然后不斷添加細節,直至完成一幅畫作。

也可以理解為慢慢地去雕刻一塊巨石丨 Midjourney 丨 Ai 繪畫

接下來,我利用 stable diffusion 給大家展示一個小姐姐的生成過程,

給 Ai 輸入小姐姐的關鍵詞(prompt )

輸入一定的特定咒語,比如什么高級渲染,8K 渲染,HDR 渲染之類的,還有一定的反面詞,比如不要奇怪的手部,不要畸形之類的。開始繪圖,得到結果如果在這過程中,我們中斷一下模型的進度就可以得到類似于帶有噪點的圖片從繪圖過程中,我們可以看到繪圖一開始的過程中,Ai 就是先生成一個比較模糊的人物形象,一個大致的輪廓,然后逐漸地去填充,在繪圖進度 46% 的時候就可以初見人物的雛形,后續都是把人物的細節進行糾正修改。這就是可以以假亂真的小姐姐的誕生過程了,感興趣的小伙伴可以嘗試用 SD 來畫自己喜歡的小姐姐形象,但是請注意的是,目前國內的部分內容平臺已經開始針對 Ai 生圖進行了掃描識別并下架部分涉嫌違規的內容。目前 Ai 領域的規則還是處于空白階段,所以針對版權保護等行為還沒有徹底上線。希望各位在利用 Ai 工具的同時也要敬畏技術帶來的沖擊,我很喜歡老黃在 NVIDIA 2023 大會上提到的 " 我們處于 Ai 的 iPhone 時刻 ",正如 iPhone 徹底顛覆了手機市場一般,我們也需要辯證地看待 Ai 將會帶來的改變。

技術沒有黑白之分,是一把達摩克利斯之劍。

關鍵詞:

責任編輯:hnmd003

相關閱讀

相關閱讀

推薦閱讀