[AI繪圖] Stable Diffusion UI 及 WebUI 使用經驗比較

最近AI相關議題熱門,因此我花了一些時間追流行,試用了一款可以在自己的電腦上運行的AI繪圖工具:Stable Diffusion。然而,原生的Stable Diffusion需要使用指令方式進行互動,對於使用者而言不太友善。但還好許多高手開發了更方便使用的圖形介面。

目前大多數使用者會選擇使用stable-diffusion-webui(AUTOMATIC1111)和stable-diffusion-ui(Easy Diffusion)這兩款工具。我也使用了這兩款工具一段時間,以下會就我的使用經驗做一個比較,當然也可能有些細節我不知道或是有錯誤的地方,也煩請不吝指教。

stable-diffusion-ui(Easy Diffusion):

如果你只是想要簡單快速地生成圖像,且你有足夠好的顯示卡(至少4GB的VRAM),那麼我會推薦使用 stable-diffusion-ui(Easy Diffusion)。它的名字已經清楚地說明了它的優點:安裝和使用都非常簡單。

對於 Windows 使用者來說,只需要下載、點兩下安裝、執行就可使用了。

stable-diffusion-ui(Easy Diffusion)使用介面

使用介面也非常簡單,輸入提示文字,然後調整一些參數,即可生成圖像。另外,它還很貼心地提供了參數的說明,可以直接點選參數後面藍色的問號圖示查看說明。

對於生成出來的圖像,只需要將滑鼠移動到圖像上,就可以看到很多基於這張圖的進階操作,例如拉高解析度、生成類似的圖像等等。stable-diffusion-ui(Easy Diffusion)同樣也支援第三方釋出的 Checkpoint 模組,但目前直接下載安裝的版本似乎並不支援使用 LoRA 模組。

至於圖像效率方面,stable-diffusion-ui(Easy Diffusion)的官方說法是相比於 stable-diffusion-webui(AUTOMATIC1111)還是稍微差了一點,。如果對於出圖效率有要求且不嫌麻煩,還是建議使用 stable-diffusion-webui(AUTOMATIC1111)。

我分別使用了手邊的 2G 1050、3G 1050 和 8G 3060Ti 顯示卡,跑了 stable-diffusion-ui(Easy Diffusion)。2G 的顯示卡基本跑不動,3G 的顯示卡只能生成一些 256×256 之類的極低規格圖像(官方文件說可以生成512×512但我實測不行,也可能是我測試的顯卡型號真的太舊了),稍微大一點就會出現 VRAM 不足的錯誤。8G 的顯示卡可以生成到 1600×900 的圖像,但想生成 1920×1080 的圖像時還是會出現 VRAM 不足的問題。

在 8G 的環境下實測,生成大部分圖像都能在 1 分鐘內跑完。使用上可以先出 960×540 的圖片,然後再使用 4x 放大的功能,就可以拉成 16:9 的 4K 解析度,效果都還算不錯。

stable-diffusion-webui(AUTOMATIC1111):

相對來說stable-diffusion-webui(AUTOMATIC1111)更適合那些追求更多參數調整和外掛模組,或是對於顯卡要求不高但仍想嘗試AI圖像生成的人。

stable-diffusion-webui(AUTOMATIC1111)在安裝上相對來說比較複雜一點,需要自行安裝git、python、pip等套件,並稍微了解git的使用方式。不過,由於stable-diffusion-webui(AUTOMATIC1111)更加主流,所以有許多逐步解說的教學文章和影片,只要跟著做一步步操作,通常還是可以順利安裝使用。

stable-diffusion-webui(AUTOMATIC1111)使用介面

在使用者介面方面,stable-diffusion-webui(AUTOMATIC1111)的介面相對複雜,包括文字生成圖片、圖片生成圖片以及其他功能(例如放大)都設計成各自的選項卡,因此使用起來相對較不直覺。不過,每個介面的可調整參數更多。

stable-diffusion-webui(AUTOMATIC1111)同樣支援第三方釋出的Checkpoint模型、LoRA等模組,可說是支援大部分的模組類型。

對於顯卡規格較低的使用者,可以透過編輯webui-user.bat,加上 –lowvram 參數來讓stable-diffusion-webui(AUTOMATIC1111)能夠順利運行。

一樣使用了手邊的 2G 1050、3G 1050 和 8G 3060Ti 顯示卡做測試,2GB的顯示卡仍能正常生成960×540的圖片;而3GB的顯示卡可以生成到1600×900的圖片。由於使用了lowvram模式,因此圖片生成速度會較慢,3GB環境下產生960×540的圖片可能需要約5分鐘左右的時間。

最後如同前文提到的,由於stable-diffusion-webui(AUTOMATIC1111)更加主流,因此有許多針對它開發的圖片甚至影片相關套件和腳本可以使用,相對來說也有更多的可能性。

總結:

以上就是近期使用 stable-diffusion-webui(AUTOMATIC1111) 和 stable-diffusion-ui(Easy Diffusion) 的經驗分享,簡單地總結我使用的感受:

  • 如果你是第一次使用,或是只是想要快速地體驗一下AI繪圖的樂趣,而不是太在意生成效率和細節控制的話,stable-diffusion-ui(Easy Diffusion)會是比較好的選擇。
  • 如果顯卡較差,或是有比較多時間調整參數、希望獲得更好的生成效果的人stable-diffusion-webui(AUTOMATIC1111)會更適合你。

最後分享幾張我自己出的圖: