PttNews App » PttNews 看板 » 批踢踢AI_Art板

2024-03-01 12:15:07
[StaD] SDXL模型與Lightning模型的比較
0
2024-02-28 19:40:23
[討論] 真假ChatGPT
-1
右邊那個是假的嗎 還是進階版 要付費才能使用 Sent from JPTT on my iPhone ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.165.206.41 (臺灣) ※ 文章網址:
2024-02-26 22:06:58
[分享] Comfyui + google Gemini
0
2024-02-25 23:37:03
[閒聊] 藝術是需要學習的,AI ART也不例外
1
藝術是需要學習的,AI ART也不例外 在觀摩大師作品的過程,也許就能感受他當時創作的心境。 以Pollock大師為啟發,融合了象徵主義、立體主義、超現實主義及野獸派的畫風,所呈現 的一個抽象的意念。 我把這些作品稱為chaos form #stablediff usion #Forge #comfyui #abstractpa inting Sent from BePTT ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.246.65.163 (臺灣) ※ 文章網址:
2024-02-23 01:42:42
[討論] 天選4 4060跑的速度
2
4060 8GB 有下xformer跟no half 最近開始玩SDXL 生成圖1024*1024 速度竟然是緩慢的18s/it 一輪要算20步 VAE Refiner ARefine 總共就要10多分鐘 想問一下這速度適合理的嗎?還是我有什麼設定可以優化啊? Sent from BePTT ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.230.167.61 (臺灣) ※ 文章網址:
2024-02-22 10:45:30
[情報] NovelAI新功能 Vibe Transfer
7
英文 日文 這個看起來有點偏向sref居多 還不確定cref的效果如何,我還在摸索中 自己測試案例 原始圖: 新圖: 實際上目標是完全人化,但是怎樣都不是很好。 很多設定還在看。 這技術再提升一些,說不定cref就弄很好看了。 ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.161.95.48 (臺灣) ※ 文章網址:
2024-02-19 10:02:57
[StaD] stable cascade 在comfyui使用及girl p
0
stable cascade 在comfyui使用及girl portrait心得 stable cascade已經可以在comfyui安裝, 1先update_comfyui 2下載 stage _c(可用bf16省空間)到/ComfyUI/Models/Unet,下載stage_a到/ComfyUI/Models/VAE,下 載 .safetensors到ComfyUI/models/clip/ 3下載test workflow table_cascade_workflow_test.js
2024-02-17 16:50:00
[閒聊] tensor局部重繪問題
1
我是個新手剛在tensor學畫 想要把畫畸形的腳做局部重繪 但是明明我重繪區域只畫腳的位置 算出來的圖跟原圖完全不一樣 差了十萬八千里 噪聲強度我調高調低都沒有用 請問我的哪裡做錯了嗎? 局部重繪要怎麼做啊 ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 60.249.92.60 (臺灣) ※ 文章網址:
2024-02-16 04:26:55
[情報] SORA OpenAI文字生成影像模型
8
示範影片 Prompt: “Beautiful, snowy Tokyo city is bustling. The camera moves through the bustling city street, following several people enjoying the beautiful snowy weather and shopping at nearby stalls. Gorgeous sakura petals are flying through the wind
2024-02-14 10:03:28
[分享] 比SDXL更強的模型誕生!
9
Stable Cascade誕生! Stability AI 宣布推出 Stable Cascade, 號稱美學品質方面比 SDXL 好 243%, 在理解提示方面明顯更好, 速度也快兩倍。 可以用更短的提示和更短的推理時間產生更漂亮的圖片。 線上測試: ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.127.129.181 (臺灣) ※ 文章網址:
2024-02-13 16:52:25
[討論] 這樣的硬體規格跑AI運算很慢嗎?
5
去過NB Shopping版用AI搜尋過了 有找到一篇文章,可是對方的預算是八萬 我是想找CP值高的筆記型電腦 因為還有其他需求(去圖書館一邊看書一邊學習3D動畫軟體或寫程式 在家玩遊戲) 所以選擇筆記型電腦 各位覺得這台筆電跑ai運算會很慢嗎? GIGABYTE 技嘉 15吋144HZ獨顯電競筆電 G5 MF0 G2TW313SH i7 12650H RTX4050 6G 16G 512G W11 $29000 或是有其他更好的選擇也可以推薦 先謝謝 ^_^ 如果說了後悔 是不是一切就能倒退
2024-02-07 02:08:37
[情報] Webui-forge 新玩意挺快的
8
IIIya大神最新出品 介面跟webui 一模一樣 速度跟VRAM用量下降 建議另開folder 然後用mklink /d 就可以用原來模型 剛剛裝好跑了幾張 4060 8G 比原來快50% 而且內建的FreeU很猛 細節跟色彩都變好 ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 203.204.195.174 (臺灣) ※ 文章網址:
2024-02-03 22:26:40
[分享] 玩SD用Colab平均每小時4元
2
現在Google Colab都會擋免費用戶玩SD 一般情況下Google Colab玩Pro+方案,500個單元, 一個月也差不多要1700新台幣! 超貴, 使用免費VPN跳板到土耳其, 就變成865元新台幣!瞬間減少一半成本! 如果用T4 GPU加大量RAM, 平均一個月(算31天)每天可以玩7個小時~ 平均一個小時4元新台幣 好處是 1.因為不燒自己的顯卡 不浪費自己的資源,所以在生圖過程,你可以同時間進行其他電腦 的事情(例如玩遊戲...) 2.用自己的電腦跑,既加快消耗電腦壽命,也同時
2024-02-01 10:25:44
[MidJ] NijiJourneyV6 alpha版釋出
1
釋出訊息 跟V5比較 目前還算是測試版本,據他們說會在一個月內出。 這次我個人認為他們是主打文字生成。 雖然還是以英文為主,其他語言還不太行。 而且英文偶爾也還是會有小差錯。 不過就文字生成這部份算是有踏出一步了。 我個人簡單弄了範例,因為是範例所以Prompt簡單一些。 介面是APP版本。 可以看到英文的部份很好的在指定的目標物件上。 雖然還沒有太大的文字設計感覺,偏向固定字型。 但是以文字內容來說算是高精確度了。 能期待之後支援其他語言的文字。 就文字這部份,目前好像是NIJI跑比較前面?
2024-01-31 22:10:48
Re: [分享] Naiv3的這個inpaint重現真的那麼厲害嗎?
3
※ 引述《Shirokofeet (白子的足下奴隸)》之銘言: : 嗨,大家好,這是我第一次用ptt,有閱讀上不好的地方請見諒 : 前幾天在dc群組上看到這個 : : : 大致上就是先在繪圖軟體建一個1216x832的畫布(Nai landscape大小) : 然後建立一個832x832的躁點圖置於左側,右邊空白的地方放角色 : 丟進Nai,inpaint躁點區域,sampler下面的smea打開,就可以開始生成了。 : 有人嘗試的肥倫(非dc群的人) : : dc群內有人做好的肥倫inpai
2024-01-30 09:52:24
Re: [閒聊] 請問AI圖片生成抽卡怎麼抽比較輕鬆快樂?
4
我是用ipad pro M2 跑draw things 一張圖大約一分鐘 通常我抽卡大約抽4 8張就好 裡面如果沒有滿意的就該去改prompt和調整lora或換lora了 原因也很簡單 如果四張都找不到一張還算滿意的 四百張也找不到了 所以最多抽八張給八次機會 我現在大部分都抽四張 然後玩到現在我覺得直接text to img抽卡其實是很無聊的 因為AI想像力有限 怎麼生都是那樣 基本上我現在做法是先text to img 之後看到還可以的圖就轉為img to img 享受無窮境的變化 像是這
2024-01-24 12:28:30
[情報] Nvidia GTC年度盛會
0
2024-01-23 19:31:46
[閒聊] text to 3D Luma AI 挺好玩的
3
不知道怎麼分享3D模型先截張圖 這東西出來有一小段時間了沒拿出來玩 這幾天突然又一堆新聞 拿起來玩玩看 雖然畫人物都會糊糊的 但是畫家具還行 雖然沒像文生圖那麼好玩 但是已經可以直接產一些小東西拿去3D軟體擺拍了 趁現在還沒開始收錢好好玩玩 齁勝 ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.194.162.12 (臺灣) ※ 文章網址: ※ 編輯: gino0717 (123.194.162.12 臺灣), 01/23/2024 19:32:18
2024-01-21 22:04:53
[閒聊] 美麗的珠寶首飾-手環、頭飾、項鍊
0
2024-01-20 14:07:09
[閒聊] 想請問此板可討論換臉嗎?
1
如題啦 看板規似乎沒有規範 畢竟現在很多公開有這種功能的APP也都能直接下載 但搜尋版上似乎沒看到相關文章 請問這裡是可以討論的嗎? (主要是想問哪款APP符合使用需求) 謝謝 ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.76.48.179 (臺灣) ※ 文章網址:
2024-01-19 15:46:26
[閒聊] 請問有沒有ai模擬聲音轉換的軟體
0
不好意思,我剛剛開始接觸ai,什麼都不了解,如有得罪請見諒,我會刪文 我想請問,假設,我自己錄製一段聲音,然後我想把我的聲音 套用到.....例如阿湯哥的捍衛戰士第一集裡面 讓阿湯哥的聲音變成我的聲音 不過他還是在講他的英文啦,就是變成我在說英文的意思 請問有沒有軟體,或是使用介面比較容易上手的軟體呢 我找了一下,找到的是So VITS SVC 但我看人家的教學,好像滿複雜的 而且我還有個疑問,在電影裡面,都會有其他演員的聲音, 這樣在置換時不會錯亂嗎?? 因為我看到一般的ai變聲軟體,大概都
2024-01-18 10:41:50
[閒聊] 有推薦的租用雲端GPU的平台嗎?
1
最近發現有一些llm模型可以拿來翻譯日文小說、遊戲, 之前用過colab,但是colab綁google,怕用來翻譯色色內容會被停權 有推薦不會抓nfsw內容的雲端計算平台嗎? 還有想問這種Ilm 模型拿來翻譯這種到底會不會被偵測到 Sent from JPTT on my iPhone ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.81.138.33 (臺灣) ※ 文章網址:
2024-01-16 10:04:30
[StaD] SDXL 其實可以用 1.5 的 Lora?
0
2024-01-13 15:01:15
[分享] Runway fashion show--雲端comfyui
2
Runway fashion show 雲端comfyui 無意中發現openart.AI可以使用雲端workflow,覺得蠻不錯用的,也可以觀摩學習各位大神 的傑作,對學習comfyui相當有幫助,推薦使用。 使用其中一個fashion week( fashion show的workflow,各位可以當品牌藝術總監,設計你自己想像的服裝,我覺得蠻有 啟發性的,你也可以請GPT或Bing幫你提設計詞,藉由AI展現出成品出來。 藝術想像,是沒有極限的。 原作的作品請參考其網頁 後面是我自己想像修
2024-01-11 07:52:55
[討論] 一個物件生成不同背景
3
我有一個香水的產品圖 想要用stable diffusion讓他產生不同的情境背景 所以搭配controlnet的canny 把香水的外觀保留下來 但生成後圖片香水的型跟我原本提供的圖不太相似 想請教一下有沒有更完整保留我原圖的方式 感謝 ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 182.233.89.39 (臺灣) ※ 文章網址:
2024-01-11 01:51:43
[討論] LoRA不定期清空不特定PNG info?
3
我自己習慣用 LoRA 的封面圖來存我對那個 LoRA 的喜歡的參數。 然後生成前只要把圖拖去 prompt 裡面就可以(手動)還原參數設定。 可是有些圖就直接被清空 PNG info,這我完全沒想到。 不過因為我之前生的垃圾都還在,所以只要確定是哪天做出來的封面, 我都可以找回來。(至於因為更新導致的設定跑掉,保持設定的功能我還沒用過。) 可是這樣真的莫名麻煩…… 我也想過用 style 來存,可是這個也頗麻煩。應該用註解嗎? 題外話是我找到了好東西XD 這個是我一開始玩 SD 就期待看到的
2024-01-09 20:29:18
[討論] 國科會TAIDE模型使用請教
0
2024-01-08 22:11:02
[閒聊] Suno.ai
1
這幾乎就是我最想要的歌詞+音樂生成器了。 雖然歌詞還是看得出很明顯的 GPT 感,就是很 artificial, 但已經很不錯了。 直接歌詞、音樂、演唱一步到位, 我還沒有付錢去玩也還沒看 term of use,不太確定付費版是不是可以生成整首歌? suno.ai 目前可以直接去官網玩。 可以選擇文字生成音樂(類似圖片的 t2i),也可以選擇用歌詞+曲風去生成。 也可以去 MS Copilot 網頁版,登入後可以挑選外掛,裡面就有 suno。 這邊用聊天的方式指定比較好。 中文歌都好抒情,我
2024-01-08 12:33:05
[StaD] Controlnet新的修手模型depth_hand_ref
2
Controlnet新的修手模型depth_hand_refiner 將Controlnet更新到最新,用inpaint,將壞手mask起來,如圖preprocessor選depth_hand_ refiner,model選原有的control_v11f1p_sd15_depth,或選新的control_sd15_inpaint_de pth_hand_fp16.safetensors, 建議用control_sd15_inpaint_depth_hand_fp16,我覺得效 果比較好 我安裝
2024-01-07 10:19:39
[StaD] 線稿 上色 細化 教學
7
※ [本文轉錄自 C_Chat 看板 #1bcWdrPJ ] 作者: andyleeyuan (元哥) 看板: C_Chat 標題: Re: [閒聊] 怎麼判斷是AI作畫 時間: Sun Jan 7 10:18:25 2024 最近滿常做拿既有線稿讓AI上色,繪師朋友表示可以當作上色的參考, 線稿是由繪師親自完成,AI拿線稿當基底作為生成使用 這邊徵求到了"然天"大大的作品當作範例做為教學使用,已徵得本人同意 操作使用AUTOMATIC1111 stable diffusion
2024-01-02 10:09:12
[分享] 當梵谷遇上fantasy/monster world時,
0
A (fantasy\sci fi) story about (a hero\a monster) who (wants to save\ to destroy \ to escape) the world. 配合梵谷的風格 "IMAGE & IDEA"人的想像力是無窮盡的,AI只是工具 梵谷變身奇異博士? Sent from BePTT ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.246.99.195 (臺灣) ※ 文章網址:
2024-01-02 09:09:51
[StaD]請問controlnet 忽然無作用??
3
各位大大好: 之前使用都正常,但今天要使用的時候... controlnet忽然整個無反應, 比如以下的圖例,預覽是會正常產生骨架。 但是正式產生的時候完全沒有照著骨架去產生圖。 extensions 那邊的更新也都按了,也重啟過很多次了... 請問我是有哪邊弄錯了嗎? 先感謝大家。 ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 106.104.122.199 (臺灣) ※ 文章網址:
2023-12-18 15:02:27
[分享] aespa運用AI技術推出「BEYBLADE X」ED
2
「ZOOM ZOOM」是在電視東京系列播出的電視動畫「BEYBLADE X」的片尾主題曲。 這個歌詞影片是採用AI模型輸出的多格式,並結合動作捕捉技術, 使其接近傳統的質感動畫,是一種新嘗試的影像製作方式。 在AI的使用上,依照文化廳的指南建構了考慮著作權的安全模型。 最終輸出只使用了「BEYBLADE X」的主要角色七色マルチ的素材。 來源: ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.35.244.38 (臺灣) ※ 文章網址:
2023-12-18 10:57:28
[StaD] 出現Torch is not able to use GPU
2
請教各位! 早上看到一段影片, 主要說明安裝Torch 2.0後性能與生圖速度會較快! 所以就直接安裝了Torch 2.0,(也重裝Xformers) 安裝後啟動webui user.bat(如圖1) 顯示:Torch is not able to use GPU 上網查詢方法後更改了webui user.bat(如圖2) set COMMANDLINE_ARGS= lowvram precision full no half skip torch cuda test 但問題更多了....(如
2023-12-17 12:51:16
[討論] 請教以圖生圖
2
新手請教 使用Midjourney 以圖生圖 放入這張圖片 它卻生出 這個 腳的姿勢 想要的是第一張的腳 請問有解嗎 > < ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.76.64.43 (臺灣) ※ 文章網址:
2023-12-17 07:45:34
[StaD] 新手請教DWpose的問題
1
請教各位,我看這以下影片完成DWpose安裝, 使用步驟都是照影片教學,先用範例照片預覽骨骼圖, 然後簡單輸入文生圖的Prompt,生成的圖片卻還是骨骼圖?? 而不是生成我給的Prompt圖?請問我是忽略了什麼部分?謝謝 Sent from JPTT on my iPhone ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.127.129.181 (臺灣) ※ 文章網址:
2023-12-16 15:49:57
Re: [StaD] LCM 減少step/加速生成
1
※ 引述《tsubasawolfy (悠久の翼)》之銘言: : LCM (Latent Consistency Model) : : 不管SD1.5或SDXL都說Step 2 8內就可以,不過CFG要限制在1 2內 : CFG 1會忽略negative prompt, 2以上圖會焦掉,實際跑大概到3而已 : : Hires下的第二步Latent作圖就沒有加速了,一樣慢 : 感覺這東西還是給動畫去加速用之類 之前用的效果不好隔了一個月找下論壇和視頻 看對岸建議要搭配dynamic thresho
2023-12-16 01:01:52
[StaD] 出問題了 該怎麼解決
2
睡一覺起來發現電腦重新開機 不知道Windows又自己更新了什麼 結果要開SD就變成以上的狀況 除了重裝以外還有其他解決方法嗎 不知道為什麼會跟Onedrive扯上關係 ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.239.128.141 (臺灣) ※ 文章網址:
2023-12-14 22:08:03
[情報] krea.ai 即時算圖功能目前開放使用
2
www.krea.ai/apps/image/realtime 基本上就是你在左邊畫圖,右邊會馬上一直生成圖 目前網站寫 beta 應該算公測 之後可能要付費(不確定) 我玩了好久 精神時光屋== 可以裸露 但一些太 over 的字好像沒效果 比較吊詭的是, small breasts, flat chest 之類的字都完全無效... ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.73.24.95 (臺灣) ※ 文章網址:
2023-12-11 00:29:52
[討論] 請問AI可以畫出瑜伽體位
9
新手請教 請問有哪個AI 軟體 聽得懂複雜的印度語 瑜伽體位嗎>< 例如Urdhva Dhanurasana ….. 另外ai 可以得出動物在做瑜珈嗎 謝謝 ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 122.118.15.173 (臺灣) ※ 文章網址:
2023-12-09 10:48:54
[閒聊] Krita AI 初步使用
3
Krita AI 初步使用 先安裝好 Krita後,在安裝Krita ai diffusion插件,詳細可以參考github,利用comfyui 來做ai運算,可以類似PS ai一樣生成,而且comfyui加上SDXL turbo生圖速度快 Krita連結comfyui有兩種方式,我是建議第二種使用自己的comfyui,反正你遲早都要學com fyui,如果沒有用過comfyui,最好先學習一下。 圈起來可以改變內容,你也可以輸入想畫的prompt 圖中像草堆又像牛的東西,我把它叫草堆牛,不曉
2023-12-07 00:04:33
[StaD] 快被NV Driver 煩死
3
最近很多人被memory fallback搞到 所以NV讓玩家可以自行開關 但最近又遇到很多莫名其妙的問題 原本生的好好的模型/設置/prompt 現在NaN也來了 OOM也來了 一模一樣的workflow現在出不了圖 爬了一陣子Reddit 發現 自從NV開始聲稱對SD優化就開始出問題 一個不爽退回到driver 531.61 哇靠~這可是一個飛快 308010G,SD1.5,hires fix,adetailer 2K的圖,居然不用一分鐘 NV不愧是靠ai發大財 原本被氣到想換4090 還
2023-11-30 14:59:51
[情報] Animate Anyone: 高效角色動畫影像合成
8
本研究提出一種從靜態圖像生成角色影像的新框架,利用擴散模型的生成能力。 我們設計了ReferenceNet,通過空間注意力合併細節特徵, 並引入姿勢引導器與時間建模方法,確保動畫的可控性與連續性。 我們的方法支持任意角色動畫製作,並在時尚影像與人類舞蹈合成中達到先進水平。 ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.35.244.38 (臺灣) ※ 文章網址: