GPU無しのGoogle colabとか、ローカルPCで動く
s://i.imgur.com/S7X9flC.png
s://i.imgur.com/7RnSWOK.png
384x512サイズがGoogle colabで2分ぐらい、ローカルのN100ミニPCで1分ぐらい
おっそいけどそれなりに動く70行ぐらいのpythonコードなんだが、需要あるだろうか?
グラボ無しで動くイラスト生成AIツールつくってみた
■ このスレッドは過去ログ倉庫に格納されています
1以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:16:34.336ID:qnjCIpjf02以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:17:29.297ID:qnjCIpjf0 需要あるなら公開する
3以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:18:24.419ID:OwT7tJUx0 なんかすごそう
4以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:19:16.097ID:9jvzDQUB0 N100でもそんなに時間かかるんだね
5以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:19:56.558ID:L4vFvDz/0 スマホアプリもjavaで書いてソースコードgitにあげてくれん?
コンパイルはこっちでやるから
コンパイルはこっちでやるから
6以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:20:52.305ID:qnjCIpjf07以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:21:25.255ID:gHo6B8Eh0 それyoutubeで公開してるやつじゃないの
8以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:22:26.399ID:qnjCIpjf09以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:23:36.543ID:gHo6B8Eh0 それどういう仕組みで動くの?
ならなぜほかのシステムにグラボが必要になるの
ならなぜほかのシステムにグラボが必要になるの
10以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:24:44.021ID:3XFAydfy0 すげー
GPUありだと速くなるオプションとかはないの?
GPUありだと速くなるオプションとかはないの?
11以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:24:52.581ID:IfBomKc30 そんなコンパクトに行けるもんなんだ
ソース見てみたい
ソース見てみたい
12以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:25:00.586ID:qnjCIpjf013以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:25:49.283ID:8zvqESDg0 他のソフトもCPUオンリーのモードあるし
14以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:26:07.320ID:q31ePJso0 real-esrgun使う動画高画質化アプリケーション作ってmsiかZIP形式で配布してほしい
1500円くらいなら払う
1500円くらいなら払う
15以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:26:35.813ID:qnjCIpjf0 >>11 よっしゃ待ってました
ソースコードはこれ
s://techiedelight.com/compiler/?27ef
とりあえず試したいなら、google colab上で動かす
s://colab.research.google.com/?hl=ja
1. ノートブックを新規作成をクリック
2. ソースコードをコピペして、ランタイム>すべてのセルを実行(Ctrl-F9)
3. モデルを読み込むので5分ほど待つ
4. 「Running on public URL: <なんたら.gradio.live>」という表示が出るので、それをクリック
別タブでUIが開くので、そこで遊んでみてくれ
多少でも知識のある人ならこのソースをもとにローカルでも動かせるはず
ソースコードはこれ
s://techiedelight.com/compiler/?27ef
とりあえず試したいなら、google colab上で動かす
s://colab.research.google.com/?hl=ja
1. ノートブックを新規作成をクリック
2. ソースコードをコピペして、ランタイム>すべてのセルを実行(Ctrl-F9)
3. モデルを読み込むので5分ほど待つ
4. 「Running on public URL: <なんたら.gradio.live>」という表示が出るので、それをクリック
別タブでUIが開くので、そこで遊んでみてくれ
多少でも知識のある人ならこのソースをもとにローカルでも動かせるはず
16以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:27:42.070ID:qnjCIpjf017以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:32:09.984ID:8zvqESDg0 >>16
どれくらい上がったの?
どれくらい上がったの?
18以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:34:29.965ID:qnjCIpjf019以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:41:02.430ID:8zvqESDg0 ちょっと調べてみたがそこそこのCPU積んだPCで1024x1024の画像が1ステップ1分くらいらしいから12分で1枚くらいだな
これは1024x1024にするとどうなるの
これは1024x1024にするとどうなるの
20以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:43:54.996ID:qnjCIpjf021以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:47:44.000ID:8zvqESDg0 結果待つの辛いやつだこれ
俺の環境でGPUなら1024x1024で1枚13秒位って考えるとやっぱCPUは辛えわ…
俺の環境でGPUなら1024x1024で1枚13秒位って考えるとやっぱCPUは辛えわ…
22以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:47:47.969ID:qnjCIpjf0 お、10分切るかも
23以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:48:40.182ID:mYNPZlog0 作ってみた言うからソース見てみたけどただのテンプレじゃねえか
2024/09/21(土) 21:53:01.108ID:mmfo5Fbg0
ツールではないね
25以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:54:26.290ID:qnjCIpjf026以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:56:28.279ID:8zvqESDg0 1分でも結構待つの辛いだろ…
27以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:56:54.513ID:qnjCIpjf028以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:58:14.594ID:qnjCIpjf0 >>26
まあそんときゃColabに課金して、"cpu"を"cuda"に変えるだけよ
まあそんときゃColabに課金して、"cpu"を"cuda"に変えるだけよ
29以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 21:59:59.936ID:d9S1Og8m0 N100で1分て早くね
最新ハイエンドCPUならグラボに負けないのでは
最新ハイエンドCPUならグラボに負けないのでは
30以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 22:01:46.962ID:qnjCIpjf031以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 22:25:02.871ID:qnjCIpjf0 試しにColabのT4+CUDAでやってみたら10秒ぐらいだけど、アップにすると奇形になりやがる・・・
s://i.imgur.com/NK5hEpM.jpeg
縦長768x1024の立ち絵にして8秒ぐらいが適正かなあ
スペック上げると、じゃあ普通のツール使えばいいじゃんって感じになって少し萎える
s://i.imgur.com/NK5hEpM.jpeg
縦長768x1024の立ち絵にして8秒ぐらいが適正かなあ
スペック上げると、じゃあ普通のツール使えばいいじゃんって感じになって少し萎える
32以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 22:27:23.245ID:8zvqESDg0 Pony派生のライトニングモデル使えばもうちょい早くてきれいかも
33以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 22:36:19.877ID:qnjCIpjf0 んじゃあ
pipe_t2i = StableDiffusionPipeline.from_pretrained("stablediffusionapi/pony-diffusion-v6-xl-2").to("cuda")
pipe_t2i.load_lora_weights("latent-consistency/lcm-lora-sdxl")
これでColab T4行ってみますかあ?
動くかな?この環境で
pipe_t2i = StableDiffusionPipeline.from_pretrained("stablediffusionapi/pony-diffusion-v6-xl-2").to("cuda")
pipe_t2i.load_lora_weights("latent-consistency/lcm-lora-sdxl")
これでColab T4行ってみますかあ?
動くかな?この環境で
34以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 22:46:45.686ID:qnjCIpjf0 メモリ足らんかった残念
35以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 22:50:41.594ID:rv0LtQvu0 あんまり需要なさそうだけどこういう事できるのさ尊敬する
36以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 22:56:34.323ID:qnjCIpjf0 やはり無いのか需要
貧乏人はおらんのか
貧乏人はおらんのか
37以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 23:03:49.596ID:rv0LtQvu0 >>36
いや多分はじめっからやり方わからんと思うミドルやハイスペもってないやつは
いや多分はじめっからやり方わからんと思うミドルやハイスペもってないやつは
38以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 23:09:55.319ID:qnjCIpjf0 そうそう金で解決するのが合理的よね
本当は
本当は
39以下、5ちゃんねるからVIPがお送りします
2024/09/21(土) 23:46:23.025ID:3BBJVMZE0 面白い試みだと思うし参考になるけど
すまんなRTX3060の12GB使ってるんだ
すまんなRTX3060の12GB使ってるんだ
■ このスレッドは過去ログ倉庫に格納されています