自分のパソコンで動かすChatGPTみたいなやつ
■ このスレッドは過去ログ倉庫に格納されています
すごい
ChatGPTで断られるエッチなリクエストも受け入れてくれる エロチャに限らず割となんでもプロンプト通るから面白い 文章系もローカル環境でやれる奴あるのか
AIのべりすと使ってたわ >>12
AIのべりすとは日本語LLM業界そのものを盛り上げてくれたけど、ローカルで動く最新のAIはあれとは一線を画す性能あると思う
無料のChatGPTより優秀なのも今だと結構あるし 最近出てきたモデルのうち
CohereのCommand R plus
Llama 3 70B
は有料版のChatGPTと同等レベルの性能がある もしそいつら動かすVRAMが足りなければ、LightChatAssistantとか軽量なモデルも何個も出てるから、色々遊んでみて欲しい 大規模LLMってローカルで動かせるん?
あんまり詳しくないけど膨大なVRAMないと厳しいイメージ 俺が今使ってるやつは確かにデカくてVRAM 56GBくらい必要
でも、8GB程度でもかなり高性能なのが今年になってバンバン出てきたんよ 数十Bレベルだとまず普通のPCでは動かんよな
パラメータ数に対する精度は学習データの質に左右されるとかなんとか >>18
openAIとかMicrosoftが出してる奴はそうだよね
ちょっと前に日本語特化のLLMが超省メモリで家庭用でも動かせるどうのこうのって見た >>19
でかいモデルほど学習データセットはでかくなるな
データの質に関しては、Fineweb含め高品質なデータセットがパブリックになってるから、ある程度敷居は下がってるんじゃないかな
>>20
Microsoftは最近軽量モデルで盛り上がってたね、phy-3ってやつ
なんかスマートフォンとかで動かしてる人もいた気がする >>6
下から五番目よく見たらどういう体勢なんだよwwwww >>22
Mac Studioの64GBモデルで、グラボは載せてないよ
Apple siliconはunified memoryっていうアーキテクチャで、RAMとVRAMが共有になってるから割と安くでかいモデルのGPU推論ができる
もちろんNVidiaより計算能力は低いけど、普通にチャットするレベルならあんまり気にならない速度で結果出るよ Llama 3 70B調べたら
VRAM8G、メモリ64G必要みたいだからうちのPCだとギリギリだな
インスコ自体はツールでかんたんそうだけど >>23
そこは俺もん?って思った
まあ時々こういうのはある >>24
ほえー
俺RTX3060 VRAM12GB でメインメモリ64GBなんだがWindowsではメインメモリをVRAM化できないのかな悲しい >>25
試してダメっぽかったら小さいバージョン(Llama 3 8B)ってのもある
あと、CohereのCommand R(plusがつかない無印)ってやつはその間くらいの大きさで、かなり優秀 >>27
今はVRAMとメインメモリにモデルを分散する仕組みが開発されたから、計算は遅いける動かせるよ(途中までGPUで計算して、残りをCPUに計算させる) >>28
サンクス
取りあえずLM Studio使ってLlama3系試してみるわ 一応、ChatGPTでコード書かせる人は多いと思うけど、ローカルでもこういうことができる
https://i.imgur.com/gCGdFqy.png まだ人いたのか
>>33
Llama 3は公式では英語のみってことになってるけど、日本語も結構流暢だよ 学習セットの95%が英語コーパスという話だけど、そもそもの母数が15兆トークンとか言う意味わからん数値になってるから、日本語コーパスもそれなりに入ってたんだと思う 名探偵コナンでコンピュータに自分のお母さんの名前つけてずっと話しかけてる香具師いたけどそんな感じ? それは知らんけど、今の技術ならそれくらいはできるんじゃないか? ■ このスレッドは過去ログ倉庫に格納されています