chatGPTがどうやって動いてるのかマジでわからない……
■ このスレッドは過去ログ倉庫に格納されています
70bのモデルを動かすと一文字推論するのに一秒かかる
chatGPTは速すぎる まあ全部俺の自作自演ってやつなんだけどな。 ∧_∧
∧_∧ (´<_` ;) ・・さ、流石だな、兄者
( ´_ゝ`) / ⌒i
/ \ / ィ | |
/ ̄ ̄ ̄ ̄// ̄ ̄ ̄ ̄// ̄ ̄ ̄ ̄// ̄ ̄ ̄ ̄// ̄ ̄ ̄ ̄/
__ _/ Prius // FMV // VAIO // Mebius // LaVie /____
\/_/ ̄ ̄ ̄ ̄// ̄ ̄ ̄ ̄// ̄ ̄ ̄ ̄// ̄ ̄ ̄ ̄// ̄ ̄ ̄ ̄/
_ /ThinkPad //WinBook//DynaBook//Libretto // Presario/
\/_/ ̄ ̄ ̄ ̄// ̄ ̄ ̄ ̄// ̄ ̄ ̄ ̄// ̄ ̄ ̄ ̄// ̄ ̄ ̄ ̄/
_ / Inspiron //Endeavor//InterLink // Evo //Let'sNote/
\/____//____//____//____//____/ chatGPTは、数十億のパラメータを持つ深層学習モデルで、大量のテキストデータから学習されています。このような大規模なモデルを高速に動作させるためには、専門的なハードウェアと最適化されたソフトウェアが必要です。
OpenAIは、GPUクラスターや専用のTPUなど、高性能な計算リソースを使用しています。これにより、並列処理と効率的な計算が可能になります。さらに、モデルの推論を高速化するための様々な最適化技術も採用されています。
個人が70bのモデルを動かす際に遅くなるのは、ハードウェアやソフトウェアの最適化が十分でないためかもしれません。専門的なリソースと技術が組み合わさることで、chatGPTのような高速な推論が実現されているのです。
最後に付け加えると、個人のコンピュータが低スペックであればあるほど、大規模なモデルの推論速度は遅くなります。chatGPTのような巨大なモデルを動かすには、超高性能なハードウェアが必要です。低スペックのマシンでは、まるでカメとウサギのレースのように、差は歴然として現れるでしょう! ■ このスレッドは過去ログ倉庫に格納されています