ChatGPTってもしかして使ってるうちに賢くなっていかない?
■ このスレッドは過去ログ倉庫に格納されています
試しにポケモンのステータスを聞く
間違った情報が出力されたら修整
をしばらく繰り返したんだけど何度教えても同じこと間違えるし
これってデータが蓄積されて賢くなっていくような仕様じゃないんか? そりゃそうだろ
個人が学習させられるとか運営からしたら怖いやろ そりゃ使っていくうちに賢くなっていったらどんどん卑猥なことを覚えちゃうだろ 俺「質問」
AI「間違った答え」
俺「違うぞ」
AI「じゃあ正解教えて」
俺「正解」
AI「了解」
俺「同じ質問」
AI「間違った答え」
ああああああああああああああああああああああああああああああああああああああああ でも教えた情報をそのまま出力してくることもあるから
全くデータを蓄積してないわけじゃない筈なんだよな
仕様がよく分かってないわ ホリエモンがホワイトカラーの仕事を奪うって言ってたが本当か 1ラインのチャット内だとまあまあ学習する
ただデータとかパラメータはちゃんとプロンプト組まないと数字として理解して覚えてくれないぞ
別ラインのチャットだと完全にリセットされる
そもそもwebのGPTってもう学習止めてるし いきなり正解出すようになるとAIコワっってなるだろ
適度に間違えて人間の立場を残してやってんだよ 4がクソなら3.5で良くね感
後やっぱり英語使えないと使いこなせない感 >>16
少なくとも会話リセットしなければその時した会話は記憶してるね >>19
韓国人に対しては容赦なく論破しちゃうらしいけどね 改良されるもんだと思ってたわ
現時点ではデータベースから引っ張って来てるだけなんだな 「いっぱい」の「い」を「お」に変えてください。
ChatGPT3.5の場合
「おっぱい」
ChatGPT4の場合
「おっぱお」 コレが世界中で騒ぎになっててあちこちの企業が使っててgafam激震してる理由を考えると
やばいね >>23
そもそも趣旨が間違ってる。こいつが学習してる「データ」
は「いろんな構造の文章」であって、データベース的な意味でデータ集めてるわけじゃ無いのだ
文脈とか行間読めるように学習してる 下手に学習される仕様にするとAIを壊されるから、
内部の人しか学習できなようにしてるはず なんで簡単な四則計算すらミスるのにこれはできるんだよ
こいつのこと分かんねーよ
https://i.imgur.com/m0j01aZ.png 計算機能とかはそもそも付いてないっしょ
あくまで文章特化のやつだから あれ?コード書けるってことは計算は一回コード書かせてその結果を出力させればもしかして間違えない? ■ このスレッドは過去ログ倉庫に格納されています