ChatGPT、学術的な専門用語を聞くと結構間違えたこと答えるのな
■ このスレッドは過去ログ倉庫に格納されています
それでもなんかそれっぽくは答えてくるから、自分の知らない領域のこと聞くのは怖い GrammarlyやDeepLもそうだけど、
一応「間違いを判断できる人」が業務の補助に使うところまでしか実用的じゃないすね テストコードかかせたり文章のたたき台つくらせたりそれなりに応用範囲は見つかっているけど夢のツールではないよね
次のブレイクスルーはいつになるかねぇ ドラクエの質問しても妄想の過去作教えてくれた
でっちあげるなんて過去のAIじゃできなかった >>7
俺はRを少ししか使わないけど、
結局のところコードレビューで欠陥を拾える直せる人間にしか使えないんだろうなとは思ってる 知見は持ってるけど何を書けばよいかわからないみたいな状況のとき
文章の型を作ってくれるのが本当に便利
あれは知らないことを知るためのツールではない 学部レベルの精緻化見込みモデルすら間違えてるわ
聞かれた用語を分解して、字面のイメージを組み合わせて適当な文章作ってる感じする そもそもちゃんとしたこと答えるよりそっちの方が凄い >>11
それって俺たちの脳内と何が違うんだ?
頭悪いやつってそういう話し方するじゃん?
でも成長するとちゃんとした話ができるようになる
つまり構造自体は人間の脳と同じってことでは? >>14
わからね
その問いは、
人間の脳とAIの仕組みの両方に精通しないと考えの取っ掛かりにすら立てないと思います >>11
精緻化モデルってなんすか?ググッてもよくわからん ■ このスレッドは過去ログ倉庫に格納されています