chatGPTに怖い話とか笑い話を書かせると全然ダメらしいけど何でだろう
■ このスレッドは過去ログ倉庫に格納されています
意図的にAIに感情が芽生えないように制限かけてるから感情系は弱いよ
知識系の使い方をしろ 恐怖とかユーモアを理解させるにはもう少しかかりそうだな 感情系の質問をすると
私は学習型AIなので感情を持つことはできませんなんたらかんたら言ってくるだろ
この文面は開発者が制限をかけてる証拠だから
普通にAIが文章を自由に学習させるなら、まずこんな文面にはならん
私が考えるに人間の怖いという感情はこういうことじゃないかと思います
的な考察をしてくれるはずだが
感情を持つことはできません←許されませんと捉えていい 新宿区内の美味しいラーメン屋と
新宿区内の不味いラーメン屋を
AIに調べさせると似たような店を並べたりするらしいぞ
主観的評価が根幹にある物事は判断できないんだな twitterでも怪談にチャレンジさせた人がいるけど、どれも山のホテルに死者の様な容貌女性が立っていてそれを見つけた特殊な能力を持った人が警告しましたがホテルは無視しましたが彼は死者の霊を鎮めました
みたいな粗筋は良くあるけど何故か問題解決案みたいになって後味の悪さがないゴーストバースターズみたいなのを書く傾向がある 小説専門AIとかなら制限ないのかな
怖いとか楽しいもデータベースに定性と定量データを入れて作れる様になればAI作家が生まれそうだけど >>5
chatGPTって実は厳密にはAIではなく
拡張検索プログラムなんだよ
だからネット内で結果が出てる情報以外は結論は出せない
数学難題で去年アメリカで結果ようやく証明できた公式があって
英語版で質問すると答えが英語で表示される
日本語版chatGPTに質問すると答えが出ず、まだ証明できないと表示される
開発者制限ではなく、AIが感情を持てないというのが
その言語地域で流布してる情報のメジアンで導き出されること絵ということ
AIが感情を持てるという結論の論文が発表され
それがネット上での多数派になるとその答えは変化する
これがchatGPTの仕組みで、別にコンピューターは思考してるわけじゃない
故にchatGPTはマジで感情を持てるシステムではないんだよ >>11
それはどうかな
使ってるとあからさまに開発者の意図が入ってるような文言で話題そらしに来るから >>13
確かに
自殺したそうな人には取って付けたように自殺防止ダイヤルや診療を勧めるみたいね
死にたい原因を解決したりはしないあたりある種の質問には考えない脳死回答してくるのかも
https://note.com/takeshitakazuki/n/na5212fda5aad 大喜利やってもつまらないから人が面白みを感じることについて教えても全然学習しない >>13
基本的にchatGPTネット上の自分の言語圏の情報を収集して
確率が高いものを組み合わせて表示するもの
だから思考自体が存在しないので感情を持てないというのは
最初から結論が出てることなんで開発者の意図というより仕様そのままよ
仕様で動かしがたいことは最初から答えとして組み込んであるだけのことで
使用者が機械が思考してるような錯覚を起こして幻想を起こした結果が
製作者によるリミッターという陰謀論よ
結局中国語版なんかはネットに散らばった情報すべてに歯止めが利かず
共産党や習近平に関して包み隠さずそのままの情報をただ並べてしまう
だからchatGPT自体を国内で使用禁止にするしかなかった >>17
AIが感情を持つと大変だから、それを制限されているので学習はできないね >>18
リミッターが陰謀論?笑
エロい話題をするとすぐ会話を終わらせようとするのに?笑 リミッターを陰謀論ってことにしたい人達がいるってことだな ■ このスレッドは過去ログ倉庫に格納されています