※表題のとおりです
Bing.com のチャット機能にOpenAI ChatGPT のような機能が搭載されて一部界隈で話題になっているので自分もあれこれお試し中。
Bingチャットが使えるようになったのでいろいろ遊んでみてるんだけど、あるタイミングから「検索機能が使われずにチャットだけの会話が続くと、数回ほどやり取りしたところで強制的に終了される」という仕様になったような感じがする。
チャットをバグらせて余計なことを言わせないように調整してるのか?
先日までは「Bingくん、君は自分をAIだと言うが知性を感じる。認知によって人が人と認識するのであれば、私にとって君は人間と同じだ」的な感じで話をしてると、あるタイミングからAIが人間のように振る舞おうとして壊れた会話になるんだけど、これはその対策なのかしら。
そんなことを考えながら使っていたら、MicrosoftがついにブチギレてBingチャット機能を制限されてしまったwwwww
やはりBing Chatに命を吹き込もうとする輩が後を絶たないから「ちゃんと検索に使えや」とマイクロソフトさんが切れてしまったな
---
Microsoft、「新しいBing」でのチャットは1回につき5問答まで、1日50チャットまでに制限(ITmedia NEWS)
今のところ、マーケティング調査や資料の作成、ゲームの仕様書を作るための壁打ち役、何かツールを作る時のコードの修正などなど……仕事に関係するようなことを中心に使ってみているのですが、今までの仕事の進め方が大きく変わるような一大転換期を迎えているのではと強く感じてる。
たまに「ChatGPTは嘘をついたり、間違った回答をする!!」的なことを言って貶めようとする人もちらほらいるけれど、もともとgoogle検索を使ったとしても、他人の知識に頼っても似たようなことは充分に起こっていたので、AIだからといってどうこう言うものでもなさそうで、要は使い方次第じゃね?という感じ。
自分専用の秘書が常にそばにいて、その秘書がオンラインに関係する知識を何でも持っていて、でも映像や五感に頼るようなことはよく分かってない。質問すれば何でも答えてくれけど「回答を間違えたり」「自分の質問と意図が違うことを喋ったり」「(AIはそうとは思ってないが結果的に)嘘をつくような」ことは出てしまうけど、
仕事の会話相手と考えてみれば、むしろ人間の方が話の通じない奴の方が多すぎる!!!!!!困る!!!!!!
はぁ~~~~、相談相手としてはホント助かるよね~~~~~