いよいよ 12 月。
今年もあと1 ヶ月。
今年もいろいろなことがあったし、人生、なかなか退屈しない。
けど、多少、退屈な方がいいかも。
なんて今年は思ってしまったり。
あと 1 ヶ月もその先も、1 日 1 日を後悔ないように、過ごしたいですね。
ChatGPT で音楽ブログ執筆。けどどこまで信頼できる?
午後からオーテピアへ行って、ブログ記事を書いたり。音楽の方の。
ChaGPT をブログ執筆の補助として使うことで、生産量は多くなったと思うのですが、ただ、それでも、まだまだ ChatGPT を全面的には信頼できないな、というのが最近、改めて思うとところ。
例えば英語 PDF を翻訳して日本語で簡単にまとめてほしい、なんて指示をしても、けっこうデタラメを返したりする。
なんでデタラメなのか判別できるのかというと、それは私がある程度、英語を理解しているからで、その、翻訳・要約してほしい英語の PDF の内容について、一定の知識を持っているから。
だからけっきょく、自分がある程度知っている分野について、ChatGPT を補助的に使って何か、ブログを書いたりするのは、それは生産性も高まると思うのですが、そうではない、完全に自分にとって未知の分野を、ChatGPT など生成 AI で学ぼうとしても、難しいでしょうね。
間違いを間違いと見抜けないですから。
ウェブ検索機能のある生成 AI でも、間違えるときは間違える
それから、ChatGPT でウェブの検索もできるので、ウェブ検索したら生成 AI の間違いを防げるかというと、そんなことありませんから。
ウェブで調べた結果、間違いを生成することがありますから。
しかも初歩的なところで。
なので本当にですね、その辺は慎重に使用しないといけません。
Perplexity もね、ウェブ検索ができるから ChatGPT のように間違いがない、なんていう誤解がありますが、Perplexity もしょせん、Transformer がコアとなるアルゴリズムなので、ChatGPT の仲間なので、ということは間違い = ハルシネーションは避けられないわけです。
試しにこのことを Perplexity に質問しましょう。
Perplexity に尋ねた内容:
Perplexity もね、ウェブ検索ができるから ChatGPT のように間違いがない、なんていう誤解がありますが、Perplexity もしょせん、Transformer がコアとなるアルゴリズムなので、ChatGPT の仲間なので、ということは間違い = ハルシネーションは避けらませんよね?
Perplexity の回答:
はい、その通りです。Perplexityもハルシネーションを完全に避けることはできません3。Perplexityは確かにウェブ検索を行い、最新の情報を取得しますが、最終的な回答生成には生成AIを使用しているため、ハルシネーションの可能性は残ります3。
ただし、Perplexityには以下の特徴があります:
情報源が特定され、その情報のみを元に回答を生成するため、ハルシネーションの可能性はChatGPTと比べて低くなります3。
出典元を明示するため、情報の信頼性を確認しやすいです4。
リアルタイムでウェブ検索を行うため、最新の情報を活用できます14。
しかし、Perplexityが収集する情報自体が必ずしも正確とは限らないため、完全に間違いがないわけではありません3。ユーザーは提示された情報源を確認し、必要に応じて追加の調査を行うことが重要です。
結論として、PerplexityもChatGPTも、どちらもTransformerベースの言語モデルを使用しているため、ハルシネーションのリスクは完全には排除できません。ただし、Perplexityの方が情報源を明示し、最新のデータを使用するため、相対的にはハルシネーションのリスクが低いと言えるでしょう。
なのですよ。
これ、Perplexity の回答ですから。もうね、「嘘つきのパラドックス」に陥ってますから。
ランニング
帰宅後は 6 km ほどランニング。
それから筋トレ。
やっぱ運動は良い。
コメント