オーテピアでブログを書いたり(2024 年 12 月 1 日)

日記

いよいよ 12 月。

今年もあと1 ヶ月。

今年もいろいろなことがあったし、人生、なかなか退屈しない。

けど、多少、退屈な方がいいかも。

なんて今年は思ってしまったり。

あと 1 ヶ月もその先も、1 日 1 日を後悔ないように、過ごしたいですね。

ChatGPT で音楽ブログ執筆。けどどこまで信頼できる?

午後からオーテピアへ行って、ブログ記事を書いたり。音楽の方の。

ChaGPT をブログ執筆の補助として使うことで、生産量は多くなったと思うのですが、ただ、それでも、まだまだ ChatGPT を全面的には信頼できないな、というのが最近、改めて思うとところ。

例えば英語 PDF を翻訳して日本語で簡単にまとめてほしい、なんて指示をしても、けっこうデタラメを返したりする。

なんでデタラメなのか判別できるのかというと、それは私がある程度、英語を理解しているからで、その、翻訳・要約してほしい英語の PDF の内容について、一定の知識を持っているから。

だからけっきょく、自分がある程度知っている分野について、ChatGPT を補助的に使って何か、ブログを書いたりするのは、それは生産性も高まると思うのですが、そうではない、完全に自分にとって未知の分野を、ChatGPT など生成 AI で学ぼうとしても、難しいでしょうね。

間違いを間違いと見抜けないですから。

ウェブ検索機能のある生成 AI でも、間違えるときは間違える

それから、ChatGPT でウェブの検索もできるので、ウェブ検索したら生成 AI の間違いを防げるかというと、そんなことありませんから。

ウェブで調べた結果、間違いを生成することがありますから。

しかも初歩的なところで。

なので本当にですね、その辺は慎重に使用しないといけません。

Perplexity もね、ウェブ検索ができるから ChatGPT のように間違いがない、なんていう誤解がありますが、Perplexity もしょせん、Transformer がコアとなるアルゴリズムなので、ChatGPT の仲間なので、ということは間違い = ハルシネーションは避けられないわけです。

試しにこのことを Perplexity に質問しましょう。

Perplexity に尋ねた内容:

Perplexity もね、ウェブ検索ができるから ChatGPT のように間違いがない、なんていう誤解がありますが、Perplexity もしょせん、Transformer がコアとなるアルゴリズムなので、ChatGPT の仲間なので、ということは間違い = ハルシネーションは避けらませんよね?

Perplexity の回答:

はい、その通りです。Perplexityもハルシネーションを完全に避けることはできません3。Perplexityは確かにウェブ検索を行い、最新の情報を取得しますが、最終的な回答生成には生成AIを使用しているため、ハルシネーションの可能性は残ります3。
ただし、Perplexityには以下の特徴があります:
情報源が特定され、その情報のみを元に回答を生成するため、ハルシネーションの可能性はChatGPTと比べて低くなります3。
出典元を明示するため、情報の信頼性を確認しやすいです4。
リアルタイムでウェブ検索を行うため、最新の情報を活用できます14。
しかし、Perplexityが収集する情報自体が必ずしも正確とは限らないため、完全に間違いがないわけではありません3。ユーザーは提示された情報源を確認し、必要に応じて追加の調査を行うことが重要です。
結論として、PerplexityもChatGPTも、どちらもTransformerベースの言語モデルを使用しているため、ハルシネーションのリスクは完全には排除できません。ただし、Perplexityの方が情報源を明示し、最新のデータを使用するため、相対的にはハルシネーションのリスクが低いと言えるでしょう。

なのですよ。

これ、Perplexity の回答ですから。もうね、「嘘つきのパラドックス」に陥ってますから。

ランニング

帰宅後は 6 km ほどランニング。

それから筋トレ。

やっぱ運動は良い。

コメント

タイトルとURLをコピーしました