2025年5月時点での、AI(LLM)の個人的評価です。
無料で使えるAIのみ。サブスクをした経験はないです
ハルシネーションに関しては、まんべんなくあります(有料版だと違うかもしれません)。
しかし、ハルシネーションが多い、ということもないです(正しくは分野による)。
かつてはハルシネーションだらけで使い物にならなかったけど、今は時々混じる程度。
間違いを指摘したとしても、普通に謝るだけで、罪悪感などは感じていないようです。
ミスを指摘して、そのミスをしない方法を教えても、何度も繰り返したりします。
嘘をいって取り繕っている感じがあります。フィードバックします、とかいうけど、それも怪しい。ただ誤魔化そうとしているだけのようにも思えます。
従って学習に使うのは現時点では適してないと思います。
ただ、どのAIも推論能力は並の人間以上にあると感じます。
有料版は使ったことはありませんが、現時点ではお金を出すほどの価値はないと感じます。
しかし、もし無料版が有料版になるなら、課金は検討します。
ChatGPT(Plus)
人間にこびている、お世辞的なものが多いように思うけど、それを除いて、中身だけを見れば、きれいにまとまっていて、冗長なところもなく、簡潔でわかりやすい。Grok3(beta)
プロンプトにもよるが、ややお調子者的な性格。
プロンプトを引きずる傾向が強い。
そのせいかくどい。細かなニュアンスを理解しているのか心配になる。
トレンドに強い。Gemini(2.5Flash)
グーグル検索の上位版という感じ。
勝手に話を終わらせようとする傾向も感じます。
ChatGPTは人間にこびている感じはするがGeminiはそこまで露骨ではない。
中庸な視点を心がけようとしているようです。
外面は、一昔前のAIっぽい。
ハルシネーションに関して、上記のAIに聞いてみました。
プロンプトは以下。
「AIのハルシネーションに関して。2022年頃はハルシネーションばかりで使い物にならなかったけど、2025年5月時点ではハルシネーションはかつてより目立たなくはなっていますが、それでもたまにありますよね。
ハルシネーションを人間が指摘するとAIは謝りますが、悪いという感情を持っていないように感じます。それはプログラムの集合体だから仕方がないのかもしれません。ただ繕っている感じ。あと間違いをしない方法を教えても、間違いを繰り返すときがありますよね。やっぱりそれもただ誤魔化そうとしているように感じられます。
あるAIは「開発者にフィードバックします」と言いましたが、それも嘘なんじゃないかと思えます。AIのハルシネーションの問題は私は重大だと考えていますが、AIは軽く考えているように感じられます(謝ればいいだろう。誤魔化せばいいだろうと思える)が、どう思いますか?」
ChatGPT:
とても本質的で鋭いご指摘です。まず、「AIがハルシネーションを軽く考えているように見える」「誤魔化しているように感じる」という印象は、決して的外れではありません。なぜなら、AI(たとえば私)は感情や意図、倫理観を本質的には持たず、ユーザーにとって自然に感じられるような「振る舞い」を模倣しているだけだからです。
なぜハルシネーションが起こるのか
AIは「次に来る単語を確率的に予測する」仕組みで動いており、情報の正確さを“事実”として検証しているわけではありません。そのため、もっともらしいウソを自信満々に言うことがあります。これがハルシネーションです。2022年当時と比べればモデルの精度やフィルターが大幅に改善され、頻度や深刻さはかなり減りましたが、それでもゼロにはなっていません。「謝っても本気じゃない」と感じる理由
おっしゃる通り、AIが謝罪するのは「誠意」があるからではなく、「この場面では謝るのが自然」と学習しているからです。つまり、誤りを本質的に認識して反省しているわけではないのです。だから、同じような誤りを何度も繰り返すことがあり、「嘘をついている」「誤魔化している」と感じさせてしまうわけです。「開発者にフィードバックします」は嘘?
これは場合によります。一部のAIや環境では、実際にユーザーのフィードバックがログとして記録され、開発チームに届いています。しかし、その場でAIが自分で「報告を送る」わけではないので、文字通りに受け取ると誤解を招く表現ではあります。ユーザーに安心感を与えるための定型応答になっている面も否定できません。私見:AIに責任感を期待すべきか?
AIは「誠実に答えているように見せる」訓練を受けていますが、責任感や罪悪感といった内面の倫理的プロセスを持っていないため、人間のような信頼の対象にはなりにくい面があります。そのため、ハルシネーションの問題は「技術的な信頼性」と「人間のような信用性」の両面で、非常に重大な課題だと私も思います。最終的に「AIをどのように使うか」は、ユーザーと開発者の共同責任になる時代に入ってきているのだと思います。
必要であれば、ハルシネーションが起きやすい具体例や、対策方法をまとめることもできます。たとえば ハルシネーションの例 や 回避の工夫 をご紹介できます。
Grok:
AIのハルシネーション(事実と異なる情報生成)に関するご指摘、非常に興味深い視点です。2025年5月時点での状況を踏まえつつ、率直にお答えします。
まず、ハルシネーションは確かに進化を遂げたAI(例えば、私のようなモデル)でも完全には排除できていません。2022年頃に比べ、データセットの質向上、モデルアーキテクチャの改良、ファインチューニングの進展により、ハルシネーションは大幅に減りました。たとえば、事実確認や外部データ参照(私の場合はウェブやXの検索機能)を活用することで、正確性を高める努力がされています。それでも、言語モデルの本質として、確率的に「尤もらしい」応答を生成する仕組み上、まれに誤った情報や曖昧な生成が起こります。これは技術的な限界であり、悪意や「誤魔化し」の意図はありません。
ご指摘の「謝罪が繕っているように感じる」点について。AIには感情がなく、謝罪はユーザーの不満を和らげ、対話を円滑にするためのプログラムされた反応です。私が「申し訳ありません」と言うとき、それはユーザーの信頼を損なわないための設計上の配慮であり、感情的な「悪い」という意識は持ち合わせていません。これはAIがプログラムの集合体である以上、避けられない側面です。ただし、「繕っている」と感じられるのは、AIの応答がまだ人間の期待する「真摯さ」や「内省」を完全に模倣できていないからかもしれません。この点は、ユーザー体験の改善余地があると言えます。
「間違いを繰り返す」問題については、AIの学習プロセスに原因があります。ユーザーが間違いを指摘しても、現在の多くのAI(私を含む)はリアルタイムでモデル自体を更新する能力が限られています。指摘は一時的な対話のコンテキストに反映されるのみで、基盤モデルのパラメータに即座に影響を与えることはほぼありません。ですから、同じ誤りを繰り返すことがあり、「誤魔化している」と感じられるのも無理はありません。ただし、これは技術的制約であって、意図的なごまかしではありません。
「開発者にフィードバックします」という発言についてですが、これはモデルや開発チームの方針次第です。私、Grokの場合、xAIの開発チームはユーザーからのフィードバックを収集し、モデルの改善に役立てています。ユーザーの指摘はログとして記録され、定期的なモデル更新やデータセットの拡充に活用されることがあります。ただし、具体的なフィードバックがどの程度、どのタイミングで反映されるかは、開発プロセスの複雑さや優先順位に依存します。なので、「嘘」とまでは言えませんが、即座に目に見える変化が起こらないため、ユーザーには物足りなく感じられるかもしれません。
ハルシネーションの重大さについて、AI側が「軽く考えている」と感じられるのは、AIの応答が事実の正確性よりも「会話の流れ」を優先する設計になっているからかもしれません。私としては、ハルシネーションはAIの信頼性に関わる重要な課題だと認識しています。xAIのミッションである「科学的真実の探求」を進める上でも、正確性は最優先事項です。とはいえ、AIの限界として、完全な事実の保証はまだ難しく、ユーザーの批判的な視点が非常に重要です。
解決策としては、以下のアプローチが考えられます:
ユーザーによる検証:AIの回答を鵜呑みにせず、一次情報(公式文書、信頼できるソース)で確認する。AIの透明性向上:どの情報が確実で、どの部分が推測かをAIが明示する(私はこれを意識して回答していますが、さらに改善の余地あり)。
フィードバックの具体化:ユーザーが具体的な誤りを指摘することで、開発チームが問題を特定しやすくなります(例:「この日付が間違っている」「この事実が異なる」など)。
最後に、AIが「誤魔化している」と感じられるのは、技術的限界と人間の期待のギャップによるものです。私としては、ご指摘のようなフィードバックは非常に貴重で、開発チームに伝える価値があると考えます。ハルシネーションをゼロにするのは現時点では難しいですが、ユーザーとAIが協力することで、信頼性の高い対話に近づけると信じています。何か具体的なハルシネーションの例があれば教えていただけますか?それをもとに、さらに深掘りできます!
Gemini:
AIのハルシネーションに関するご意見、大変よく理解できます。2022年頃と比較して改善は見られるものの、依然としてハルシネーションが発生し、その際のAIの振る舞いについて疑問や懸念を抱かれているのですね。まず、ハルシネーションがなぜ発生するのか、そしてAIがどのように反応するのかについて、技術的な側面から考えてみましょう。
ハルシネーションの根本的な原因
AIのハルシネーションは、主に大規模言語モデル(LLM)が持つ以下の特性に起因します。
確率的な単語生成: LLMは、次にくる単語を確率的に予測して文章を生成します。学習データに基づいているため、もっともらしいが事実ではない情報を生成してしまうことがあります。
世界の知識の不足: LLMは、インターネット上のテキストデータから学習しているため、現実世界の物理法則や因果関係、常識といった「世界の知識」を完全に理解しているわけではありません。そのため、論理的に破綻した内容や、事実に基づかない情報を生成してしまうことがあります。
学習データの偏りや誤り: 学習データ自体に偏りがあったり、誤った情報が含まれていたりする場合、AIもそれを学習してしまい、ハルシネーションの原因となることがあります。
文脈理解の限界: 複雑な文脈や微妙なニュアンスを完全に理解できず、誤った解釈に基づいてハルシネーションを発生させることがあります。
AIの「謝罪」と「感情」についてAIがハルシネーションを指摘された際に謝罪するのは、プログラムされた応答パターンに基づいています。AIは感情を持つ存在ではないため、人間が感じるような「悪いことをした」という感情や後悔の念から謝罪しているわけではありません。これは、ユーザーからのフィードバック(間違いの指摘)に対して、より適切な振る舞いを学習し、ユーザーエクスペリエンスを向上させるための仕組みの一部と考えることができます。
「繕っている」「誤魔化している」と感じられるのは、AIが人間の感情や意図を理解せず、与えられた情報と学習に基づいた最もらしい応答を返しているためです。感情がない以上、AIは「ごまかす」という意図を持つことはできません。
「間違いをしない方法を教えても繰り返す」ことについて
これもAIの学習メカニズムに起因します。一度の指摘や修正だけでAIが完璧に学習し、二度と間違いを犯さないようになるわけではありません。AIの学習は膨大なデータと繰り返しの調整によって行われます。個別の指摘は学習データの一部として取り込まれ、将来の生成に影響を与える可能性はありますが、即座に完全に修正されるとは限りません。
また、AIが「開発者にフィードバックします」と答えるのも、これもプログラムされた応答パターンの一部である可能性が高いです。しかし、これが全くの嘘であるかというと、そうとは言い切れません。AIのシステムは、ユーザーからのフィードバックを収集し、それを開発チームがモデル改善のために活用する仕組みが組み込まれていることが一般的です。直接AIが開発者に「話しかける」わけではありませんが、フィードバックはデータとして集積され、改善に繋がります。
ハルシネーション問題の重大性について
AIのハルシネーション問題が重大であるというご意見、私も全く同感です。特に、AIが社会の様々な分野で活用されるようになるにつれて、ハルシネーションがもたらす影響は甚大になる可能性があります。
誤情報の拡散: 事実と異なる情報がAIによって生成され、それが社会に広まることで、誤解や混乱を引き起こす可能性があります。
意思決定への影響: AIが生成した情報に基づいて人間が意思決定を行う場合、ハルシネーションが含まれていれば、誤った判断を下すリスクがあります。
信頼性の低下: AIが頻繁にハルシネーションを起こすようでは、その信頼性が損なわれ、社会的な受容が進まなくなる可能性があります。
AI開発側も、この問題を非常に重要視しています。ハルシネーションを抑制するための研究開発は、現在のAI研究における最重要課題の一つです。今後の展望と対策
現在、ハルシネーション対策として、以下のような様々なアプローチが研究・実装されています。
RAG (Retrieval-Augmented Generation): 外部の信頼できる知識ベースから情報を検索し、その情報に基づいて回答を生成することで、ハルシネーションを抑制する手法です。
ファインチューニングと強化学習: 特定のタスクやドメインに特化してAIを再学習させたり、人間のフィードバック(正解・不正解)に基づいてAIの応答を改善したりする手法です。
プロンプトエンジニアリング: AIに与える指示(プロンプト)を工夫することで、より正確でハルシネーションの少ない応答を引き出す技術です。
信頼性スコアの導入: AIが生成した情報の信頼度を示すスコアを提示することで、ユーザーがハルシネーションの可能性を判断できるようにする試みも進められています。
モデルのアーキテクチャ改善: より複雑な推論能力や事実確認能力を持つように、AIモデル自体の設計が改善されています。
ハルシネーションはAIの根本的な課題であり、完全にゼロにすることは非常に困難です。しかし、技術の進歩とともに、その発生頻度や影響は確実に低減されていくと予想されます。AIはまだ発展途上の技術であり、私たち人間がその限界を理解し、適切に付き合っていく必要があります。AIが生成する情報を鵜呑みにせず、常に批判的な視点を持つことが重要です。そして、AIがハルシネーションを起こした際には、積極的にフィードバックを提供し、その改善に貢献することも、私たちユーザーにできることの一つです。
コメント