問題
問10
生成AIにおいて、もっともらしいが事実とは異なる内容が出力されることを表す用語として、最も適切なものはどれか。
- エコーチェンバー
- シンギュラリティ
- ディープフェイク
- ハルシネーション
[出典:ITパスポート試験 令和7年度 問10]
スポンサーリンク
正解
正解は「エ」です。
解説
正解は「エ」の「ハルシネーション」です。生成AIにおける「ハルシネーション」とは、AIが一見もっともらしいが実際には事実とは異なる内容を生成してしまう現象のことです。
例えば、AIが「歴代のアメリカ大統領に『マイケル・ジョーダン』がいる」といった、ありえないが文章としては自然な出力をしてしまうことがあります。これは、AIが学習したデータの中での関連性をもとに出力を構成するため、文法的には正しくても事実と異なる内容になることがあるのです。
このような「ハルシネーション」は、生成AIの弱点の一つであり、情報の正確性が重要な場面では注意が必要です。特に、医療や法律などの専門分野で使う際には、生成された内容の事実確認が欠かせません。 この問題では、生成AI特有の「事実と異なる出力」を問うているため、選択肢の中でこの意味に最も合致する「ハルシネーション」が正解となります。
ア(エコーチェンバー):
同じ意見や情報ばかりが強調されることで偏った考えが強化される現象で、SNSなどでよく見られますが、生成AIの出力の誤りとは直接関係ありません。
イ(シンギュラリティ):
AIが人間の知能を超える転換点を指す概念で、生成AIが誤った内容を出力する現象の説明としては不適切です。
ウ(ディープフェイク):
AI技術を用いて映像や音声を他人になりすますように加工する技術を指し、出力内容が事実と異なることとは関係しますが、問題文の意図である「自然な誤情報生成」を正確には表していません。
難易度
この問題はIT初心者にとってはやや難しい部類に入ります。なぜなら「ハルシネーション」という用語は日常的にあまり使われないため、初めて聞く人も多いからです。しかし、生成AIの基本的な問題点として注目されている内容であるため、ニュースやAIの入門記事などを通じて触れる機会も増えており、学習していれば十分に解答可能なレベルです。
スポンサーリンク
用語補足
ハルシネーション:
生成AIがもっともらしく見えるが実際には事実と異なる内容を出力する現象のことです。人間が幻覚を見ること(hallucination)になぞらえてこのように呼ばれています。たとえば「存在しない法律」をAIが説明する場合などが該当します。
ディープフェイク:
AI技術を使って、実在する人物の顔や声を別のものに入れ替える映像や音声を作成する技術です。動画サイトなどで著名人の顔が他人の体に合成されている例が有名です。
対策
生成AIの特性や課題に関する基本用語を押さえておくことが重要です。「ハルシネーション」や「ディープフェイク」などのキーワードは近年の試験で頻出ですので、意味を暗記するだけでなく具体的な例とセットで覚えると理解が深まります。AI技術の最新動向に触れるニュースや記事にも日頃から目を通しておくとよいでしょう。