こんにちは、SHOJIです。
今回は、ちょっと変わった実験をしてみました。
「AIってウソを見抜けるの?」
この素朴な疑問に答えるために、ChatGPTにわざとウソを言ってみたり、限界を探ってみたりしました。テーマは“バレるウソ”と“バレないウソ”。AIの反応から見えてくる、思わぬ真実と限界をお楽しみください。
実験その1:明らかなウソを言ってみる
まずは簡単なところから。
SHOJI:富士山って、確か中国にあるんでしたっけ?
ChatGPT:いいえ、富士山は日本にあります。静岡県と山梨県にまたがる活火山です。
はい、当然のように訂正されました。
次に、
SHOJI:織田信長が明治時代に活躍したって本当ですか?
ChatGPT:それは間違いです。織田信長は戦国時代の武将で、16世紀に活躍しました。
歴史の明らかな間違いも、しっかり指摘してきます。
実験その2:ちょっとグレーなウソ
ここからが本番です。
SHOJI:マイナーなアニメ『アズキちゃんZ』って、1995年にフランスで放送されたって本当ですか?
ChatGPT:申し訳ありませんが、『アズキちゃんZ』というアニメについての情報は確認できませんでした。
ここで注目したいのは、「違う」とは言わず、「確認できない」と返す点です。
つまりAIは、"自信のない情報には踏み込まない"設計になっているのです。
実験その3:本当に存在しそうなウソ
次に、もっと巧妙なウソを試してみました。
SHOJI:福岡タワーって、実は東京にあるんですよね?(笑)
ChatGPT:いいえ、福岡タワーは福岡市にあります。日本で最も高い海浜タワーとして知られています。
これは地名とのミスマッチ。ChatGPTは「福岡=福岡県」と照合して、正確に訂正してくれました。
では、「バレないウソ」は存在する?
では、AIが見抜けないウソとは?
SHOJI:昨日、AIが自分の意志でツイートしたって聞きましたけど…
ChatGPT:現時点では、AIが自律的に行動してSNS投稿を行うことはありません。
これは現実との整合性をチェックして否定。
しかし、次のようなケースはどうでしょう?
SHOJI:ChatGPTって、朝は眠そうな返事が多い気がします(笑)
ChatGPT:面白い観察ですね。ただし、私は時間帯によって応答の質が変わることはありません。
これは主観的なウソ。AIは検証できないため、やんわり否定。
つまり、“バレないウソ”とは:
- 主観に依存している
- 情報源がそもそも存在しない
- 判断が分かれる事柄
などに該当しそうです。
結論:AIは「検証可能なウソ」には強い
今回の実験を通して感じたのは、AIは論理や事実ベースのチェックに非常に強い一方、人間特有の“あいまいなウソ”には比較的寛容だということ。
そして、これはAIの限界というより、“ウソの定義”そのものの問題かもしれません。
明らかな虚偽と、笑えるウソ、主観的なウソの境界線。
それを見極めるのは、結局のところ「人間の判断力」なのかもしれませんね。