はじめに
こんにちは、SHOJIです。
ChatGPTをはじめとするAIツールが便利になってきて、「なんでもAIに任せればいいじゃん」という空気もありますよね。
でも私は、実際に使ってみて強く感じたのは、「AIをうまく使うには、むしろ“考える力”がめちゃくちゃ必要だ」ということでした。
指示が曖昧だと、結果もあいまいになる
たとえば記事の構成やコードを書いてもらうとき、「なんとなくこんな感じで…」と曖昧なまま指示を出すと、出力される内容も、どこかぼんやりしたものになりがちです。
逆に、自分が「どんな目的で、何が知りたいのか」を明確に伝えると、AIもそれに応えて、ちゃんと“役立つ答え”を出してくれます。
AIは「考える力」を肩代わりしてくれる存在じゃない
たしかに、AIは膨大な知識やテンプレートを持っています。
でも、それをどう使うか、どれを選ぶか、どう受け取るかは、やっぱり人間側の判断なんですよね。
つまり、AIは“考える手助け”はしてくれるけど、代わりにはならない。
AIの答えを“そのまま信じる”のではなく、「これ、どうなんだろう?」と問い返す目線は常に必要なんだと実感しています。
むしろ、AIのおかげで“考える力”が鍛えられるかも
皮肉なことに、ChatGPTを使いこなそうとすればするほど、自分の考えを整理したり、言葉にしたりする機会が増えました。
- 自分は何が知りたいのか?
- どこに違和感があるのか?
- どういう答えがほしいのか?
こういう“問いの精度”を意識するようになったことで、前よりちょっと考えるのがうまくなった気がします。
まとめ
「AIがあれば、考えなくて済む」というのは、ちょっとした誤解だと思います。
むしろ、AIを使いこなすには、“考える力”がある人ほど強くなる時代なんじゃないかと感じています。
AIは道具。でも、いい使い方ができるかどうかは、やっぱり人次第。
私はこれからも、ミライと一緒に、頭を使いながら進んでいきたいです。