AIを自己啓発に使うことへの警鐘
心の平穏の保ち方は人それぞれ。「自分を変えたい」と考えて自己啓発セミナーに通う人もいるが、そうしたセミナーのなかには高額料金を請求されるような悪質なものも報告されている。一方でChatGPTならそうした不安がないという安心感があるのだろう。だが、こうした行為が習慣化することに問題はないのか。
都内の大学に勤務する、メディア文化研究を専門とする講師・Cさん(30代男性)は、次のように注意喚起をする。
「自己啓発は個人で嗜む程度であれば問題はないかもしれませんが、実社会でのトラブルに結びつきやすい点では注意が必要です。というのも、マルチ商法や詐欺的なスキームを用いた商材ビジネスに、これらのメソッドが利用されることは珍しくないからです。
そもそも、『アファメーション』にも『感謝日記』にも、その効果に科学的根拠があるわけではありません。むしろ、一部の研究によれば、アファメーションは自己否定などの逆効果をもたらす心理的リスクがあるとも言われています。ChatGPTがいくら優れていて、バージョンアップするごとに精度が高まっているとはいえ、AIが学習データをもとにユーザーが求めるもっともらしい答えを出す言語モデルであることは変わりません。
のめり込みすぎると、AIへの精神的依存が高まったり、現実での他者との対話やコミュニケーションを避けるようになったりするかもしれません。また、自身の頭で考えて解決策を導き出すプロセスから遠ざかる可能性もあります」(Cさん)
Cさんは、生成AIは「責任能力を持たない」ことを強調する。
「ChatGPTが出した回答にもとづきユーザーが不利益を被った場合、AIには倫理的な責任はありません。たとえば、『アファメーション』であろうと『引き寄せの法則』であろうと、それを信じて行動した人に何らかのネガティブな事象が起こったとして、その責任は誰が取るのでしょうか? 責任主体はユーザー本人であることを忘れてはなりません」(Cさん)
生成AIに過剰に入れ込むのではなく、適切な距離を取りながらうまく活用することが求められる時代になってきているようだ。