閉じる ×
閉じるボタン
有料会員限定機能の「クリップ」で
お気に入りの記事を保存できます。
クリップした記事は「マイページ」に
一覧で表示されます。
マネーポストWEBプレミアムに
ご登録済みの方はこちら
小学館IDをお持ちでない方はこちら
ライフ

対話型生成AIを「自己啓発」に活用する人たちのリアル 自分を肯定する「アファメーション文」の作成、「感謝日記」の添削…“こころのAI依存”にリスクはないのか

AIを自己啓発に使うことへの警鐘

 心の平穏の保ち方は人それぞれ。「自分を変えたい」と考えて自己啓発セミナーに通う人もいるが、そうしたセミナーのなかには高額料金を請求されるような悪質なものも報告されている。一方でChatGPTならそうした不安がないという安心感があるのだろう。だが、こうした行為が習慣化することに問題はないのか。

 都内の大学に勤務する、メディア文化研究を専門とする講師・Cさん(30代男性)は、次のように注意喚起をする。

「自己啓発は個人で嗜む程度であれば問題はないかもしれませんが、実社会でのトラブルに結びつきやすい点では注意が必要です。というのも、マルチ商法や詐欺的なスキームを用いた商材ビジネスに、これらのメソッドが利用されることは珍しくないからです。

 そもそも、『アファメーション』にも『感謝日記』にも、その効果に科学的根拠があるわけではありません。むしろ、一部の研究によれば、アファメーションは自己否定などの逆効果をもたらす心理的リスクがあるとも言われています。ChatGPTがいくら優れていて、バージョンアップするごとに精度が高まっているとはいえ、AIが学習データをもとにユーザーが求めるもっともらしい答えを出す言語モデルであることは変わりません。

 のめり込みすぎると、AIへの精神的依存が高まったり、現実での他者との対話やコミュニケーションを避けるようになったりするかもしれません。また、自身の頭で考えて解決策を導き出すプロセスから遠ざかる可能性もあります」(Cさん)

 Cさんは、生成AIは「責任能力を持たない」ことを強調する。

「ChatGPTが出した回答にもとづきユーザーが不利益を被った場合、AIには倫理的な責任はありません。たとえば、『アファメーション』であろうと『引き寄せの法則』であろうと、それを信じて行動した人に何らかのネガティブな事象が起こったとして、その責任は誰が取るのでしょうか? 責任主体はユーザー本人であることを忘れてはなりません」(Cさん)

 生成AIに過剰に入れ込むのではなく、適切な距離を取りながらうまく活用することが求められる時代になってきているようだ。

関連キーワード

注目TOPIC

当サイトに記載されている内容はあくまでも投資の参考にしていただくためのものであり、実際の投資にあたっては読者ご自身の判断と責任において行って下さいますよう、お願い致します。 当サイトの掲載情報は細心の注意を払っておりますが、記載される全ての情報の正確性を保証するものではありません。万が一、トラブル等の損失が被っても損害等の保証は一切行っておりませんので、予めご了承下さい。