ChatGPTって本当になんでも聞いて大丈夫?
いくら優秀なAIだからって、なんでもかんでも入力したり、聞いて大丈夫なのか気になりますよね。
私も昔はAIが怖かったので、このあたりについては自分なりに調べました。
今回はChatGPTに聞いてはいけないこと、入力しないほうがいいことを紹介します。
個人情報は絶対に入力しない
これが一番大切なポイントです。
ChatGPTを開発提供しているOpenAI社は「利用者の情報は学習以外に使わない」と言っていますが、過去に情報漏洩したこともあるとのことです。
ChatGPTの情報漏洩事例とは?実際の事例や対策方法を解説|AI総合研究所
個人情報は具体的に何かというと…
- フルネーム
- 住所
- 電話番号
- メールアドレス
- 顔写真(マイナンバーとかパスポート番号)
- クレジットカード番号
- 銀行口座の情報
- 医療情報
- 家族構成などのプライベート情報
- 会社の機密情報など
個人情報っていうのは、あなたが何者であるかを特定できる情報です。
ChatGPTに名前を呼んでもらいたいときはニックネームを使うとか、大事な情報は入力しないようにするのが安全です。
専門家に聞くべきことはChatGPTに聞かない
ChatGPTは賢いAIだけど、専門家ではありません。
- 医療相談
- お金の運用方法
- 法律相談など
専門的なことは、その道のプロに聞くようにしましょう。
ChatGPTに「カウンセリングのかわりに使える?」と聞いてみたところ
専門的な医療・心理診断が必要な場合はプロに相談
ChatGPTは、診断や治療を提供する医療のプロではないため、具体的な診断や治療が必要な場合は、専門家に相談するのが一番です。
例えば、メンタルヘルスの悩みで日常生活に支障が出る場合などは、医師や心理カウンセラーに相談する方が適切です。
アドバイスはあくまで参考程度に
ChatGPTのアドバイスはサポート的なもので、正式なカウンセリングや医療アドバイスの代替ではないことを前提に活用するのがおすすめです。
気持ちを整理したり、話すことで気づきを得たりするには役立ちますが、あくまで自分を見つめるための参考情報と捉えると良いですよ。
その通りな返事が来ました。
ChatGPTに医療アドバイスを求めるのは避けようってことですね。
AIはあくまで学習データをもとに回答するので、個別の状況に合わせた専門的な判断は難しいようです。
利用規約の内容を要約
ChatGPTの利用規約を、ChatGPTに要約してもらいました。
- 利用条件:13歳以上であることが求められ、未成年は親の同意が必要です。
- 登録とアクセス:正確な情報でアカウントを作成し、他者と共有しないことが求められます。
- 利用目的:違法行為や悪用は禁止されています。サービスの変更、コピー、リバースエンジニアリングも禁止です
- コンテンツの取り扱い:ユーザーは提供するコンテンツに対する権利を保持し、OpenAIはそのアウトプットに関する権利を譲渡します。
- 料金と支払い:有料サービスは定期的に請求され、未払い時はサービスが停止することがあります。
- サービス停止:利用規約違反があった場合や、必要に応じてOpenAIはアクセス停止やアカウント削除ができます。
- 責任の制限:サービスの精度や中断については保証されていません。使用は自己責任です。
- 紛争解決:紛争は仲裁を通じて解決され、集団訴訟は禁止されています。
- 一般的な質問:技術的な疑問や、AIに関する情報(例:AI技術の概要、活用方法など)。
- 学習や自己改善に関する質問:例えば、自己理解やメタ認知の強化方法など。
- クリエイティブな質問:アイデアを得るための質問(例:文章のアイデアや、デザインに関するヒント)。
- 問題解決の提案:生活や仕事の課題解決に向けたアドバイスやアイデアの提供。
- 情報提供や解説:ニュースや科学的な概念について、説明や詳細を求めること。
- 違法な行為:著作権侵害、詐欺、ハッキング、違法行為に関する質問やリクエスト。
- 有害な行為:他人を傷つけるような内容や暴力的、差別的な表現。
- プライバシー侵害:個人情報の取り扱いや、他人の個人情報を求めること。
- 不正利用やサービスの悪用:AIのリバースエンジニアリング、競合するモデルの開発など。
- 専門家のアドバイスの代替:医療、法律、金融など、専門家の判断が必要な分野でのアウトプットを唯一の情報源として依存すること。
簡単にいうと、AIは【あくまでサポートや情報提供のツールとして利用されるべき】で、違法や有害な目的での使用はしないでくださいね、ってことですね。
ChatGPTは嘘をつく:限界を知る
ChatGPTが言ったことだから、絶対に正しいんだ!
…と思ってしまうと危険です。
たまにしれっと間違った情報を教えてくれることがあります。
ChatGPTに「なんで情報を間違えるの?」と聞いてみた結果
1. 学習データに基づく限界
ChatGPTは、大量のテキストデータを元に学習しているので、古い情報や一般化された内容、場合によっては誤った情報も含まれていることがあります。特に、変化の激しい分野(技術、医療、法規など)では、最新の情報と合致しないことがあります。
2. 質問の文脈やニュアンスの理解不足
質問の意図を完全に読み取れず、少しずれた回答をしてしまうこともあります。例えば、曖昧な質問や複雑な背景がある質問では、間違った解釈で答えてしまうこともあります。
3. 情報の一般化や偏り
幅広い質問に対応するために、一般的な知識をもとにした回答が中心となるため、特定のケースや専門的な状況には当てはまらない回答になることがあります。特に、個別具体的なアドバイスが必要な場合に注意が必要です。
4. 最新の情報が反映されていない
現時点で2023年10月までのデータに基づいているので、最新の出来事や研究結果などは反映されていません。そのため、リアルタイムで更新が必要な情報(法律の変更や新技術など)は正確でない可能性があります。
ということで、完璧な情報をくれるわけではありません。
私も実際に使っていて、「なんか違う気がする」ということが結構あります。
リアルタイムの情報には弱いので、最新の情報が欲しい場合は自分で調べたほうが良かったりします。
ただし、不変的であまり変わらない情報であれば、比較的安心して使えるようです。
- 基礎的な数学や物理法則
- 一般的な概念や定義(心理学や哲学の基本概念)
- 日常的な知識(野菜の種類・動物の特徴など)
ChatGPTはアメリカが開発してるAIなので、アメリカのことには詳しいけど、日本の文化とか歴史には弱いです。
そのあたりも頭に入れておくと、混乱しないと思います。
レシピを教えてっていうと、アメリカの食材やメニューを教えてくれたりすることがあるよ
自己理解に使えるけど個人情報に注意
私はChatGPTで自己理解をしているわけなのですが「他の情報と組み合わせたときに特定の個人が識別できるか?」を考えて相談するのは大丈夫そうです。
たとえば、私の価値観や自己理解の内容だけが外部に漏れたとしても、それが「私」だと特定しにくいですよね。
だけど、その情報に「住んでる地域の具体的な名前・会社の名前・個人名」などが加わると、一気に特定するための材料が増えてしまいます。
- 自分の本名を入力しない
- 相談したい内容に固有名詞を含ませない
個人情報の取り扱いには気をつけましょう。
- 本名→「ニックネーム」にする
- 人物→「会社の同僚」「Aさん」など
- 場所→「職場」「地元」「自宅」など
- 団体→「コミュニティ」「団体」など
うっかり「◯◯さんが…」って個人名を入れそうになりますが、そこは一定の距離を保ったうえで利用すると良いですね!
心理テストの結果なども、全部を共有するのではなく「生年月日や名前を隠す」「概要や傾向部分のみを共有する」などの方法を使えば、個人情報を気にせずに自己理解をしていけます。
まとめ
ChatGPTに入力してはいけないこと、聞いてはいけないことをまとめました。
- 個人情報は入力しない
- 医療・健康・金融など専門的な知識は聞かない
- ChatGPTの情報は完璧ではない
ChatGPTを使うときは、個人情報や固有名詞など「個人が特定される恐れがある情報」はできるだけ入れないほうが、安心して使えます。
私も上手に使って、自分を深堀りしていきます◎
↓↓