0001逢いみての… ★
2023/03/30(木) 00:49:52.86ID:CAP_USERChatGPTが登場して以来、世界中で多くの人々がこのチャットAIを利用しており、エッセイを作成したり、詩を作ったりしています。ChatGPTの利用例はこれだけでなく、ビジネスの分野にまで侵食していると、Cyberhavenが指摘しています。
Cyberhavenの製品データによると、2023年3月21日時点で顧客企業の8.2%の従業員がChatGPTを職場で利用しており、6.5%がChatGPTに企業データを入力したことがあるそうです。
一部のナレッジワーカーは、ChatGPTのようなAIツールを利用すると生産性が10倍向上すると語っていますが、JPモルガンやベライゾンなどの企業は機密データの漏えいを危惧し、従業員のChatGPTへのアクセスを禁止しています。
OpenAIはユーザーがChatGPTに入力したデータをAIモデルのトレーニングに使用しています。そのため、ユーザーがChatGPTに開発中のソフトウェアのソースコードや、患者の医療記録などを入力することに対するセキュリティ上の懸念が高まっています。実際、Amazonの弁護士は従業員に対して機密データをChatGPTに入力しないようにと警告しています。
Cyberhavenは従業員が「ChatGPTにデータを入力した」場合、以下のような事態が起こり得ると警告しています。
・ある企業の幹部が2023年のビジネス戦略をまとめた文書の一部を切り取り、ChatGPTに入力してプレゼンテーション用のパワーポイント作成を依頼しました。将来、別のユーザーが「企業の今年の戦略的優先事項は何か?」と入力した場合、ChatGPTが前述のビジネス戦略をベースに回答してしまう可能性があります。
・医師が患者の名前と病状などの詳細を入力し、ChatGPTに患者の利用している保険会社へ送付する手紙の作成を依頼。すると、将来的にChatGPTが別のユーザーに医師が入力した情報をベースに回答を行う可能性が出てきます。
また、ChatGPTでは2023年3月に他人のチャット履歴が見えてしまうバグが発生していました。このようなバグが発生した際、意図しない形で入力した機密情報が漏えいしてしまう可能性があると、Cyberhavenは指摘しています。
企業がデータを保護するために利用している従来のセキュリティソフトウェアは、従業員がChatGPTを利用することを考慮して設計されたものではないため、これを防ぐことはできません。JPモルガンは従業員のChatGPT利用を禁止していますが、その前の段階で「何人の従業員がChatGPTを利用しているか」を特定できなかったと報じられています。
セキュリティソフトウェアがChatGPTに送信されるデータを保護することが非常に困難な理由を、Cyberhavenは以下の通りに挙げています。
1:ファイルまたはアプリからのコピー&ペースト
従業員が企業のデータをChatGPTに入力する時、ファイルをアップロードするのではなく、コンテンツをコピーしてウェブブラウザに貼り付ける形式で入力されます。多くのセキュリティソフトウェアは、機密タグが付けられているファイルがアップロードされないよう設計されていますが、コンテンツがファイルからコピーされてからは追跡することができません。
2:機密データには認識可能なパターンが含まれていない
ChatGPTに送信される企業データには、セキュリティツールが探す認識可能なパターン(クレジットカード番号や社会保障番号など)が含まれていないケースがよくあります。既存のセキュリティツールは問題のあるコンテキストを認識することができないため、ユーザーがカフェのメニューを入力しているのか、企業の買収計画について入力しているのかを区別することができません。
続く
以下ソース
https://gigazine.net/news/20230329-employees-feeding-sensitive-business-data-chatgpt/
★関連板★
■えっちな話題なら”ピンクニュース”
http://mercury.bbspink.com/hnews/
■新作AV情報なら”AV情報+”
http://mercury.bbspink.com/avplus/