ChatGPTは危険。サムスン社員の大失態から日本企業が学ぶべきこと
質問だけではなく、要約からプログラミングまで幅広い用途で活躍するChatGPT。しかし、便利なあまりに社員が機密情報まで共有してしまう事例が相次いでいます。サムスンでは今回、ChatGPTの解禁からたった20日程度で、3件も情報流出が起こっていたことが判明しました。
*Category:
サムスン社員がChatGPTに情報流出、会議内容をまるごと漏らした事例も
韓国メディア「Economist」によると、サムスン社内で起こった最初の事件は、社員が半導体設備計測データベースのソースコードをChatGPTにコピー&ペーストしたというもの。この社員は、コードの修正プログラムを見つけるためにChatGPTを利用していたと言われています。
サムスン電子DS部門の役職員A氏は、半導体設備計測データベース(DB)ダウンロードプログラムのソースコードを実行中にエラーを確認した。問題となったソースコードを全てコピーしてChatGPTに入力し、解決方法を問い合わせた。サムスン電子の設備計測に関するソースコードがオープンAIの学習データとして入力されたことになる。
他にも、同じような情報流出が2件報告されています。一例では、社員がChatGPTに議事録を作る録音した会議内容を全てChatGPTに流してしまったこともあったそうです。
従業員B氏は、歩留まり・不良設備の把握のために作成したプログラムコードをChatGPTに入力する事故を起こした。関連ソース全体をChatGPTに入力し、コードの最適化を要請した。社員C氏は、スマートフォンで録音した会議内容をNaver Clovaアプリケーション(アプリ)を通じて文書ファイルに変換した後、ChatGPTに入力した。会議録作成要請が目的だ。
問題なのは、ChatGPTが送信されたクエリを削除しないことです。Open AIは、これらのプロンプトが保存され、AIモデルの改良に使用される可能性があるため、ユーザーは機密データを入力するべきではないと明確に警告しています。
サムスンは以前、従業員が仕事でChatGPTを使用することを禁止していましたが、その後、この事件の3週間前にAIツールの使用禁止を解除することを決定していました。現在サムスンはChatGPTのプロンプトに1024バイトの制限を設けることで、この問題を解決しようとしているとのこと。
このような問題が起こったのはサムスンだけではありません。以前にはAmazonでも同様の問題が起こっており、機密情報を共有しないように社員に通達しました。世界的な大企業でさえChatGPTは管理が難しく、日本企業も他人事ではない問題です。
「機密情報を共有してはいけない」というのは当然のように感じられますが、ChatGPTはあまりに便利なだけについ過信しがちになるのは、使ってみればよく分かるはずです。ただ禁止するだけではなく、AIやChatGPTにどのようなリスクがあるのかをしっかりと社内で共有し、その上でどう付き合うのかを決めるべきでしょう。
\ 最新記事 /
![]() Google新AI「Gemini」の公式デモ動画は〝フェイク〟との指摘 |
![]() iPhoneを「最強のAIスマホ」にするAppleの〝お家芸〟 |
![]() 目ざわりな「穴」をiPhone画面から消し去るテクノロジー |
![]() Google Pixelに「ゲーム性能の大幅強化」アップデート、まもなく登場のウワサ |
![]() AI動画編集サポート機能がすごい「Filmora(フィモーラ)」の便利機能7選![PR] |
![]() 月額0円「SIM・スマホ通信プラン」3選 |
![]() Twitchが「ゲーム大国」韓国から撤退した複雑事情 |
※収益化について:本サイトに記載されたアフィリエイトリンクを経由して商品の購入などが行われた場合、売り上げの一部が製作者に還元されることがあります。※免責事項:この記事はテクノロジーの動向を紹介するものであり、投資勧誘や法律の助言などではありません。掲載情報によって起きた直接的及び間接的損害に関して、筆者・編集者並びにAppBank 株式会社は責任を負いません。