ロイター/Ipsosの世論調査によると、マイクロソフトやグーグルなどの企業がChatGPTの使用を制限しているにもかかわらず、多くのアメリカの従業員が基本的な業務を処理するためにChatGPTを利用していることが示されています。
人々はChatGPTを利用して日常業務を支援し、テキストの作成、情報の抽出、初期研究を行うことができ、作業効率の向上に寄与しています。ChatGPTはユーザーに大きな便利さをもたらしていますが、一部の企業は知識と戦略面でのリスクを懸念しています。
7月11日から17日にかけて行われたオンラインのAI調査によると、受け答えした人の28%が業務で頻繁にChatGPTを使用しており、22%の人だけが雇用主からこの外部ツールの使用を明確に許可されていると述べています。
ロイターがIpsosと共同で行った2625人の成人を対象とした調査では、10%の回答者が上司から外部AIツールの使用を明確に禁止されていると述べ、約25%の人が自社がこの技術の使用を許可しているかどうか不確実だとしています。
ChatGPTはチャットボットで、昨年11月の発売以来、史上最も急成長したアプリケーションの一つになりました。ChatGPTの開発者であるOpenAIは、規制当局との間で衝突が生じています。一つの争点は、OpenAIが大規模なデータ収集を行い、プライバシー規制当局から批判を受けており、個人のプライバシーとデータ保護に関する懸念を引き起こしています。
AI監査員は異なる会社から来ており、彼らはChatGPTが生成した会話内容を閲覧する可能性があります。研究者は、類似のAIが訓練プロセスで収集したデータを再現し、元の会話と似た内容を再生成することができることを発見しました。これらのAIツールを使用する際には、データのプライバシーと保護の重要性を考慮する必要があります。
企業のセキュリティ会社Oktaの副社長であるBen Kingは、生成型AIサービスを使用する際、ユーザーはそのデータ収集方法について深い理解を持っていない可能性があると述べています。多くのAIサービスの利用時にユーザーが契約を結んでいないこと、特に無料のサービスの場合はそうです。企業はデータのプライバシーとセキュリティにさらに注意を払い、使用中に適切な保護と管理を受けられるようにする必要があります。
個々の従業員がChatGPTを使用することでどのような影響が生じるかについて、OpenAIはコメントを拒否しました。OpenAIは最近の記事で、パートナーのデータを使用する際にはその使用目的を尊重し、許可なくそれらのデータをチャットボットのさらなる訓練に使用しないと述べています。
GoogleのBardを使用する際には、ユーザーの異なるタイプのデータが収集される可能性があります。同社はユーザーに自身のアカウントから履歴を削除することを許可しており、AIに入力されたコンテンツも同様に削除しますが、Googleはさらに詳細については説明していません。
Tinderのアメリカの従業員は、会社が正式にChatGPTの使用を認めていないにもかかわらず、日常のメールなどの業務に部分的に使用していると述べています。会社の方針ではこの技術の使用を禁止していますが、面白いカレンダーの招待状や退職の挨拶メール作成、一般的な研究など、一部の日常業務でそれを使用しています。彼らは会社の内部情報を漏らさない一般的な方法を使用して、会社の規定を遵守しつつ、自分のプライバシーを保護しています。
ロイターはTinderの従業員がChatGPTを使用している具体的な状況を確認することができませんでしたが、Tinder社は従業員がデータの安全な使用を確実にするために定期的にガイダンスを提供していると述べています。
今年5月、サムスン電子は従業員が機密コードをプラットフォームにアップロードしたことを発見し、ChatGPTや類似のAIツールの使用を禁止しました。サムスンは8月3日の声明で、生成型AIの安全な使用環境を作るための審査措置を講じており、それらが完全に準備でき次第、社内デバイスでの生成型AIの使用を一時的に禁止していると述べました。
今年6月、ロイターはAlphabetが世界中でBardチャットボットのプロモーションを行い、世界各地の従業員にBardチャットボットの使用方法について注意を促すと報じました。
Googleによると、Bardが望ましくないコードの提案をすることはありますが、このインテリジェントツールはプログラマーの業務効率を向上させるという実用的な意味を持っています。同社はまた、Bardの技術的な限界についての透明性を確保することに努めると述べています。