イギリス
最近、ChatGPTの利用について、AIチャットボットシステムの活用に伴う危険性が指摘されています。ChatGPTを利用する企業は、以下のような危険性をはらんでいます。 サイバー攻撃 ChatGPTのコード生成能力によるもので、データの漏洩につながる。
ChatGPTは、組織の成長と効率化を支援する能力を持っているため、企業の間で人気の商品となっています。このチャットボットは、最近、次のような大きな賞賛を受けました。 マイクロソフト きょうどうそうせつしゃ ビルゲイツと、今後のAIの有用性を確信している。
Cyberhavenの調査により明らかになった、企業向けのChatGPTに関する懸念は、スタッフがチャットボットにコピー&ペーストする情報の11%が機密データであるということです。この調査では、医療従事者が患者の個人情報をチャットボットに挿入するという心配な事例が明らかになり、この問題の影響はまだ不明です。
ChatGPTをめぐっては、プライバシーに関する懸念が高まっており、以下のような有名な組織が存在します。 アマゾン、JPモルガン、アクセンチュアは、従業員によるチャットボットの使用を制限しています。
英国の大手データ侵害対策会社Hayes Connorのリーガル・ディレクターであるRichard Forrestは、ChatGPTのビジネスシーンにおける裁定について、「ChatGPTや他の類似の大規模言語モデル(LLM)は、まだ非常に発展途上にあります。つまり、ビジネスのコンプライアンスや、その利用をめぐる規制という点では、未知の領域にあるのです。”
さらに、ChatGPTの性質上、「これらのシステム内でのデータの統合と検索に関する継続的な議論が巻き起こっている」と付け加えました。これらのサービスが適切なデータ保護とセキュリティ対策を行っていない場合、機密データが意図せず漏洩する可能性があります “と述べています。
フォレストは、多くの人がこれらの技術の仕組みや機能を正しく理解していないため、「不用意に個人情報を送信してしまう」ことにつながっていると言います。さらに、インターフェース自体が必ずしもGDPRに準拠しているとは限りません。”
また、必要なトレーニングを受けずにスタッフにChatGPTを活用させている企業は、「知らず知らずのうちにGDPRのデータ侵害にさらされ、多額の罰金、風評被害、法的措置につながる可能性がある」と強調しています。そのため、適切なトレーニングや規制措置なしに職場のツールとして使用することは、お勧めできません。”
フォレストは、”ビジネス内で規制が策定されるように行動し、AIチャットボットがデータを統合して取得する方法について従業員を教育する必要がある “として、最終責任は企業にあると考えます。
英国では、さまざまな分野でデータ漏洩が発生する最大の理由の1つは、ヒューマンエラーの結果です。AIが企業内でより活用されるようになった今、トレーニングの強化が必要であり、優先順位が高い。
英国の責任について、フォレストは、”AI規制に対するプロイノベーションのアプローチ開発のための議論に参加すること “が不可欠だと考えている。
企業がデータ漏洩やGDPR違反を回避してChatGPTの危険性を警戒し続けるために、Forrestは、入力されたものはパブリックドメインでアクセス可能になる可能性があると考えるようアドバイスしています。また、従業員は社内データやソフトウェアコードを入力すべきではないと考えています。
その他、フォレストからのアドバイスとして、秘密保持契約書をAIの使用をカバーするように改訂することを確認すること。また、明示的な条項を作成し、会社のスタッフの契約に入れる必要があります。
フォレストは、AIを活用するためのトレーニングを十分に行い、企業ポリシーや従業員用ガイドを作成することが必要であると考えています。