生成AIの統合は商業分野において確立された慣行を革新しているが、多くのセキュリティリスクを引き起こす。 この革新的な技術に対する熱意は、増大する脅威に対しての*警戒心を高める*ことと伴っている。 最近の報告は、これらのツールの採用が企業を懸念されるデータ侵害にさらしていることを警告している。
特に企業のソースコードなどの機密データが危険にさらされており、セキュリティ管理に関しての疑問が生じている。従業員によるこれらのアプリケーションの無謀な使用は、この脅威を強化し、驚くべき規制違反を引き起こしている。この常に進化する状況において、厳格で積極的なガバナンスの必要性が避けられないことが明らかになっている。
商業における生成AIの採用
商業セクターは、95%の企業がこれらのアプリケーションを統合しているという意味で、生成AIの重要な採用を特筆している。 この大規模な採用は、昨年の73%から劇的な増加を示している。この現象は、小売業者が市場で後れを取らないように感じている緊急性を明らかにしている。
生成AIの危険性
間違いなく利点はあるが、これらのツールの組み込みは企業に多数のリスクをもたらす。 AIの統合はサイバー犯罪に対する攻撃の展開面を広げ、機密データの漏洩のリスクを高める。 Netskopeによって実施された最近の調査は、この警告的な現実を示しており、業界でのデータポリシー違反が高いことが示されている。
より厳格なアプローチへの移行
この報告は、業界におけるマインドセットの変化を強調しており、無秩序な採用からより真剣でコーポレートな管理への移行を示している。 生成AIのために個人アカウントを使用することは劇的に減少し、74%から36%にまで減少した。一方、企業が承認したAIツールの使用は倍増し、52%の組織に達している。
AIツールの人気
ChatGPTは、81%の企業に雇用されている不動の採用のチャンピオンである。 しかし、Google GeminiとMicrosoft Copilotもそれぞれ60%と56%で速やかに地位を確立した。 ChatGPTの最近の人気の低下とMicrosoft 365 Copilotの急増は、企業の統合に対する好みの変化を示唆している。
増大するセキュリティリスク
セキュリティに関連する課題は、これらのツールによる大量の機密データの取り扱いによって悪化している。 データポリシー違反は、47%が企業のソースコードに由来し、次いで39%が機密情報などの規制データであることを明らかにしている。
規制と危険なアプリケーションの禁止
これらのセキュリティの懸念に直面して、ますます多くの小売業者が危険すぎると見なされるアプリケーションの禁止を選択している。 ZeroGPTは、ユーザーコンテンツの保存や第三者サイトへのデータリダイレクトに関する懸念から、ブラックリストに頻繁に登場する。
企業向けAIプラットフォーム
高まる警戒心は小売企業を、主要なクラウドサービスプロバイダーが提供するより真剣な企業向けAIプラットフォームに向かわせている。これらのソリューションは、プライベートでのモデルホスティングや独自のツールの開発を促進することで、より大きなコントロールを可能にする。 Azureを介したOpenAIとAmazon Bedrockが首位を分け合い、それぞれ16%の企業によって使用されている。
不適切な統合のリスク
これらのソリューションにもかかわらず、リスクは残る。不適切な設定は、企業の戦略的システムを攻撃にさらす可能性がある。ある調査によると、63%の組織がOpenAIのAPIに直接そのインフラを接続し、企業のシステムと自動化されたワークフローにAIを深く統合している。
マルウェアとクラウドセキュリティの実践
攻撃は信頼できる名前を利用して発展している。 Microsoft OneDriveなどのプラットフォームは、毎月11%の小売業者に影響を与える一般的なマルウェアのベクトルであり、GitHubは9.7%の攻撃にも関与している。これらの脆弱性は、職場での個人アプリケーションの使用によってしばしば増幅される。
データ保護ポリシー
無制限に使用される個人アプリケーションはデータ侵害を悪化させる。 FacebookやLinkedInなどのソーシャルメディアプラットフォームは、現代の職場環境の重要な部分を占めており、それぞれ96%および94%の企業によって使用されている。非承認のアプリケーションにアップロードする際の規制データの露出は76%の違反を占める。
厳格な管理の緊急性
Netskopeの調査結果は、業界のリーダーに即時の行動を促すべきである。ウェブトラフィック全体の完全な可視性、高リスクアプリケーションの制限、および厳格なデータ保護ポリシーの適用は、潜在的で破滅的な違反を避けるために必要となる。
商業における生成AIに関する一般的な質問:採用を削るセキュリティコスト
商業分野における生成AIの採用に関連する主なセキュリティリスクは何ですか?
主なリスクには、企業のソースコードのような機密データの露出、およびこれらのツールによって作成される大きな攻撃面によるサイバー攻撃への脆弱性が含まれます。
商業企業は、生成AIを使用する際にどのようにデータを保護できますか?
企業は厳格なデータ保護ポリシーを設け、未承認のアプリケーションの使用を禁止し、データに対する制御がより大きい認知されたAIプラットフォームに投資する必要があります。
商業分野で最も一般的に使用されている生成AIアプリケーションは何ですか?
ChatGPTが最も使用されているプラットフォームであり、次いでGoogle GeminiやMicrosoft Copilotツールもこの分野の企業に人気があります。
なぜ商業分野での企業のAI管理がこれほど重要になっているのですか?
AIの使用が増加する中、企業はデータ侵害を未然に防ぐためにこれらの技術の使用を監視・制御する必要があります。データ侵害は法的および財務的に深刻な影響をもたらすことがあります。
企業は「シャドウAI」現象を避けるためにどのような対策を講じていますか?
企業は組織が承認したAIツールを採用し、個人アプリケーションの使用を減らし、データセキュリティにおけるより良いコンプライアンスを確保しています。
企業内のシステムにAI APIを統合することは、どのような追加リスクをもたらしますか?
AI APIの内部システムへの直接統合は複雑性を増し、データ漏洩の可能性が高まる、特に誤った設定が行われた場合には。
企業が生成AIを使用する際に、最も頻繁に侵害されるデータの種類は何ですか?
最も一般的に侵害されるデータには、企業のソースコードと顧客の機密情報などの規制データが含まれます。
従業員の意識は、企業におけるAI関連リスクの緩和にどのような役割を果たしますか?
従業員の意識は重要であり、未承認のサービスの使用による重大なデータ漏洩のリスクを低減する役割を果たしています。
セキュリティ責任者はAIソリューションを採用する際に守るべきベストプラクティスは何ですか?
彼らはウェブトラフィックに対する完全な可視性を確保し、高リスクアプリケーションをブロックし、共有できる情報に対する厳格なデータ保護ポリシーを実施する必要があります。