
Netskope、個人用アプリと生成AIが重大なリスクをもたらすと警告
セキュリティとネットワークの分野で事業を展開するNetskopeの調査研究部門であるNetskope Threat Labsは、金融サービス業界における個人向けアプリと生成AIの利用状況に関する調査結果を発表した。この調査では、これらの技術の利用が規制データに重大なリスクをもたらす可能性があることが明らかになった。
調査によれば、金融サービス業界の従業員の13%が機密データを個人向けクラウドアプリにアップロードしているという。この問題に対し、83%の組織が何らかの対策を講じているものの、一部の企業では依然としてセキュリティ対策が不十分な状況である。個人向けアプリのデータポリシー違反の74%は、規制対象の個人情報や金融データの不正アップロードに関連しているとされる。
また、金融サービス業界の95%の組織が生成AIアプリを使用しており、ChatGPTが最も利用されている。しかし、その普及は頭打ちとなっており、Microsoft CopilotやGoogle Gemini、Anthropic Claudeなどの他の生成AIアプリの利用が増加している。生成AIアプリ内のデータポリシー違反は、知的財産、ソースコード、規制データがほぼ同等の割合で関連している。さらに、金融サービス業界の90%の組織が少なくとも1つの生成AIアプリをブロックしており、データ損失防止(DLP)やリアルタイムユーザーコーチングなどの戦略が採用されている。
ソーシャルエンジニアリングの脅威も深刻である。金融サービス業界では毎月、100人あたり約1.5人のユーザーがフィッシング詐欺やマルウェアの危険にさらされている。特に、GitHubがマルウェア配布に最も多く利用されているクラウドアプリケーションであり、フィッシング攻撃の約半数はクラウドアプリや銀行を装ったものであった。MicrosoftやDocuSign、Adobeなどのブランドが頻繁になりすましに使用されている。
Netskope Threat LabsのディレクターであるRay Canzanese氏は、金融サービス業界が取り扱う機密性の高い個人情報や財務情報は、攻撃者にとって魅力的な標的であると指摘する。彼らは主にソーシャルエンジニアリングを用いて組織への侵入を試みており、その結果として、毎月約1.5%のユーザーがフィッシングサイトへの誘導やマルウェアのダウンロードの被害に遭っている。このような攻撃の多さは、業界全体で強固なフィッシング対策とマルウェア対策が必要であることを示唆しているとしている。
添付画像一覧
