AIの影響と懸念
ISC2は、AIの専門知識とこれらの懸念を回避するための準備レベルの間に格差が広がっていることを明らかにした。
ISC2は、AIがセキュリティ上の利点をもたらす一方で、企業は脅威防止ポリシーに投資することで、サイバーと倫理の課題に対処しなければならないことを明らかにした。
従業員の間では、企業向けAIは避けられないものと見なされ始めている。
サイバーセキュリティをリードする非営利団体ISC2 Studyが実施した新しい調査では、AIがサイバー専門家に与える現実世界での影響と、その結果として企業がより良い準備をすることが急務であることが明らかになった。回答者の88%が、AIが現在または近い将来、自分たちの仕事に大きな影響を与えると見ており、35%がすでにAIの変革的な影響を目の当たりにしている。
ISC2は、AIがサイバー脅威に対抗し、安全の有効性を向上させる大きな可能性を秘めている一方で、企業がサイバーリスクを軽減し、インフラを保護するための備えを強化することが急務であることも強調している。
AIを安全に導入するために必要なコラボレーション
ランサムウェアの脅威を含むサイバー攻撃の数が記録的な水準に達する中、ビジネスの現場では、AIがビジネスの存続にとって非常に現実的な脅威をもたらすのではないかという大きな不安が広がっている。昨年行われた調査では、多くの組織が、デジタルの脅威によって来年には最終的に事業が停止に追い込まれるのではないかと懸念していることが語られている。
サイバーの専門家たちは、AIの完全な影響をまだ評価中だ。今後、この技術がセキュリティ・ツールにうまく統合されれば、企業のサイバー意識が高まるだけでなく、AIは今後、大きな企業価値を持つようになるかもしれない。
ISC2の報告によると、回答者の82%がAIによって仕事の効率が向上し、より価値の高い仕事に時間を割くことができるようになると楽観的な見方を示す一方で、75%はこの技術がサイバー攻撃やその他の悪意のある活動に利用されることを懸念している。
ISC2はまた、AIの専門知識とこれらの懸念を回避するための準備レベルの間に格差が広がっていることを発見し、サイバー専門家が現在懸念しているトップ3として、ディープフェイク、誤情報、ソーシャルエンジニアリングを挙げている。
ノートンの親会社であるGenは、特にソーシャル・エンジニアリング攻撃が2024年にはより顕著な脅威となることをすでに示唆しており、AIガバナンスの議論をさらに喚起している。
しかし、そのような懸念にもかかわらず、ISC2の調査では、AIを安全かつ倫理的に活用するためのポリシーが組織にあると答えたのは27%に過ぎなかった。実際、41%が、AIや機械学習技術の安全確保に関する専門知識は最小限か全くないと回答しており、万が一何か問題が発生した場合には深刻な事態になることを示唆している。
同様に、AIを安全かつ倫理的に利用するための正式な方針を組織として定めていると答えた参加者は27%にとどまり、39%は現在正式な方針を検討中であると回答している。
このことから、企業はAIに真に投資することで、従業員のデジタルスキル向上や、AIのセキュリティに関する透明性の向上など、AIの価値を高めることができるということがわかる。
「サイバーセキュリティの専門家は、AIがもたらす機会と課題の両方を予期しており、AIを安全に業務に導入するための専門知識と認識が組織に欠けていることを懸念しています」とISC2のクラール・ロッソCEOは言う。
「このことは、サイバーセキュリティの専門家が、セキュアなテクノロジーに関する専門知識を応用し、その安全かつ倫理的な利用を確保することで、リードする絶好の機会を生み出すことになります。実際、ISC2は、この課題に対処するためにサイバーセキュリティ人材が必要とする専門家主導のコラボレーションを促進するために、AIワークショップを開発しました」と彼女は続ける。