Connect with us

ビジネスは次のAIパワードのサイバー攻撃に備えているか?

サイバーセキュリティ

ビジネスは次のAIパワードのサイバー攻撃に備えているか?

mm

現在のトレンドを分析することで、専門家は将来サイバー犯罪者が人工知能をどのように利用するかを予測できます。この情報を使用して、最大の新興脅威を特定し、ビジネスが準備できているかどうかを判断できます。彼らは解決策を見つけることができるかもしれません。

近年のAI脅威の状況

AI技術は比較的新しいですが、すでにハッカーの重要なツールになりました。これらのトレンドは、AIサイバー攻撃が増加していることを示唆しています。

1. モデルタンパリング

大規模言語モデル(LLM)を直接ターゲットにして、脅威行為者はモデル動作を操作し、出力精度を低下させ、または個人情報を含むトレーニングデータを公開できます。データポイズニングとプロンプトエンジニアリングは一般的な攻撃手法です。
一部の攻撃は、混乱を引き起こしたり機密情報を盗んだりしようとする脅威行為者によって行われます。他の攻撃は、AIスクラピングから自分の作品を守ろうとする不満を持つアーティストによって管理されています。どちらの場合も、会社とそのエンドユーザーは悪影響を受けます。

2. Impersonation Attacks

2024年、フェラーリの幹部は、CEOのベネデット・ヴィーニャから何本かのWhatsAppメッセージを受け取りました。ヴィーニャは買収の予定について話し、従業員に機密保持契約を署名するよう促しました。彼は資金について話し合うために電話もかけてきました。しかし、問題がありました — 本物ではありませんでした。
ディープフェイクはほぼ完璧で、ヴィーニャの南イタリアのアクセントを非常にうまく真似していました。しかし、声にわずかな不一致があり、幹部は詐欺に気づきました。幹部は先日ヴィーニャが勧めた本のタイトルについて尋ねました — 本物のCEOだけが答えることができる質問です。詐欺師はすぐに電話を切りました。
AIは人の声、閲覧動作、書き方、容姿を複製できます。この技術が進化するにつれて、ディープフェイクを特定することはますます困難になります。詐欺師は、標的を急いで行動させることで、わずかな不一致に疑問を抱くのを防ぎます。

3. AIフィッシング

過去には、悪い文法、疑わしいリンク、一般的なあいさつ、場違いのリクエストを見つけることで、誰かはフィッシングメールを特定することができました。ただし、自然言語処理技術を使用すると、ハッカーは完璧な文法のメッセージを作成できます。
研究者は、完全に自動化されたAI対応スピアフィッシングメールが54%のクリック率を持っていることを発見しました。これは、人間が書いたフィッシングメールと同等です。これらの詐欺はより説得力があるため、より一般的になりつつあります。研究によると、80%以上のフィッシングメールにはAIの関与が見られます。

4. ソーシャルエンジニアリング

ソーシャルエンジニアリングには、誰かを操作して行動を起こしたり情報を開示したりすることが含まれます。AIにより、ハッカーはより速く、より説得力のあるメッセージを作成できます。自然言語処理モデルは、受信者の感情状態を分析して、より説得力のあるメッセージを作成できます。
ソーシャルエンジニアリング技術を強化するだけでなく、機械学習技術は、従来の障壁を低減し、初心者が複雑なキャンペーンを実行できるようにします。如果誰でもサイバー犯罪者になることができるなら、誰でも標的になる可能性があります。

データ駆動型AI攻撃の次の波

2026年の初め、AI攻撃はまだ成熟度の低いレベルにあります。しかし、年が進むにつれて、指数関数的に進化し、サイバー犯罪者は最適化、展開、スケーリングの段階に到達することができます。彼らは完全に自動化されたキャンペーンを実行できるようになります。確認されたAIサイバー攻撃の例は、すぐに珍しくなくなります。
ポリモルフィックマルウェアは、検出を避けるために複製するたびにコードを変更できるAI対応ウイルスです。攻撃者はAIエコシステムを介してペイロードを配信したり、実行時にLLMを呼び出してコマンドを生成したり、ウイルスを直接LLMに埋め込んだりすることができます。Google Threat Intelligence Groupは、2025年に初めてこのマルウェアを配備した攻撃者を発見しました。
マルウェアファミリーはPROMPTFLUXとPROMPTSTEALです。実行時に、LLMを使用してVBScriptのオブフスケーションと回避テクニックを要求します。シグネチャベースの検出を回避するために、自分自身のコードを要求に応じてオブフスケートします。
証拠は、これらの脅威がまだテスト段階にあることを示唆しています。いくつかの機能は未完成で、コメントアウトされています。アプリケーションプログラミングコールは制限されています。これらの未完成のAIマルウェアファミリーはまだ開発中かもしれませんが、その存在自体が、自律的で適応的な攻撃手法への大きなステップを表しています。
NYU Tandonの研究によると、LLMはすでにランサムウェア攻撃を自律的に実行できます。これは、ランサムウェア3.0と呼ばれます。ランサムウェアは、人間の介入なしに、偵察、ペイロードの生成、強要のパーソナライズを行うことができます。バイナリに埋め込まれた自然言語プロンプトのみが必要です。モデルは、実行時に悪意のあるコードを動的に生成することで、実行環境に適応するポリモルフィックバリアントを生成します。

ビジネスはAI攻撃に備えているか?

数十億ドルをサイバーセキュリティに費やしたにもかかわらず、民間企業はまだ進化する脅威の状況に追いつくのに苦労しています。機械学習技術は、既存の検出および対応ソフトウェアを旧来のものにする可能性があり、防御をさらに複雑にします。多くの企業が基本的なセキュリティ基準を満たさないことも、状況を悪化させています。
2024年のDIBサイバーセキュリティ成熟度レポートは、アメリカの国防産業ベース(DIB)の400人のIT専門家を調査しました。回答者の半分以上が、CMMC 2.0のコンプライアンスから数年離れていると報告しました。同等のNIST 800-171コンプライアンスは、2016年以来DoD契約書に記載されています。多くの企業が、実際よりもセキュリティポストを高く評価しています。
新しいCMMC要件は2025年11月10日に施行されました。以降、すべてのDoD契約では、契約の条件としてCMMCの某レベルのコンプライアンスが必要になります。新しいルールは、DIBのサイバーセキュリティを強化することを目的としていますが、AIの時代に効果的でしょうか?

防御AIは答えか?

火を打ち消すために火を使うのが、AI攻撃に対抗する唯一の方法かもしれません。防御AIを使用すると、組織はリアルタイムで脅威に動的に対応できます。しかし、このアプローチには独自のセキュリティ上の欠陥があります。モデルをタンパリングから保護するには、継続的な監視と監査が必要です。
ハーバードビジネスレビューによると、従来のソリューションは、ビジネスをAIサイバー攻撃に脆弱にします。サイバー耐性を達成するには、機械学習技術を使用して脅威を予測し、自動で対応する必要があります。
防御AIが解決策であるかどうかについては、簡単な答えはありません。企業は、未証明の機械学習ツールを展開するためにリソースを投入するべきか、ITチームを拡大するべきか。どの投資が長期的には役立つかを予測することは不可能です。
大企業は自動化されたサイバーセキュリティで大きなリターンを得るかもしれませんが、小規模企業はコストを正当化するのに苦労するかもしれません。従来の自動化技術は、はるかに低い価格でギャップを埋めることができますが、動的な脅威に応じることはできません。
Information Security ForumのCEOであるSteve Durbinは、AIの採用には大きな利点があると述べていますが、重大な欠点もあります。たとえば、企業は誤検知アラートの増加に直面することがあります。これにより、セキュリティチームの時間が浪費されます。また、AIへの過度の依存は、セキュリティ上の隙間を生み出す可能性があります。

AI脅威の状況をナビゲートする

AIの脅威の状況の正確な範囲を判断することは不可能です。攻撃者は、ランタイムでそれを使用するのではなく、悪意のあるコードを作成したりフィッシングメールを起草したりするためにそれを使用する可能性があるからです。単独のサイバー犯罪者や国家支援の脅威グループがそれを大規模に使用している可能性があります。
利用可能な情報に基づいて、モデルタンパリング、AIフィッシング、ポリモルフィックマルウェアが2026年の最大のサイバーセキュリティ脅威になりそうです。サイバー犯罪者は、金融や一般の人々を含む高価値の業界を標的にして、LLMを使用して悪意のあるペイロードを生成、配信、適応させる可能性があります。

Zac Amosは、人工知能に焦点を当てたテックライターです。彼はまた、 ReHackのフィーチャー編集者でもあり、そこでは彼の作品をより多く読むことができます。