AI検出ツール、フィッシングメールの4分の3近くを検証できず

2023年10月8日 17:58

印刷

記事提供元:スラド

Egress の報告書 Phishing Threat Trends Report によると、AI 検出ツールではフィッシングメールの 4 分の 3 近くについて、チャットボットが生成したものかどうかを識別できないそうだ(プレスリリースBetaNews の記事)。

検出ツールは大規模言語モデル (LLM) を使用するため、少なくとも 250 文字以上のテキストを必要とするものが多い。フィッシングメールは 44.9% が 250 文字未満であり、250 文字以上であっても 500 文字未満のものが 26.5% に上るという。攻撃者はチャットボットの出力だとわかりにくくするために表現の置き換えなどの手法を用いることもあるが、AI 検出ツールではそれ以前の問題として 71.4% のフィッシングメールを確実に検証できないか、まったく検証できないとのことだ。 

スラドのコメントを読む | セキュリティセクション | セキュリティ | 人工知能

 関連ストーリー:
ナイジェリア詐欺にもAIパワー 2023年09月20日
Google Authenticatorの同期機能がフィッシング詐欺の被害を拡大したという話 2023年09月18日
米国ではAIによるクローン音声がすでに犯罪に使われている 2023年08月08日

※この記事はスラドから提供を受けて配信しています。

関連キーワード

関連記事