マサチューセッツ工科大学(MIT)の名を冠した研究論文が、サイバーセキュリティ業界に衝撃を与え、そして静かにWeb上から姿を消した。論文が掲げた「ランサムウェア攻撃の80%はAIによって駆動されている」というセンセーショナルな主張は、瞬く間に拡散された一方で、第一線の専門家たちから「全くばかげている」「ほぼ完全なナンセンス」と厳しい批判を浴びた。本稿では、この一件の全貌を詳細に追い、なぜ世界最高峰の学術機関が関与した研究がこれほどの論争を巻き起こし、そして取り下げられるに至ったのか、その背景にある構造的な問題を深く掘り下げていく。これは単なる一つの論文の話ではなく、AIという時代の寵児を前に、私たちがいかにして真実と誇大広告(ハイプ)を見極めるべきかという、現代社会への警鐘である。
衝撃の「80%」論文、その驚くべき内容とは
問題の発端となったのは、MIT Sloan経営大学院の研究プログラム「Cybersecurity at MIT Sloan (CAMS)」と、サイバーセキュリティ企業「Safe Security」が共同で発表した「Rethinking the Cybersecurity Arms Race(サイバーセキュリティの軍拡競争を再考する)」と題されたワーキングペーパーである。
2025年4月に完成し、その後MIT Sloanのブログなどで紹介されたこの論文は、業界関係者の度肝を抜く主張を展開した。2023年から2024年にかけて収集された2,800件以上のランサムウェアインシデントを分析した結果、その実に「80.83%」がAIを活用する攻撃者によって実行されていたというのだ。
論文は、LockBit、BlackCat(ALPHV)、Akiraといった著名なランサムウェアグループを名指しし、彼らが偵察から恐喝に至るまで、攻撃の各段階で自律的に動作するAIシステムを駆使していると描写した。 AIが効率的に高価値データを選別して暗号化し、攻撃キャンペーン全体を動的に調整しているというその内容は、サイバー攻撃が新たな次元に突入したことを示唆するものだった。
MITという世界的な権威を持つ学術機関と、専門企業による共同研究という体裁は、この主張に強力な信憑性を与えた。論文はFinancial Timesなどの大手メディアでも引用され、「AIによるサイバー攻撃の脅威」というナラティブは一気に現実味を帯びて拡散され始めたのである。
「全くばかげている」セキュリティ専門家が一斉に異議
しかし、このセンセーショナルな主張に、現場を知る専門家たちは即座に疑義を呈した。その急先鋒となったのが、著名なセキュリティ研究者であるKevin Beaumont氏だ。
Beaumont氏は自身のSNSで、この論文を「全くばかげている」「ほぼ完全なナンセンス」と一刀両断。 彼は、論文が主要なランサムウェアグループのほとんどを「AIを使用している」と断定している点について、「何の証拠もない(そしてそれは事実ではない、私は彼らの多くを監視している)」と強く批判した。
さらに問題視されたのは、論文が挙げた具体例の信憑性の欠如だ。Beaumont氏は、論文が数年前に法執行機関によって解体されたマルウェア「Emotet」さえもAI駆動の例としてリストアップしている点を指摘し、その杜撰さを露呈させた。
この批判に同調したのが、2017年の世界的なサイバー攻撃「WannaCry」を食い止めた英雄として知られるセキュリティ専門家、Marcus Hutchins氏だ。彼は自身のLinkedInで、「論文のタイトルを見て笑い出し、彼らの方法論を読んでさらに笑った」と、その内容の荒唐無稽さを揶揄した。
Hutchins氏が特に問題視したのは、論文における「AI」の定義の曖昧さである。論文は、WannaCryがランダムなIPアドレスを生成して攻撃を試みたことを「AI」と見なしている節があった。これに対しHutchins氏は、単なる「乱数生成器の使用はAIではない」と、あまりにも広範でご都合主義的な解釈を厳しく批判した。 さらに彼は、「彼らが『AIを使用している』として挙げた脅威アクターの多くは、私が仕事の一環として個人的に追跡していたものであり、AIを使用していなかったと証言できる」と述べ、論文が事実として不正確であることを断言した。
専門家コミュニティからの反応は、苛立ちに満ちていた。 多くの現場研究者が「AIランサムウェアのインシデントなど一度も見たことがない」と口を揃え、論文の主張と現実の脅威との間に存在する巨大なギャップを指摘したのである。
論文取り下げへ
専門家コミュニティからの激しい批判を受け、事態は急展開を迎える。Beaumont氏がオンラインで批判の声を上げてからわずか数日後、MIT SloanのWebサイトから問題の論文へのリンクが削除されたのだ。
当初論文が掲載されていたURLにアクセスすると、現在は以下のような短いメッセージが表示されるのみとなっている。
「あなたは私たちのウェブサイトの初期研究論文セクションにアクセスしました。あなたが要求したワーキングペーパーは、最近のいくつかのレビューに基づいて更新されています。更新版はまもなくここに掲載される予定です。」
論文の共著者の一人であるMIT SloanのMichael Siegel氏は、米IT系ニュースサイトThe Registerの取材に対し、「我々はワーキングペーパーに関するいくつかの最近のコメントを受け取り、更新版を提供するために可及的速やかに作業している」と説明した。 しかし、これは事実上の「取り下げ」であり、MITというブランドが、その権威にそぐわない品質の研究成果を公表してしまったことを暗に認める形となった。
かつて「ランサムウェア攻撃の80%はAIを使用」と謳っていたMIT Sloanのブログ記事のタイトルも、「AIによるサイバー攻撃と防御の3つの柱」へと、主張の核心部分を削除する形で修正された。 この静かな、しかし決定的な対応は、学術的な権威がいかに脆いものであるか、そして一度失われた信頼を取り戻すことがいかに困難であるかを物語っている。
なぜ「サイバースロップ」は生まれたのか? 構造的な問題点
なぜ、MITのような世界最高峰の研究機関が、これほどまでに杜撰で根拠の薄い研究を発表してしまったのか。筆者は、この問題の根底に3つの構造的な要因が存在すると分析する。
1. 商業主義と学術の危険な癒着:利益相反の構図
第一に、この論文が純粋な学術研究ではなく、商業的な意図を強く帯びたものであったという点だ。論文の共著者であるSafe Security社は、「AI駆動のサイバーリスク定量化プラットフォーム」を販売する企業である。 論文の結論が「AIによるサイバーリスク管理の導入」を強く推奨している点は、同社のマーケティング戦略と完全に一致する。
さらに深刻なのは、Kevin Beaumont氏が指摘する利益相反の可能性だ。MIT CAMSプログラム自体が、企業が資金を提供して共同研究を行う「企業コンソーシアム」として運営されている。 この構造は、研究の中立性よりもスポンサー企業の利益が優先される危険性を常にはらんでいる。実際、論文の著者であるMITの教授が、共同研究相手であるSafe Security社の役員会に名を連ねているとの指摘もあり、これが事実であれば研究の客観性に対する信頼は根底から揺らぐことになる。
2. AIという名の「魔法の杖」:誇大広告(ハイプ)の蔓延
第二に、「AI」という言葉が持つ魔力である。今日のテクノロジー業界において、AIはあらゆる製品やサービスに付加価値を与える魔法の言葉と化している。AIというラベルを貼るだけで、古くからある技術が革新的に見え、投資家や顧客の関心を惹きつけることができる。
今回の論文は、このAIハイプの典型例と言えるだろう。「ランサムウェア」という既存の脅威に「AI」という言葉を掛け合わせることで、かつてないほど深刻で、今すぐ対策が必要な新たな脅威であるかのように見せかける。そして、その対策として自社(Safe Security)のAIソリューションを提示するという構図は、極めてマーケティング的だ。セキュリティベンダーが自社の製品を売るために脅威を煽るという手法は古くから存在するが、AIというバズワードがその傾向をさらに加速させている。
3. 査読なき「ワーキングペーパー」の罠
第三に、この論文が厳格な査読プロセスを経ていない「ワーキングペーパー」であったという点だ。学術の世界では、論文は通常、同じ分野の専門家による厳格な査読(ピアレビュー)を経て初めて学術誌に掲載される。このプロセスが、研究の質と信頼性を担保する生命線だ。
しかし、ワーキングペーパーは査読前の草稿段階の論文であり、その内容は玉石混交である。問題は、一般の読者や多くのメディアが「MITの研究」というブランドイメージから、ワーキングペーパーであっても査読済み論文と同等の権威と信頼性を感じてしまう点にある。結果として、MITというブランドが、本来であれば公になるべきではなかった質の低い研究にお墨付きを与え、その拡散を助長してしまったのである。
Kevin Beaumont氏は、こうした「信頼できる機関が、生成AIに関する根拠のない主張を利益のために利用し、その専門性を悪用する行為」を、痛烈な皮肉を込めて「cyberslop(サイバースロップ)」と名付けた。 スロップとは「残飯」や「汚水」を意味する言葉であり、無批判に垂れ流される質の低い情報が、いかにサイバーセキュリティ業界全体を汚染しているかを的確に表現している。
現実の脅威はどこにある? AI利用の実態と本来の備え
では、「AI駆動の自律型ランサムウェア」という脅威が誇張であるならば、私たちは何に警戒し、備えるべきなのだろうか。
欧州ネットワーク・情報セキュリティ機関(ENISA)や、米通信大手Verizonが発行するデータ侵害調査報告書(DBIR)といった、信頼性の高いレポートは、現実の脅威についてより冷静な分析を示している。
これらのレポートによれば、サイバー攻撃者がAIを実験的に利用し始めていることは事実だ。しかし、その用途は主に以下のような補助的な役割に留まっている。
- ソーシャルエンジニアリングの高度化: AIを用いて、文法的に自然で、標的の状況に合わせた説得力のあるフィッシングメールを大量に生成する。
- ディープフェイクの活用: AIで生成した偽の音声や映像(ディープフェイク)を使い、経営幹部になりすまして不正送金を指示するなどの詐欺に利用する。
- 偵察の効率化: AIを活用して大量のデータを分析し、攻撃対象となりうる脆弱なシステムや価値の高い情報を効率的に探し出す。
ENISAのレポートは、研究者がAIを用いたマルウェアの概念実証(PoC)には成功しているものの、それらが実際に大規模な攻撃(in the wild)で観測された例はまだないと結論付けている。 つまり、論文が描いたような「ランサムウェア攻撃の80%がAIに支配されている」という世界は、現時点ではSFの域を出ていないのだ。
専門家たちが口を揃えて指摘するのは、多くの組織がAIという未来の脅威に目を奪われるあまり、足元にある基本的なセキュリティ対策を怠っているという現実だ。VerizonのDBIRによれば、依然としてランサムウェア攻撃の主な侵入経路は、盗まれた認証情報(IDとパスワード)の悪用や、パッチが適用されていない既知の脆弱性の悪用である。
したがって、組織が今すぐ取り組むべきは、架空のAI脅威に怯えることではなく、以下のような基本的なセキュリティ対策を徹底することに他ならない。
- 多要素認証(MFA)の導入: IDとパスワードだけでなく、スマートフォンアプリなど複数の要素で本人確認を行うことで、認証情報の漏洩による被害を大幅に軽減する。
- 継続的な脆弱性管理: ソフトウェアの脆弱性を速やかに発見し、修正パッチを適用する体制を構築する。
- 従業員へのセキュリティ教育: フィッシングメールを見抜く訓練など、従業員一人ひとりのセキュリティ意識を高める。
Marcus Hutchins氏やKevin Beaumont氏のような専門家が警鐘を鳴らすのは、誤った情報が組織のリソース配分を歪め、本当に必要な対策から目を逸らさせてしまうからに他ならない。
権威を鵜呑みにしない「批判的思考」の重要性
MITとSafe Securityによる論文の撤回劇は、私たちに多くの教訓を残した。それは、AIという強力なテクノロジーがもたらす光と影、そして情報が瞬時に拡散する現代社会において、「権威」の名の下に語られる言葉を無批判に受け入れることの危険性である。
たとえそれがMITのような世界的な権威であっても、その発信する情報が常に正しいとは限らない。特に、商業的な利害が絡む研究や、査読を経ていない情報に接する際には、一歩引いてその根拠や背景を吟味する批判的な視点が不可欠だ。
今回の事件は、第一線の専門家たちによる勇気ある指摘によって、誤った情報が是正されるという健全な自浄作用が働いた稀有なケースとも言える。しかし、全ての「サイバースロップ」が同じように暴かれるとは限らない。
AI時代を生きる私たちは、ベンダー、メディア、そして研究機関が発信する情報を注意深く見極め、誇大広告に踊らされることなく、現実のデータに基づいた冷静な判断を下す能力、すなわちデジタルリテラシーをこれまで以上に磨いていく必要がある。この一件は、その重要性を改めて浮き彫りにした、現代の寓話なのである。
Sources