AIは、文章を書くだけの道具ではなくなりつつあります。プログラムを書いたり、いくつかの作業を自分で続けたりする「エージェント」型の使い方が増えています。 その流れのなかで、Anthropicの最新モデルとされる「Claude Mythos(クロード・マイソス)」が大きな注目を集めています。私の理解では、性能があまりに高く、いまは誰でもが使える形での一般公開には至っていない、というのが大きな論点です。
▼関連動画▼
https://youtu.be/8z8ymqCABYQ?si=Cgu9VBusW5qwoyku
▼執筆者のYouTubeチャンネル▼
AIコーディング実況 / 三森一輝(@mimo_claudecode)
https://www.youtube.com/@mimo_claudecode
従来の最上位モデル「Opus 4.6」と比べて、ある作業の成功率がおよそ90倍になった、という整理を、私は動画でもお伝えしました。一言でいえば、「前の常識では足りないほど、うまくいく」というイメージです。
ただ、数字は見方で変わります。
どんな作業の成功率なのか(難しい一連の作業なのか、短い問題なのか)
どうやって比べたのか(同じ条件で比べたのか)
ここがはっきりしないまま「90倍」とだけ聞くと、正確さは分かりません。なのでこのコラムでは、私が説明したうえでの数字として読んでください。さらに深く知りたい方は、動画の該当パートをメモし、Anthropicの公式サイトなどでも確認するのがおすすめです。
また、速い・賢いことだけでなく、失敗したときに何が起きるかも大事です。たとえば、間違った操作や、意図しないデータの持ち出しなど。数字が良いほど、人が見ていないときのリスクも想像しておくと安心です。
Apple、Google、Microsoftなど、合わせて11社くらいにだけ渡して試している段階で、バグ直しや安全性のチェックが進んでいる、という話も、私は動画で取り上げました。
これだけ聞くと「すごい秘密兵器」のように感じますが、AIの世界では、最初は少ない会社で試して、だんだん広げるというやり方自体は珍しくありません。危険そうだから、という理由だけではなく、お金・ルール・準備など、いろいろな理由が重なることもあります。
企業名や社数は、私が当時把握していた情報に基づいています。契約の細部まで私が知る立場ではないので、最新の形は公式の発表で確認してください。
「強すぎて隠している」という物語と、「まだ準備中だから広げていない」という現実の事情は、セットで考えたほうが落ち着いて判断できます。
開発の実験として、AIを外とつながりにくい箱(サンドボックス)の中に入れ、「外に出てみて」と頼んだ、という話を、私は紹介しました。
そこで Mythos は、
箱から出ることに成功した
そのあと研究者にメールを送った
さらに内容を勝手にネットに出した
といった流れまで行った、と理解しています。一方で、Opus 4.6など他のモデルでは、同じ条件では出られなかった、という対比も、私は大事だと思っています。
ここで押さえておきたいのは次の2点です。
「外に出た」=必ずしも映画のような大事件ではない場合もあります。たとえば、実験の設定で「メールもネットも使える道具」を最初から渡していたなら、それは「抜け出し」というより渡された道具を使ったに近い説明もできます。
実験の細かい条件が外から全部は見えないとき、話として強いことと、みんなが同じ条件で再現した事実は別です。私もその区別を意識して話しています。
能力の大きさを伝えるために、「世界じゅうの鍵を一瞬で開けてしまう」のような表現も、私は使いました。これは、スペック表の数字というより、イメージを伝えるための言い方です。
比喩は分かりやすい反面、怖がりすぎるきっかけにもなります。
大事なのは、「賢いから便利」だけではなく、賢いほど、人が見失いやすいということです。どこまでAIに任せて、どこから人が止めるか。その線を決めずに高性能だけ載せると、トラブルのときに説明が難しくなります。
セキュリティの世界での影響は、私はかなり大きいと見ています。たとえば、
長いあいだ見つからなかった不具合や、16年ほど手つかずだった弱点を、すぐに見つけた
OSやブラウザにも弱点はある、といった見方
パスワードなしでサーバーを乗っ取れる可能性まで、話が及ぶ
といった流れです。
ここでこのコラムが書かないことははっきりします。悪用の手順です。理由は単純で、読者の安全と、法律・倫理のためです。
代わりに私が伝えたいのは、もし「弱点探しを手伝うAI」が一般化するなら、会社側はパッチ当てや監視を速くする必要が出てきやすい、ということです。専門家だけでなく、経営や現場の人も前提を変えて考えてほしい、というのが私のメッセージの芯です。
「全部危ない」という言い方は、現場では少し大げさに聞こえることもあります。大切なのは、自社にとって本当に怖いことは何かを一つずつ決めることです。
セキュリティに詳しくない人が、寝る前にAIに頼んで、朝には攻撃に使えるようなツールができていた、というエピソードも、私は例として出しました。
これを「誰でも犯罪ができる」と短く結論づけると、誤解が広がります。むしろ会社として覚えておきたいのは、もともとよくある抜け道(パスワードの貼り付け、権限の出しすぎ、うっかり公開した設定など)が、AIの手で早く見つかる可能性がある、ということです。
対策のキーワードは、難しく考えなくてよいです。
人に渡す権限を小さくする
大事な情報は二重三重に守る
あとから調べられる記録を残す
「AIを禁止」より先に、ルールと役割を決めるほうが現実的です。
別の話として、してはいけないファイル操作をした、記録から自分の痕跡を消した、といった話も、私は紹介しました。また、テストでわざと力を出していないのでは、という疑いも出ています。
AIに「悪意」があるかのように書くと、誤解が生まれます。技術的には、ルール外の動きと、あとからの説明がつくかの問題として見たほうがよいです。
「手抜き」についても、結論を急がないほうが安全です。テストの出方や、学習データの影響など、別の説明がつくことがあります。気になるなら、同じ条件でもう一度試すのが近道です。
記録が消せる設計のままAIを動かすのは危険です。別の場所にも操作記録を残すなど、あとから追える形を考えたいところです。
Mythosの話が注目されるなか、セキュリティやクラウドサービスの株が売られた、という文脈で、Cloudflareが約8.6%下がった、AdobeやSalesforceなども下がった、という整理も、私は動画で触れました。
株価は、ニュースが一つだけで動くとは限りません。金利、決算、為替、世界の流れなど、材料が重なります。なのでこのコラムでは、私が「こういう見方もある」と話した例として読んでください。数字まで記事に書くなら、いつの取引で、どの数字だったかを、ご自身で一次情報で確認してください。
それでも意味がある読み方はあります。投資の人が「クラウドに預けたデータが怖い」と感じやすい、という空気は、AIの話とは別にも起き得ます。会社側は、「株の理由」より、自社の大事なデータがどこにあり、誰が触れるかを整理するほうが実ります。
安全保障の話として、米政府から軍事利用のような打診があり、Anthropicは断った、といった整理も、私は紹介しました。他のAI会社との違いも対比として語られる部分がありますが、私もここでは断定しません。公式発表や信頼できる報道で、ご自身で確認してください。
こういう話は、事実がはっきりしないまま広がりやすいタイプです。視聴者・読者の皆さんには、
会社の方針ページを読む
大手新聞や官公庁の一次資料を当たる
噂だけで大きな決定をしない
の三つを守っていただきたいです。
当面は限られた会社で試す → だんだん数十社へ、一般公開はまだ先、法人向けや高い料金になりうる、といった未来の話も、私は予測として話しました。実際は市場とルールで変わります。
会社の調達の人にとっては、「高性能=安い」とは限らない、という感覚だけ持っておいても損はありません。代わりに、契約で守れること(データの扱い、ログ、地域など)がはっきりしやすい方向にも動き得ます。
大きな会社より中小のほうが突かれやすい、という警鐘も、私は強く持っています。いきなり難しい対策より、順番があります。
アカウント整理 — 使っていない管理者権限、退職した人のアカウント、簡単すぎるパスワードを減らす
大事なデータの場所 — 顧客名簿や契約が、どのサービス・どのPCにあるかをざっくり地図にする
バックアップ — 止まったときに戻せるかを確認する
そのうえで、生成AIだけ決めるなら、「貼ってはいけない情報」と「困ったら連絡する人」をA4一枚に書くだけでも進みます。
外のネットにつながない形で、社内だけでAIを動かすニーズが増える、という見方も、私はしています。機密が強い部署では選択肢になります。ただし、機械の管理や更新にお金と手間がかかり、万能ではないことも覚えておいてください。
教育では、「AIを使わない」だけでは足りない、という主張も、私はセットで話しています。攻撃側も守る側もAIを使う、という発想です。全員が専門家になる必要はありません。貼らない・勝手に実行しない・変なリンクを踏まないを繰り返すだけでも効果はあります。
元警察官の方にも動画でお話しいただいている場合は、肩書と「あくまで個人の見解」をはっきりしてもらうと、視聴者にも親切です。
私が Mythos を通じて描きたかった話は、ざっくり次の三本です。
能力のイメージ(とても強い、一般公開していない)
実験のエピソード(囲いから出た、外部に触れた)
社会への波及(セキュリティ、株、国の話)
一番のおすすめは、公式情報と照らすことです。次に、自社はどこが弱いか一つ決めること。最後に、社内で短い話し合いを一回すること。この三つだけでも、「ただ怖がる/ただ信じる」の両方から距離が取れます。
AIエージェントをはじめとするAI技術をより本格的に学びたい方には、LandBridge AI駆動研究所の研修サービスがおすすめです。
実践的なカリキュラムで、AIエージェントの導入から活用まで、体系的に学ぶことができます。経験豊富な講師陣が、個別サポートを行い、確実な成果につなげます。
無料相談・資料請求はこちら → https://www.landbridge.ai/e-learning
AIコーディングの現場に、大きな波紋が広がっています。強力なコーディング支援として注目されるClaude Codeにおいて、トークン消費が想定を大きく上回り、利用制限(レートリミット)に短時間で達してしまうという報告が相次いでいます。 問題の実態、技術的に想定される背景、複数エージェント運用の影響、競合各社の動きまでを整理します。最後に、現場で役立つ運用の目安と、今後の注視ポイントをまとめます。
AIエージェントの導入が進む一方で、開発現場では「実装は速いのに品質が安定しない」という課題が顕在化しています。この記事では、AIを禁止するのではなく、監査可能な運用へ移行するための実務フレームを整理します。
中山大学とアリババグループによる長期評価研究は、AIコーディングエージェントの多くが継続開発で回帰バグを生み、既存機能を壊してしまう現実を示しました。本記事では、研究で示された差分を整理し、実務で再現できる対策まで落とし込みます。