ピックアップ: AWS Bedrockに8つの攻撃ベクターを発見
今日のニュース AWS Bedrockにデータへの不正アクセスを可能にする8つの脆弱性が発見された。The Hacker News Google AI StudioがFirebase連携により、プロンプトだけでフルスタックアプリを自動生成できるようになった。Publickey AWSがClaude CodeやCursor向けに、インフラ設計からデプロイまでを自動化するプラグインを公開した。Publickey GitHubがAIを活用した新しい脆弱性検知機能を発表し、開発の初期段階からコードのセキュリティスキャンを強化した。GitHub Blog AIが2D図面の寸法を読み取り、製造業水準の精度で3Dモデルを自動生成するWebアプリが登場した。ITmedia AI+ ピックアップ: AWS Bedrockに8つの攻撃ベクターを発見 あなたの会社で、営業部の議事録を要約しているAIツールが、経理の原価データフォルダまで参照できる設定になっていないでしょうか。「まさかそんな」と思った方ほど、今日のニュースは読んでおいてください。 何が起きたか セキュリティ研究者が、AWSの生成AI基盤であるBedrockの内部に、攻撃者が悪用可能な8つの脆弱性を特定しました。Bedrock上で動作するAIエージェントを経由して、企業の内部データに不正アクセスされるリスクが指摘されています。詳細は The Hacker News をご確認ください。 なぜ重要か これまでAI導入のセキュリティ対策といえば、社内ネットワークやAPIキーの管理など周辺インフラへの対策が中心でした。今回明らかになったのは、その土台となる基盤モデル側に直接の攻撃経路が存在するという事実です。 周辺を固めても、土台に穴があれば意味をなしません。 読者の会社にどう影響するか Bedrockを直接利用していなくても、状況は他人事ではありません。多くの企業向けAIサービスは、AWSをはじめとするクラウドの基盤モデルの上に構築されています。社内の顧客データや設計書を読み込ませているAIツールが、基盤レイヤーの脆弱性を突かれた場合、その情報が外部に漏れるリスクは現実的です。 以前このブログで取り上げたSearsのAIボットによるログ露出やMetaの社内AI暴走の件と、構造は同じです。AIに与えた権限の範囲が、そのままリスクの範囲になります。 私たちが特に懸念しているのは、「便利だから」という理由でAIツールに広範なデータアクセス権を与えたまま、誰も見直していないケースです。まず今日、自社で稼働しているAI連携ツールがどの社内フォルダやデータベースにアクセスできる設定になっているか、権限リストを一度確認してみることをお勧めします。不要なアクセス権を削除する。それだけで、リスクの輪郭はかなり小さくなります。 各ニュース詳細 Google AI Studio、プロンプトだけでフルスタックアプリを自動生成 Google AI StudioがFirebaseバックエンドとAntigravityのコーディングエージェントを統合した。 自然言語の指示だけで、マルチプレイヤーゲームのような高度なフルスタックアプリケーションが生成できる。 出典: Publickey 編集部コメント: 私たちはこの進化を、開発の民主化として素直に評価しています。ただ、気になるのはガバナンスの側面です。非エンジニアの社員がインフラを含むシステムを個人の判断で構築・公開できる環境が整うと、IT部門が把握しきれないシステムが社内に乱立する事態は十分ありえます。今回の発表を機に、「社員がAIで何かを作ったとき、誰に報告・承認を得るか」というルールが自社にあるかどうか、確かめておく価値があります。 AWS、Claude Code向けにインフラ自動構築プラグイン「Agent Plugins for AWS」を公開 AWSがClaude CodeとCursor向けの公式プラグイン「Agent Plugins for AWS」を公開した。 アーキテクチャ設計、コスト見積もり、Infrastructure as Codeの生成、デプロイ実行を一貫して自動化する。 出典: Publickey 編集部コメント: 私たちはこの自動化の便利さを否定しません。ただ、「Deploy this app to AWS」と一言打ち込むだけでインフラが立ち上がる世界では、コスト設定やセキュリティグループの構成がなぜそうなっているかを説明できる人間が社内にいなくなる、というリスクが同時に生まれます。自動化の恩恵を受けながらも、AIが生成したインフラ構成を人間が承認するステップをワークフローに組み込んでおくことが、現実的な落とし所だと考えています。 GitHub、AIとCodeQLを組み合わせた脆弱性検知機能でコードスキャンを強化 GitHubがAIとCodeQLを組み合わせた新たなセキュリティ検出機能を発表した。 開発のワークフロー内でコードの安全性を初期段階から確認できる仕組みを提供する。 アプリケーション全体のセキュリティカバレッジを従来より広げる。 出典: GitHub Blog 編集部コメント: 私たちはこのアプローチを全面的に支持しています。AIが自動生成したコードには、人間が書いたコードと同様に、あるいはそれ以上に脆弱性が混入しえます。その検知もAIに担わせ、開発の初期段階で問題を潰す仕組みは、現時点で最も現実的な防衛策です。自社の開発フローにGitHubを使っているなら、この機能の有効化を検討する優先度は高いと見ています。 ...