検索
特集/連載

Googleエンジニアが明かす社内バイブコーディング事情、非エンジニアもアプリ自作AI Studioは「試作」から「本番」へ

Googleは、「AI Studio」がアプリの試作用途から本番アプリの開発基盤へ進化していると明らかにした。音声入力で、非エンジニアでもアプリを構築できる環境が整備された。企業のIT部門が留意する点は何か。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

 AI(人工知能)を使って「話しかけるだけ」でアプリケーション(以下、アプリ)を作る――。こうしたバイブコーディングの世界が、実験段階から実運用段階へ進みつつある。

 Googleの「AI Studio」のプロダクトリードを務めるローガン・キルパトリック氏は2026年4月、「AIによるアプリ開発は実験段階を越え、実際に本番環境へ投入される時代に入った」と説明した。AIを活用したソフトウェア開発は、企業ITにどのような変化をもたらすのか。

Google社内でのバイブコーディングは?

 AI Studioは、2023年12月のリリース当初、生成AIモデルを試すための開発者向けツールとして始まった。これをキルパトリック氏は、“Prompt to Prototype”と呼ぶ。つまり、当初のAI Studioは「試作品を素早く作る場」だった。

 しかし、2026年4月に開催されたGoogle Cloud Next ’26でキルパトリック氏は、AI Studioを「“Prompt to Prototype”の段階を越え“Prototype to Production”へ進化している」と説明した。つまり、AI Studioが「試作ツール」から、“本番アプリ”を作るための「開発基盤」へ移行しつつあるというのが同氏の指摘だ。

 具体的には、Google Cloudの「Cloud Run」や「Firebase」と連携し、アプリ生成からデータベース接続、認証機能追加、クラウドデプロイまでを一貫して数分で実施できるのが特徴だ。

 AI Studioには「Build」タブが用意されており、生成AIを活用したアプリ開発をGUIベースで進められる。キルパトリック氏はこれを“完全なバイブコーディング体験”と表現する。

 特にBuildタブでは、アプリ構築中にAIが複数のUIデザイン案をリアルタイムで提示する「デザインプレビュー」機能が追加された。ユーザーは、生成途中のUIパターンを比較しながら、アプリの方向性を選択できる。コードを生成するだけではなく、「どのようなUIにするか」という設計段階にもAIが関与し始めている点が特徴だ。

 加えて、アプリのアイデア出しを支援する「I'm Feeling Lucky」機能も導入された。これは、ボタンを押すだけでGoogleのサービスと連携可能なアプリ案を自動生成する仕組みだ。キルパトリック氏は、「技術には興味があるが、何を作ればいいのか分からない人が多い」と説明し、AIが“発想支援”の役割も担い始めていると語った。

「Yap-to-App」 話すだけでアプリ生成

 キルパトリック氏によれば、最近特に利用が増えているのが音声入力によるアプリ生成機能だ。AI Studioでは「Yap-to-App」と呼ばれる機能を用意しており、ユーザーが音声でアイデアを話すと、Geminiが内容を整理し、実装可能なプロンプトへ変換する。

 「AIで整理してほしい」「画像モデルを使いたい」「認証機能を付けたい」など断片的な要求でも、AIが不足部分を補いながらアプリ構成を生成する。キルパトリック氏は、「“何を作れるのか”を言語化すること自体が難しい」と説明し、AIがアイデア形成を支援する方向へ進化していると語った。

 加えて、AI Studioではプロンプト入力中にAIが続きを補完する「Tap-Tap-Tab」機能も導入された。これは従来型のオートコンプリートではなく、「Gemini 3 Flash」を活用し、生成AIが“次に何を作りたいのか”を推測しながら提案する仕組みだ。ユーザーが「AIで業務を整理するアプリを作りたい」と入力すると、AIがその続きを自動的に補完し、アプリ構成や機能案を提案する。

バイブコーディングは本番運用できるのか

 一方、AIによるコード生成を巡っては、「本番システムで利用できるのか」という懸念も根強い。特に従来型の開発者コミュニティーでは、AI生成コードの品質や保守性に対する不安が指摘されてきた。

 キルパトリック氏は、Google内部でも同様の議論があったことを明かした。その上で、現在はAI Studioの実際の製品コードにも、AIを活用した“Agentic Engineering”を適用しているという。

 具体的には、AIを使ってコード変更を生成した後、専門エンジニアがレビューやCI(継続的インテグレーション)テストを実施し、本番コードへ反映する体制を取る。キルパトリック氏は、「AIによる高速開発」と「熟練エンジニアによる品質保証」を組み合わせる“協業モデル”が重要だと説明する。

「誰でもソフトウェアを作れる時代」が来る?

 キルパトリック氏は、生成AIによるソフトウェア開発の普及について、「YouTubeによって誰もが動画クリエイターになった変化に近い」と語る。これまでソフトウェア開発に参加できなかった人々が、AIによって“作る側”へ回り始めているという。

 実際、Google内部でも「これまで一度もコードを書いたことがなかった社員」が、AI Studioを使って社内向けツールやランディングページを構築し始めているという。同氏は、「知性やアイデアは世界中に分散しているが、“機会”は分散していなかった」と指摘する。

 その一方で、同氏は「従来型のソフトウェアエンジニアの需要がなくなるわけではない」とも強調した。AIによってソフトウェア開発人口が増えれば、より高度な設計や運用、品質保証を担う専門エンジニアの需要も増えるとの見方を示している。

企業ITは何を考えるべきか

 企業IT部門(情シス)の視点では、こうした“AIによる開発民主化”は単なる開発効率化では済まない可能性がある。現場部門が自らアプリを生成し始めれば、「誰がシステムを管理するのか」「セキュリティやガバナンスをどう確保するのか」という新たな論点が浮上するためだ。

 特に、AI Studioのような環境では、UI生成、DB接続、認証、クラウドデプロイまでが数分で実行可能になる。従来の“ノーコード/ローコード”よりも踏み込んだ形で、非エンジニアが業務アプリを作成できるようになる可能性がある。

 キルパトリック氏は、「今後12カ月以内に、人々は“作りたいソフトウェアをほぼ何でも作れる”段階へ近づく」と語った。

 情シスにとっては、「開発を禁止するか」ではなく、「誰がどこまで作ってよいのか」「本番投入時にどのようなレビューや統制をかけるのか」を整理することが重要になる局面が近づいている可能性がある。

本稿は、2026年4月24日に公開された「Vibe coding to production: Logan Kilpatrick on the evolution of AI Studio.」を記事化したものです。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る