首頁文章關於報價聯絡我們🌐 EN
返回首頁GCP
GCP AI/ML 與 Vertex AI 完整指南:從模型訓練到生產部署

GCP AI/ML 與 Vertex AI 完整指南:從模型訓練到生產部署

📑 目錄

GCP AI/ML 與 Vertex AI 完整指南:從模型訓練到生產部署GCP AI/ML 與 Vertex AI 完整指南:從模型訓練到生產部署

想在公司導入 AI,但不知道從何開始?

自己訓練模型太複雜,用現成 API 又怕不夠彈性?

GCP 的 AI 服務從「零程式碼」到「完全自訂」都有方案。這篇文章會帶你認識 GCP 的 AI 生態系,從 Vertex AI 平台到 Gemini API,找到最適合你的切入點。

想先了解 GCP 的基礎服務?請參考「GCP 完整指南:從入門概念到企業實戰」。



GCP AI/ML 服務生態系總覽

💡 重點摘要:GCP 的 AI 服務不只一個,而是一整個生態系。

Google Cloud AI 的市場定位與優勢

Google 做 AI 有什麼優勢?

技術根基:

實戰經驗:

獨特優勢:

預訓練 API vs 自訂模型的選擇

GCP AI 服務分兩大類:

預訓練 API(現成的):

自訂模型(自己練的):

怎麼選?

情境選擇原因
辨識通用物體Vision API已經訓練好了
辨識自家產品瑕疵AutoML Vision需要用自己的資料
翻譯常見語言Translation API品質已經很好
翻譯專業術語自訂模型需要領域知識
快速原型驗證預訓練 API快速得到結果
追求最佳效果自訂模型針對性優化

AI 服務架構圖解

GCP AI 服務分層:

┌─────────────────────────────────────────────────┐
│            應用層:Gemini API、Agent Builder      │
├─────────────────────────────────────────────────┤
│            平台層:Vertex AI                      │
│  ┌──────────┬──────────┬──────────┬──────────┐ │
│  │ Workbench │ AutoML   │ Pipelines │ Model    │ │
│  │          │          │           │ Garden   │ │
│  └──────────┴──────────┴──────────┴──────────┘ │
├─────────────────────────────────────────────────┤
│            資料層:BigQuery、Cloud Storage        │
├─────────────────────────────────────────────────┤
│            基礎設施:GPU、TPU、Compute Engine     │
└─────────────────────────────────────────────────┘


Vertex AI 平台深度解析

Vertex AI 是 GCP 的統一 AI 平台。所有 ML 工作都可以在這裡完成。

Vertex AI 核心功能介紹

Vertex AI 整合了什麼?

功能說明對應舊服務
WorkbenchJupyter Notebook 環境AI Platform Notebooks
Training模型訓練服務AI Platform Training
Prediction模型部署服務AI Platform Prediction
AutoML自動化機器學習AutoML Vision/NL/Tables
PipelinesML 工作流程Kubeflow Pipelines
Feature Store特徵管理新功能
Model Registry模型版本管理新功能
Model Garden預訓練模型庫新功能

好處:

Workbench(Jupyter Notebook 環境)

做 ML 的第一步通常是開一個 Notebook 來探索資料。

Workbench 類型:

類型特色適合
Managed Notebooks完全託管、快速啟動大多數使用者
User-Managed Notebooks更多控制權需要自訂配置

建立 Workbench Instance:

gcloud workbench instances create my-notebook \
  --location=asia-east1-b \
  --machine-type=n1-standard-4

預裝工具:

Model Registry 模型管理

訓練完的模型需要版本管理。

功能:

上傳模型到 Registry:

from google.cloud import aiplatform

aiplatform.init(project='my-project', location='asia-east1')

model = aiplatform.Model.upload(
    display_name='my-model',
    artifact_uri='gs://my-bucket/model/',
    serving_container_image_uri='us-docker.pkg.dev/vertex-ai/prediction/tf2-cpu.2-8:latest'
)

Pipelines 工作流程自動化

把整個 ML 流程自動化。

Pipeline 包含什麼:

  1. 資料載入
  2. 資料前處理
  3. 模型訓練
  4. 模型評估
  5. 模型部署

使用 Kubeflow Pipelines SDK:

from kfp import dsl
from kfp.v2 import compiler

@dsl.pipeline(name='my-pipeline')
def my_pipeline():
    # 定義各個步驟
    data_op = load_data_component()
    train_op = train_model_component(data=data_op.output)
    deploy_op = deploy_model_component(model=train_op.output)

# 編譯並執行
compiler.Compiler().compile(my_pipeline, 'pipeline.json')

Feature Store 特徵工程

特徵是 ML 的核心。Feature Store 幫你管理它們。

解決什麼問題?

使用場景:



AutoML:無程式碼 AI 建模

不會寫程式也能訓練 ML 模型?AutoML 讓這成為可能。

AutoML 運作原理

AutoML 自動處理:

  1. 資料探索和清理
  2. 特徵工程
  3. 模型架構搜尋
  4. 超參數調整
  5. 模型訓練
  6. 模型評估

你只需要:

  1. 準備標註好的資料
  2. 上傳到 Vertex AI
  3. 點擊「Train」
  4. 等待完成

AutoML Vision(影像辨識)

支援任務:

資料需求:

使用範例:

AutoML Natural Language(文字分析)

支援任務:

資料需求:

使用範例:

AutoML Tables(結構化資料)

支援任務:

資料需求:

使用範例:

AutoML 適用場景與限制

適合用 AutoML:

不適合用 AutoML:

費用考量:



Gemini API 與生成式 AI

2024-2025 年最火的 AI 技術:生成式 AI。

Gemini 模型版本比較(Pro / Flash / Ultra)

模型特色適合價格
Gemini 2.0 Flash超快速、成本低即時應用、大量請求最低
Gemini 1.5 Pro平衡效能和成本一般商業應用中等
Gemini 1.5 Flash快速回應對話系統、輕量任務較低
Gemini Ultra最強效能複雜推理、專業任務最高

選擇建議:

API 呼叫與計費方式

基本呼叫範例:

import google.generativeai as genai

genai.configure(api_key='YOUR_API_KEY')

model = genai.GenerativeModel('gemini-1.5-pro')
response = model.generate_content('用繁體中文解釋什麼是機器學習')

print(response.text)

從 Vertex AI 呼叫:

from vertexai.generative_models import GenerativeModel

model = GenerativeModel('gemini-1.5-pro')
response = model.generate_content('寫一段產品描述')

print(response.text)

計費方式:

Prompt Engineering 最佳實踐

好的 Prompt 長這樣:

你是一個專業的產品文案撰寫者。

任務:為以下產品寫一段 50 字的促銷文案。

產品資訊:
- 名稱:超輕量筆電
- 重量:900g
- 特色:16 小時續航、軍規耐用

要求:
1. 使用繁體中文
2. 語調活潑但專業
3. 強調輕量和續航優勢

Prompt 技巧:

企業應用案例

案例 1:客服自動回覆

案例 2:文件摘要

案例 3:程式碼輔助

案例 4:內容生成



BigQuery ML:SQL 驅動的機器學習

資料分析師也能做 ML?用 SQL 就可以。

BQML 支援的模型類型

模型類型SQL 指令適合任務
線性迴歸LINEAR_REG預測數值
邏輯迴歸LOGISTIC_REG二元分類
K-MeansKMEANS客戶分群
時間序列ARIMA_PLUS預測趨勢
XGBoostBOOSTED_TREE_CLASSIFIER複雜分類
DNNDNN_CLASSIFIER深度學習
AutoML TablesAUTOML_CLASSIFIER自動化 ML

建立與訓練模型語法

建立模型:

CREATE OR REPLACE MODEL `my_dataset.sales_forecast`
OPTIONS(
  model_type='ARIMA_PLUS',
  time_series_timestamp_col='date',
  time_series_data_col='sales',
  time_series_id_col='product_id'
) AS
SELECT
  date,
  product_id,
  sales
FROM
  `my_dataset.sales_data`
WHERE
  date < '2024-01-01'

預測:

SELECT *
FROM ML.FORECAST(
  MODEL `my_dataset.sales_forecast`,
  STRUCT(30 AS horizon, 0.95 AS confidence_level)
)

評估模型:

SELECT *
FROM ML.EVALUATE(MODEL `my_dataset.my_model`)

適用場景與效能考量

適合 BQML:

不適合 BQML:

費用提示:



AI/ML 成本規劃與優化

AI 專案很容易超支,做好成本規劃很重要。

訓練 vs 推論費用結構

訓練費用:

推論費用:

費用比較範例:

項目訓練費用推論費用(每月)
小型模型$50-200$100-300
中型模型$500-2,000$500-1,500
大型模型$5,000-20,000$2,000-10,000

GPU/TPU 選擇與成本比較

GPU 選項:

GPU記憶體適合每小時費用
T416GB推論、小型訓練~$0.35
L424GB平衡型~$0.70
A100 40GB40GB大型訓練~$3.00
A100 80GB80GB超大模型~$4.00
H10080GB最新最強~$8.00

TPU 選項:

TPU適合每小時費用
v2-8中型訓練~$4.50
v3-8大型訓練~$8.00
v5e推論優化~$1.20

選擇建議:

批次推論降低成本

即時推論 vs 批次推論:

類型延遲成本適合
即時(Online)毫秒級較高即時應用
批次(Batch)分鐘到小時較低大量處理

批次推論使用場景:

成本差異: 批次推論可以比即時推論便宜 60-80%。



企業 AI 導入最佳實踐

從 POC 到生產,企業 AI 專案怎麼走?

從 POC 到 Production 的路徑

階段 1:探索與定義(2-4 週)

階段 2:POC(4-8 週)

階段 3:開發(8-16 週)

階段 4:上線(4-8 週)

常見失敗原因:

MLOps 與模型監控

MLOps 包含什麼:

模型監控指標:

Vertex AI Model Monitoring:

from google.cloud import aiplatform

# 啟用監控
endpoint = aiplatform.Endpoint('endpoint-id')
endpoint.update(
    traffic_split={'model-v1': 100},
    enable_model_monitoring=True,
    model_monitoring_config={
        'alert_config': {
            'email_alert_config': {
                'user_emails': ['[email protected]']
            }
        }
    }
)

資料治理與合規考量

資料隱私:

模型合規:

GCP 合規工具:

資安相關細節請見「GCP 資安與 Cloud Armor 防護完整指南」。



想在企業導入 AI?

從 Gemini 到自建 LLM,選擇很多但坑也很多。

預約 AI 導入諮詢,讓有經驗的人幫你避坑。

CloudSwap 的 AI 導入服務:



結論:建構你的 GCP AI 策略

GCP 的 AI 服務很完整,關鍵是找到適合你的切入點。

選擇建議:

你的情況建議方案
想快速試試 AIGemini API
有資料但沒 ML 團隊AutoML
資料在 BigQueryBigQuery ML
有 ML 團隊想要更多控制Vertex AI 自訂訓練
需要完整 MLOpsVertex AI Pipelines

給不同角色的建議:

給業務主管:

給工程師:

給資料分析師:

AI 導入是一個旅程,不是一個專案。從小開始,持續學習,逐步擴大規模。



延伸閱讀



圖片說明






參考資料

  1. Google Cloud,《Vertex AI Documentation》(2024)
  2. Google Cloud,《AutoML Documentation》(2024)
  3. Google Cloud,《Gemini API Documentation》(2024)
  4. Google Cloud,《BigQuery ML Documentation》(2024)
  5. Google Cloud,《MLOps: Continuous delivery and automation pipelines in machine learning》(2024)
GCPDocker
上一篇
GCP 證照與課程完整學習指南(2025):從入門到專業認證
下一篇
2025 免費雲端資料庫完整清單|7 個適合新手的免費方案推薦