[草稿] 請輸入標題
2026 Mar 05 未分類
生成式 AI 是什麼
美國 NIST 在生成式 AI 風險管理文件裡是這樣定義的 :
簡單來說,生成式 AI 就是一種「能自己產出新內容」的 AI 。
它的運作方式有點像這樣 :先讓 AI 讀大量的資料(文字、圖片、聲音都算),讓它從中學會「這類內容通常長什麼樣子」,然後它就能根據這些學到的規律,生成全新的內容出來。
舉個生活化的例子:
假設你讓 AI 讀了幾萬篇美食部落格文章,它就會慢慢理解「美食文通常怎麼寫、用什麼語氣、會提到哪些元素」。之後你只要給它一個簡單的指令(也就是所謂的 prompt),比如「幫我寫一段介紹台南小吃的文章」,它就能生出一篇風格相似、但內容全新的文章。
這個概念不只用在文字,圖片、影片、音訊都適用。像是你輸入一句「夕陽下的富士山水彩畫」,AI 就能幫你畫出一張從來沒存在過的圖。
生成模型到底怎麼學會創造
所有生成式 AI 的底層邏輯其實都一樣:先搞懂「真實世界的資料長什麼樣」,然後想辦法生出一樣像的新東西。
用比較直覺的方式理解:假設你蒐集了一萬張貓咪照片,這些照片背後其實存在一套「規律」——貓有尖耳朵、有鬍鬚、眼睛長什麼比例⋯⋯等等。生成模型的任務,就是把這套規律學起來(技術上叫「學習資料的機率分布」),學會之後,它就能依照這套規律「抽樣」出全新的貓咪圖片。
而且它還能加上條件。比如你跟它說「一隻橘色的貓坐在窗台上」,它就會在「所有貓的規律」裡,進一步篩選出符合你描述的樣子來生成。前者叫「無條件生成」,後者叫「條件生成」,也就是我們日常用 prompt 下指令時在做的事。
AI 的分類方式
AI 的世界其實有很多種類,生成式 AI 只是其中一塊。了解整個分類架構,會更清楚它的角色。
AI 的分類通常可以從兩個角度來看:「它怎麼學」和「它學來幹嘛」。
第一個角度:它怎麼學的?
這就像問一個學生「你是怎麼學會的」,大致有四種方式:
「監督式學習」就像是有老師一題一題帶著你練——每筆資料都附有正確答案。比如你給 AI 看一千張照片,每張都標好「這是貓」「這是狗」,它就學會怎麼分辨貓狗。
「非監督式學習」則是沒有標準答案,讓 AI 自己去發現資料裡的規律。比如你丟一堆顧客的消費紀錄給它,它可能會自己發現「這群人偏好高價商品,那群人偏好折扣品」,自動做出分群。
「自我監督式學習」比較特別,算是介於前兩者之間。AI 會自己出題目給自己練。最經典的做法就是「遮字預測」:把一段文字遮住幾個字,讓 AI 猜被遮住的是什麼。這不需要人工標記,但 AI 等於在過程中自己製造了練習題。現在的大型語言模型,基本上都是用這種方式訓練出來的。
「強化學習」則完全不一樣,它像是讓 AI 自己在一個環境裡摸索,做對了就給獎勵,做錯了就扣分,讓它慢慢學會最好的策略。訓練 AI 下棋、玩遊戲常用這種方式,而現在的語言模型在訓練後期,也會加入人類回饋的強化學習來讓回答更符合人的期待。
第二個角度:它學來做什麼?
這邊主要分兩大類:
「判別式」模型的重點是「分類和預測」。你給它一封 email,它告訴你「這是垃圾信」;你給它一張 X 光片,它告訴你「有異常」。它的任務是把東西歸類或做判斷。
「生成式」模型的重點是「創造新內容」。它不是在做選擇題,而是在寫申論題——你給它一個指令,它能產出一段文字、一張圖、一段音樂。
那生成式 AI 到底在哪個位置?
如果用上面兩個角度來定位,生成式 AI 通常是這樣的組合:學習方式上,主要靠「自我監督式學習」打底(比如讀大量文字來學語言規律),再透過人類回饋的強化學習做微調;建模目標上,屬於「生成式」,核心任務是產出新內容。
而在實際應用中,生成式 AI 很少單打獨鬥。你現在看到的很多 AI 產品,其實是「生成 + 檢索 + 工具」的混合系統。比如 AI 在回答你的問題時,可能會先去搜尋資料庫找到相關資訊(這叫 RAG,檢索增強生成),再結合自己的生成能力來寫出回答,甚至還能呼叫外部工具幫你完成任務(這就是 AI Agent 的概念)。
所以生成式 AI 不是一個孤立的技術,它更像是整個 AI 生態系裡的一個核心引擎,搭配不同的學習方式和應用架構,才變成我們日常接觸到的各種 AI 服務。
產品化應用
生成式 AI 不是一種模型,而是一整個「家族」。不同的模型用不同的方式來「生」內容,各有各的強項和弱點。下面我們用比較好懂的方式,把主要的模型類型走過一輪。
大家比較熟悉的「產品化應用」:
文字生成圖片(Text-to-Image),像 DALL·E、Stable Diffusion、Midjourney,讓你打一句話就能出圖。它大幅降低了設計門檻,行銷素材、概念設計、插畫都能快速產出。但也帶來版權、風格抄襲、肖像濫用等爭議,不同平台的商用條款也差很多,使用前要留意。
文字生成影片(Text-to-Video),像 Sora、Veo 3,是目前發展最快的方向之一。能快速做出影片分鏡和廣告素材,但同時也讓深偽(deepfake)和內容安全問題變得更嚴峻,已經成為重要的治理議題。
音訊生成,像 WaveNet,能根據文字或其他條件產生高品質的語音,甚至模擬不同說話者的聲音。常見用途包括語音助理的 TTS(文字轉語音)、配音、音效製作等。
整體來看,這些模型就像工具箱裡的不同工具——有的擅長文字、有的擅長圖片、有的擅長理解、有的擅長創造。實際應用中,往往不會只用一種,而是根據需求把不同模型組合起來使用。
主流生成式 AI 工具與平台:商業和開源各有哪些選擇?
選工具之前,大家最常關心幾件事:要不要錢?能不能在自己電腦上跑?支不支援繁體中文?資料會不會被拿去訓練?以下就用這些角度來快速認識目前主要的玩家。
商業服務:付錢就能用,省心但資料在別人手上
OpenAI(ChatGPT、DALL·E、Sora) 大家最熟悉的一家。免費版就能用 ChatGPT,付費的 Plus 方案每月 20 美元,Pro 方案 200 美元,企業版則是按人頭算。能處理文字、圖片、語音、影片,算是功能最全面的。API 的資料預設不會拿去訓練模型(除非你自己同意)。繁體中文可以用,但如果你希望它的語氣更「台灣味」,通常需要在 prompt 裡特別交代。
Anthropic(Claude) 就是你現在在用的這個。Team 方案每月 20~25 美元一個席位。強項在文字處理、工具串接和企業整合。商用 API 的資料預設也不會拿去訓練。繁體中文支援不錯,但一樣建議搭配提示工程來確保用語風格一致。
Google(Gemini) Google 自家的生成式 AI,整合了搜尋、多模態能力和圖像生成。有免費額度可以試用,API 依用量計費。在 Google Cloud 環境下,官方強調不會未經允許拿你的資料去訓練。中英文都支援,繁體一樣需要用提示來規範用詞。
Midjourney 專門做圖像生成的訂閱制服務,方案從每月 10 美元到 120 美元不等,目前沒有免費試用。主要透過 Discord 或官網操作,比較偏向設計師和創作者的工具,不像其他平台那樣提供開發者 API。用中文下提示詞是可以的,但英文提示通常效果更穩定。要注意的是,只有較高階的方案才有「隱身模式」,否則你生成的圖片其他人可能看得到。
Stability AI(Stable Diffusion 系列) 橫跨商業和開源的生態系,主要做圖像和音訊生成。平台採 credit 制計費(1 credit 約 0.01 美元)。部分模型的權重有開放,可以下載到自己電腦跑,但要注意不同版本的授權條款。繁體中文提示可以用,品質需要自己測試驗證。
開源與平台工具:自由度高,但需要技術能力
Meta Llama Meta 釋出的開源語言模型系列。權重可以免費下載、自己部署在公司內網,資料完全不用出去。這對很重視資料隱私的企業來說很有吸引力。不過要注意它有授權限制,某些用途或地區可能受限,需要逐條看清楚。繁體中文的品質取決於你用哪個版本,以及有沒有針對繁體做過微調。
Hugging Face 可以把它想成「AI 模型的 GitHub」——一個集散平台,上面有成千上萬個開源模型可以選用。你可以直接用他們的雲端推論服務(有免費額度),也可以把模型下載回來自己跑。繁體中文模型不少,但品質參差不齊,需要自己挑選和評測。
Ollama 一個讓你在自己電腦上輕鬆跑大型語言模型的開源工具。完全免費,資料不會離開你的電腦。操作相對簡單,適合想在本地端實驗各種模型的人。繁體中文的表現取決於你下載哪個模型。
vLLM 偏向工程端的開源工具,專門用來做高效能的模型推論服務。如果你的公司想自己建一套 AI 推論系統(而不是用別人的 API),vLLM 是目前很熱門的選擇。適合有技術團隊的企業,需要自己處理安全性、權限控管等配套。
快速選擇指南
想快速上手、不想碰技術?→ OpenAI、Anthropic、Google 的消費端產品最方便
重視資料隱私、想在公司內部署?→ Llama + Ollama 或 vLLM 的組合值得考慮
主要需求是生圖?→ Midjourney(品質穩定)或 Stable Diffusion(彈性大、可本地跑)
想要大量探索不同模型?→ Hugging Face 是最好的起點
般人怎麼用生成式 AI?四個最實用的場景
先講一個重要觀念:生成式 AI 對大多數人來說,最大的價值不是「幫你做完整件事」,而是「幫你跨過最難的第一步」。你有沒有過那種經驗——打開空白文件盯著螢幕半小時,一個字都寫不出來?AI 最擅長的就是先給你一個「還不錯的草稿」,讓你有東西可以改、可以挑、可以推進,而不是從零開始。
以下四個場景,是一般人最常用到、也最容易上手的。
場景一:學習和做筆記——讓 AI 當你的讀書夥伴,但別讓它變成代寫機器
很多人會把一段課文丟給 AI 說「幫我整理重點」,但如果你只是複製貼上就當作學會了,那其實是在「外包學習」,你的大腦根本沒有真的處理過這些資訊。
比較好的用法是把 AI 當成一個很有耐心的學伴。舉個例子:你在讀一篇關於經濟學供需法則的文章,可以這樣操作——先把文章貼給 AI,請它「用跟朋友聊天的口氣幫我重新解釋一遍」;看完它的解釋之後,請它「出 10 題選擇題考考我」;你自己作答完,再請它「針對我答錯的題目,解釋我可能搞混了什麼概念」。
這樣你不是被動接收,而是主動在跟內容互動,學習效果會好很多。不過要特別注意,如果是未成年的學生在使用,家長和老師最好還是要適度監督,避免孩子養成「什麼都問 AI」的習慣,反而失去獨立思考的機會。
場景二:寫作和溝通——Email、簡報、社群貼文都適用
這大概是最多人用 AI 的場景了。但很多人的做法是直接說「幫我寫一封信給客戶」,結果出來的東西很「AI 味」,讀起來像罐頭訊息。
比較有效的做法是,先花一分鐘把幾件事想清楚再下指令:這封信的目的是什麼?讀的人是誰?我希望什麼語氣(正式、親切、急迫)?有沒有絕對不能講的地雷?然後請 AI 一次生成兩三個版本,你從裡面選一個最接近你想要的,再自己改成「你的語氣」。
比如你要寫一篇產品上線的社群貼文,可以這樣下指令:「我的產品是一款記帳 App,目標讀者是 25-35 歲的上班族,語氣要輕鬆但不幼稚,不要用『震撼上市』這種誇張用語。請給我三個不同角度的版本。」
特別提醒:如果你寫的內容牽涉到法規、產品功效宣稱、醫療建議或財務資訊,一定要自己核對事實。AI 有時候會非常有自信地寫出看似正確但其實有誤的內容,這在這些領域可能造成嚴重後果。
場景三:旅遊規劃和生活安排——很好用,但細節要自己確認
AI 在規劃行程這件事上非常方便。你可以一口氣告訴它:「我跟兩個朋友打算五月去京都四天三夜,預算每人三萬台幣,我們喜歡神社和美食,不喜歡太趕的行程,其中一個人吃素。」它就能幫你拉出一個相當不錯的行程草案。
但是,AI 給你的營業時間、票價、交通方式、餐廳是否還在營業這些「細節資訊」,一定要自己再查一次。這些資訊經常變動,AI 的資料不一定是最新的。一個好習慣是在最後跟 AI 說:「請幫我列出這份行程裡所有需要我自己上網確認的項目。」這樣你就有一張清晰的待辦清單。
還有一個很重要的原則:不要把身分證字號、信用卡號、護照資訊、病歷等敏感個資貼進任何雲端的 AI 聊天服務。方便歸方便,但這些資料一旦送出去,你就很難控制它的流向了。
場景四:圖像和創意內容——先用文字想清楚,再讓 AI 動手
用 AI 生圖時,很多人會直接打「一隻可愛的貓」,然後對結果不太滿意。其實 AI 生圖就像跟一個畫師溝通——你描述得越具體,成品越接近你想要的。
比較好的做法是把描述拆成四個部分:主體(畫什麼)、風格(什麼畫風)、構圖(什麼角度和佈局)、用途(要放在哪裡用)。舉例來說:「一隻橘色虎斑貓坐在窗台上,窗外是下雨的城市夜景,日系水彩插畫風格,橫幅構圖,用在部落格封面。」這樣的指令會比「可愛的貓」好非常多。生成之後先挑一張最接近的,再用局部修正來微調細節。
不過如果你要把 AI 生成的圖拿去商業使用,有兩件事一定要注意:第一,看清楚你用的工具的授權條款,不同平台對商用的規定差很多;第二,避免在提示詞裡指定「模仿某位藝術家的風格」,這可能引發著作權爭議。另外,越來越多平台和法規要求你標示「這是 AI 生成的內容」,這也是使用前要留意的。
總結一句話:AI 是很強的起跑輔助器,但終點線還是要你自己跑過去。它給你的任何東西,都值得你再看一眼、改一輪、確認一次。
職場工作者怎麼用?六大職能的實戰流程
不管你是什麼職能,用生成式 AI 最關鍵的觀念都一樣:把它放在「產出草稿」的位置,而不是「做最終決定」的位置。先讓 AI 跑第一棒,你來跑最後一棒做品質把關,這樣既有效率,風險也可控。
以下按不同職能,分享具體怎麼把 AI 嵌進你的工作流程。
行銷 / 內容團隊——量產內容變體,但品牌調性你來顧
行銷人最花時間的事情之一,就是同一個活動要寫出好幾個版本的文案來測試。這件事非常適合交給 AI。
實際流程大概是這樣:你先寫一份簡短的 brief(活動目的、目標受眾、品牌語氣、禁用詞彙),丟給 AI 一次生成三到五個版本。接著由你或品牌端做審核,確認用語有沒有踩到法遵紅線或偏離品牌調性,篩選後拿去做 A/B 測試,再根據數據回饋來優化下一輪。
怎麼知道有沒有效?可以追蹤幾個指標:內容產出時間有沒有縮短、點擊率和轉換率有沒有提升、審核被退回的比率有沒有下降。
客服團隊——讓 AI 先擬稿,人來做最後確認
客服每天要處理大量重複性高的問題,很適合用 AI 加速。比較理想的做法不是讓 AI 直接回覆客戶,而是讓它先從內部知識庫裡檢索相關資訊(也就是 RAG 的概念),自動生成一份回覆草稿,客服人員看過確認沒問題後再發送。
這樣做的好處是速度快了,但品質還是由人把關。你可以用「每小時結案數」「首次回覆時間」「客戶滿意度(CSAT)」這幾個數字來衡量導入前後的差異。有研究實測過,這種模式確實能顯著提升客服的整體生產力。
工程師——小任務交給 AI,核心邏輯自己寫
寫程式的人大概已經很熟悉 Copilot 這類工具了。比較務實的用法是:把程式碼補全、寫測試案例、產生文件註解這類「重複性高但花時間」的小任務交給 AI,但重要的商業邏輯和架構決策一定要自己主導。AI 生成的程式碼必須跑過 CI 測試,也要經過正常的 Code Review 流程,不能因為是 AI 寫的就跳過檢查。
可以觀察的指標包括:從需求到上線的前置時間有沒有縮短、程式缺陷率有沒有變化、測試覆蓋率有沒有提升。根據相關研究,開發速度的提升是比較容易看到的,但程式碼品質需要持續監控。
設計師——快速探索大量方向,縮短提案週期
設計工作中最耗時的階段之一,是前期的概念發想和風格探索。以前可能要花好幾天做 moodboard 和初步概念圖,現在可以用 AI 在幾小時內快速生成大量視覺變體。
流程上建議這樣走:先整理好 moodboard 和風格方向,用 AI 生成一批概念變體,從中挑選最有潛力的幾個方向,再由設計師自己重繪或精修,拿去跟客戶提案,後續根據回饋迭代。
這裡的價值不是取代設計師的美感判斷,而是讓「探索階段」變得更快更便宜。可以看的指標是:同樣時間內能探索多少變體、提案來回幾輪能定案、素材製作成本有沒有下降。
資料分析師——讓 AI 幫你起頭,數字自己跑、自己核
分析工作通常有個模式:先釐清問題、寫查詢語法、跑數據、再把結果寫成報告。其中「寫 SQL」和「寫報告敘事」這兩段很適合讓 AI 協助。
比如你可以先跟 AI 描述你要回答的商業問題,讓它幫你起一份 SQL 草稿,你自己檢查邏輯後再去跑數據。跑完之後,把數據結果丟給 AI,請它幫你寫一段分析敘事的初稿。但最後一定要自己核對每一個數字,因為 AI 有時候會在敘事裡「腦補」一些數據裡其實沒有的趨勢或因果關係。
追蹤指標可以看:報告交付時間、分析結論的錯誤率、以及需要重工的比率。
人資 / 行政——制式文件的好幫手,但法規合規要自己把關
人資部門有大量的「制式但耗時」的文書工作:職位說明(JD)、面試題庫、內部制度文件摘要等等。這些都很適合讓 AI 先產出草稿。
建議的做法是:先列出你的標準和規範(比如公司的職等定義、薪資揭露政策、DEI 用語原則),再讓 AI 根據這些準則生成草稿,最後由人資人員做法規和公司政策的檢核,確認沒問題才發布。
可以衡量的指標包括:文件產出時間、法規相關錯誤的發生率、以及候選人對招募流程的回饋。
最後一個通用原則,不管你是哪個職能都適用:
只要你的工作涉及「對外承諾」(像是合約、產品規格、法規聲明)或「高風險決策」(像是醫療建議、財務判斷、人事決定),請務必把 AI 的輸出當成「草稿」而不是「答案」。一份合格的 AI 輔助產出,至少要做到三件事:有標註資訊來源、有標記 AI 不確定的地方、有經過真人覆核。少了任何一項,風險就會大幅上升。
管理者怎麼導入生成式 AI?策略、治理、合規一次講清楚
如果你是主管或決策者,你面對的問題跟第一線使用者不一樣。你不只要想「怎麼用」,還要想「怎麼管」「出事怎麼辦」「怎麼證明這筆投資值得」。以下把導入生成式 AI 最關鍵的五個層面拆開來講。
第一層:策略——從「低風險、高頻率、容易算 ROI」的任務開始
很多公司導入 AI 會犯一個錯:一上來就想用在最核心、最複雜的業務上。但比較穩的做法是反過來,先挑那些「做錯了也不會出大事、但每天都在重複」的任務下手。
比如客服回覆的草稿生成、內部知識庫的問答、會議紀錄摘要、例行文件整理——這些任務頻率高、流程標準化、成效容易量化,而且就算 AI 產出有誤,後面還有人可以攔下來。等團隊累積了使用經驗、建立了審核流程之後,再逐步往更高風險的決策輔助場景擴展。
簡單說,先在淺水區練游泳,別一開始就跳深水區。
第二層:治理——用「風險清單」來驅動制度設計
導入 AI 不能只靠熱情,需要有制度配套。好消息是你不用從零開始想「會有哪些風險」,因為已經有現成的框架可以參考。
美國 NIST 在生成式 AI 風險管理文件裡,明確列出了 12 大類風險,包括 AI 產出不實內容(幻覺)、資訊完整性問題、資料隱私、智慧財產權爭議、供應鏈依賴等等。你可以把這份清單直接拿來對照公司現有的內控和稽核機制,看看哪些地方已經有對應的管控、哪些地方還有缺口,然後針對缺口補上制度。
比方說,如果你的團隊會用 AI 生成對外的行銷文案,那「資訊正確性」和「智慧財產權」這兩項就是你必須優先建立審核機制的地方。
第三層:合規——透明、標記、可追溯,這三件事是底線
不管你的公司在哪個國家、做什麼產業,全球的 AI 法規都在往同一個方向走:要求你做到「透明」。
歐盟的 AI Act 是目前最具代表性的法規之一。它要求 AI 生成的內容必須能被辨識出來(比如 AI 生成的圖片要有標記)、深偽內容必須明確標示、而且對通用型 AI 模型有額外的透明度和版權相關要求。
你可能會想「我的公司又不在歐盟」,但如果你的客戶、供應商或合作夥伴有任何一方跟歐盟有關,你就可能間接受到影響。所以比較務實的做法是,不管法規有沒有直接管到你,都先把「透明、標記、可追溯」當成基本能力來建立。具體來說就是:讓別人知道哪些內容是 AI 生成的、AI 生成的內容有標記、出了問題可以回溯是誰在什麼時候用什麼指令產出的。
第四層:資安——把 AI 當成一個「新的入口」來做威脅評估
這一層很多管理者會忽略,但其實非常重要。當你讓 AI 接上公司的系統、資料庫、甚至賦予它執行任務的權限時,它就等於是多開了一扇門,而這扇門可能被惡意利用。
OWASP(一個知名的資安組織)專門針對大型語言模型應用列出了十大風險,其中幾個特別值得注意:「Prompt Injection」是指有人透過精心設計的輸入,誘騙 AI 做出不該做的事,比如洩漏系統指令或繞過限制;「敏感資訊洩漏」是指 AI 在回答中不小心把不該透露的資料講出來;「過度代理」是指 AI 被賦予了太多權限,一旦出錯影響範圍過大。
尤其如果你的公司正在導入 AI Agent(讓 AI 不只回答問題,還能實際操作工具、發信、改資料),這些風險就會被放大。建議在導入前,讓資安團隊用跟評估其他系統一樣的標準,來對 AI 應用做一輪完整的威脅建模。
第五層:資料管理——搞清楚什麼能餵給 AI、什麼絕對不行
這點聽起來很基本,但實務上最容易出問題。員工在使用 AI 的過程中,可能不經意就把敏感資料貼進了對話框。
台灣公部門的指引就明確規定:不得把涉密資訊、個人資料、未公開的內部資料提供給生成式 AI,而且不能把 AI 未經確認的產出當作公務決策的唯一依據。企業可以參考這個邏輯,建立自己的「資料分級制度」和「不可輸入清單」。
實務上的做法可以是這樣:把公司資料分成幾個等級(比如公開、內部、機密、高度機密),然後明確規定「機密以上的資料不得輸入任何外部 AI 服務」。同時配合教育訓練,讓員工知道哪些東西可以丟給 AI、哪些絕對不行。
為什麼生成式AI 現在會這麼火紅
在生成式 AI 出現之前,AI 其實已經滲透到我們生活裡很久了。你每天在用的東西——Netflix 的推薦演算法、Google 搜尋的排序、iPhone 的人臉辨識、銀行的詐欺偵測——背後全都是 AI。但你有「感覺」自己在用 AI 嗎?大部分人沒有。
因為這些傳統 AI 做的事情本質上都是「判斷」和「分類」:這封信是不是垃圾郵件?這張照片裡有沒有人臉?這筆交易正不正常?它們在後台默默運作,你看到的只是結果,而不是 AI 本身。
更關鍵的是,以前要用 AI 解決一個問題,你通常需要工程師幫你蒐集資料、標記資料、訓練模型、部署上線。從頭到尾可能要花幾個月,還不一定成功。這代表 AI 的使用權基本上掌握在技術團隊手裡,一般人碰不到。

Sandy 陳俗均
我是公司經營者 / 高效管理教練 / 職涯成長講師
會分享給你更多商業知識與職場的學習與經驗
如果你有興趣,歡迎訂閱我的電子報。👇
如想留言評分,請先 登入會員!