你知道、我知道、大家都知道,但商業媒體不能寫的:台灣成人遊戲真的很強

Podcaster 謝孟恭成立遊戲創投「肖楠資本」,預計募資 3 億新台幣。參與者包含嘖嘖和成人遊戲發行商芒果派對。台灣成人遊戲在全球市場表現亮眼,創造驚人營收,已成低調的「億元產業」。

Podcast 節目《股癌》製作人謝孟恭在今年 8 月,宣布發起專門投資遊戲公司的創投「肖楠資本」,預計在 2026 年將擁有新台幣3億元的資金。謝孟恭本人的知名度,讓這個新聞掀起龐大的流量。

而比較少人討論的是,「帳面上」目前的參與者,包含謝孟恭、群眾募資平台嘖嘖,以及遊戲發行商芒果派對。

誰是芒果派對?

根據芒果派對的公司簡介,該公司成立自 2021 年,在全球已發行數十款成人遊戲、累計銷量數百萬套。

圖說:芒果派對的 Steam 頁面,有超過 23 萬名玩家追蹤。
圖說:芒果派對的 Steam 頁面,有超過 23 萬名玩家追蹤。

發行成人遊戲有這麽賺錢,可以參與遊戲創投的投資嗎?

答案是:yessssssssss!

在台灣,所謂的小黃油(成人遊戲的暱稱,由「黃色遊戲」的簡稱改變而來)正在大舉吸金、賺全球的錢。毫不誇張地說,你可能很常聽到:「台灣以硬體製造享譽全球,軟體卻始終沒有起色」的說法,那講這句話的人,可能是不熟悉台灣小黃油在全球的吸金能力。

小黃油產業存在低調的「億元玩家」

圖說:比較不危險的圖。

資料來源:挖貝

圖說:比較不危險的圖。

舉幾個例子。以第三方分析平台 Gamalytic 的數據來看,芒果派對發行的遊戲《怠惰的怪獸公主不想工作》,銷售數字落在 23 萬~71 萬套,帶來的營收為 180 萬美元~570 萬美元,Gamalytic 粗抓在 380 萬美元左右,也就是新台幣 1.14 億元。

另外一個例子,遊戲《管理員的窺視》預估銷量為 21 萬~47 萬套,營收粗抓為 280 萬美元,也就是新台幣 8,400 萬元以上。

《夏色四葉草》則是另外一款熱賣大作,預估售出近 30 萬套,營收為 400 萬美元,妥妥的超過新台幣億元。

當然以上都還要扣除成本、Steam 平台 30% 的收成,以及 Gamalytic 畢竟是第三方平台,數字可能不夠準確。但台灣小黃油圈子的「億元等級」是真實存在,如果把標準放到千萬元等級,那可能還非常多人。且這些遊戲的開發團隊通常人數並不多,以程式設計+美術為主要組成,人均的產值相當高。

另外一點,是台灣小黃油是真的「成功出海」。以《怠惰的怪獸公主不想工作》來說,Gamalytic 的數據顯示僅有 10% 為台灣玩家。

甚至還有一個非常有趣的方向,國內的小黃油遊戲廠商和發行商,甚至已經開始內鬥,如果有 A 就不能找 B、有 B 就不能找 A。這代表什麼?有餅吃大家才有力氣內鬥。

為什麼台灣小黃油這麽強?

要探討台灣小黃油為什麼具有極強的競爭力,有樂觀面和悲觀面兩個方向的解讀。

首先是樂觀面,有點俗氣的說,是台灣的「自由」造就了小黃油盛世。小黃油的業內人士分享,以亞太地區來說,日本要打上馬賽克、中國需要遊戲版號、韓國會觸犯法律、東南亞則有一些宗教因素、西方的成人遊戲風格過於獨特,各種狀況疊加起來,反而讓台灣成為小黃油得天獨厚的沃土。

再來是悲觀層面,台灣曾經是遊戲大國,並不是沒有遊戲人才,但在小黃油之外的遊戲表現並沒有非常亮眼。而對於最頂尖的遊戲人才來說,小黃油是有機會「爆擊變現」的一條賽道。用小黃油來養「做遊戲」的夢想,是稍微講起來有點慘的狀況。有一家在國內非常知名的遊戲公司,也有涉及小黃油的領域,已經是業界公開的秘密。

當然,長期累積下來的遊戲實力,也是重要的一環。小黃油雖然是以相對簡單的故事線+漂亮的圖片組成,但是背後的遊戲性、數值設計也是成為踏上國際舞台不可或缺的一環。

那...為什麼沒人報導?

為什麼沒人報導?這是一題台灣大環境和媒體產業的題目。

首先,是小黃油公司都相對低調,深怕不小心吸引過多的目光,讓法規、輿情、環境走向不利的發展,畢竟台灣的社會還沒有開放到可以以小黃油為榮(為什麼不可以!)。但這件事情有一點點轉變的契機,國內的遊戲展也規劃了相對應的區塊,也開始有本身就是專注於小黃油的公司願意浮上檯面。

再來,同樣是環境問題,商業媒體喜歡的是反差和故事,但小黃油的成功故事「太過真實」,反而讓他們難以下筆。

一家媒體要報導一間公司,往往需要一個「樣板」,例如台積電的技術領先、無人機產業的受惠廠商、Gogoro 挑戰全球市場的野心(先不論成功或失敗)。這些故事有英雄、有挑戰、有名確的目標,而且最重要的是,它們「政治正確」能被廣泛傳播。

然而,台灣小黃油的成功故事是什麼?

舉例來說:「一群頂尖的遊戲人才,因為在常規賽道上難以溫飽或實現夢想,轉而投入成人內容,結果意外靠著人類最原始的慾望賺到大錢。」這個故事充滿了商業上的成功要素,卻缺乏能登上大雅之堂的「光環」。它太過裸露,直指人性和產業的現實困境,甚至對於需要顧及廣告主品牌形象、追求廣大讀者共鳴的商業媒體來說,這是一個很難包裝、甚至有點燙手的選題。

最後,是產業本身的「數據黑箱」與「人才斷層」問題,讓外部難以一窺全貌。

大部分的小黃油開發者——無論是個人、社團還是小型公司——都極度低調。他們通常不是上市公司,沒有公開財報的義務。外界分析其營收,只能依賴第三方平台的粗略估算,這讓嚴謹的財經報導難以切入。沒有精確的數據,就很難構成一篇有說服力的產業分析。

不過,已經愈來愈多人注意到這門隱藏在水面下的「好生意」。終將被迫或自願地,開始接受更多來自陽光的檢驗。

責任編輯:Mia

【機智科技通訊】作者 12,只有做過寫字的工作(目前),人生 KPI 是退休。撰寫內容涵蓋科技、商業、新創與宅物。加入 INSIDE 會員,獨享 INSIDE 科技趨勢電子報,點擊立刻成為會員

延伸閱讀:

麗臺科技 NVIDIA DLI 深度學習機構「使用提示工程技術打造 LLM 應用」課程,教你利用 LangChain 串起 AI 思維鏈

麗臺科技與 NVIDIA DLI 合作推出提示工程課程,帶領學員運用 LangChain 建構 LLM 應用,從基礎到實作,掌握自動化分析、資料結構化與降低成本的技巧,助企業提升 AI 效率與應用價值。

隨著生成式 AI 日益普及,越來越多企業都將 AI 視為強化生產力的工具,而 AI 的技術也不斷進步,要如何串連起多種不同的 AI 應用程式以及 LLM 大語言模型,以客製化方式讓 AI 能夠滿足企業的使用需求,也成為一大應用趨勢。

有鑒於趨勢所需,麗臺科技與 NVIDIA DLI 深度學習機構攜手合作推出的「使用提示工程技術打造 LLM 應用」課程,邀請具有海外授課經驗的 NVIDIA DLI 認證講師林威延博士,以深入淺出的方式,帶領學員從認識提示工程的基礎概念開始,到深入瞭解 LangChain 的使用方式,並實際做出能夠自動辨識、分析客戶回饋意見表的 LLM 應用程式範例。

客製化 AI 更有效率的解決應用痛點

或許我們都聽過一些撰寫提示詞以改善 LLM 回應品質的技巧,例如在提問之前,先幫 LLM 建立人設:「你現在是某某公司的專案經理,正在分析顧客意見調查表」,如此一來 LLM 在回應的過程中會更偏向該身份應有的思維邏輯,以改善整體回應的品質。

提示詞工程的目的也是為了提高回應品質,但是它的做法比較進階,且能夠更有效控制 LLM 的思考過程、調用外部工具,甚至能夠指定輸出的格式。例如安排 LLM 以指流程一步驟、一步驟處理輸入的資料,並在推論完成後生成 JSON 格式的結構化資料 (Structured Data),以便後續處理、製作表單。

Photo Credit: The News Lens Brand Studio

舉個實際的例子,透過 LangChain 的協助,企業可以快速分析顧客填寫的意見調查表,自動判斷整體意見屬於正面或是負面意見回饋,並統計這些意見屬於哪些產品型號以及類別,如此一來不需人力介入,就能讓 LLM 進行資料分析並產生詳細的樞紐分析表,讓主管洞察哪些種類的產品銷售最好,而在這類產品之中,又有哪幾項型號的表現明顯不如姊妹品,以便作為改進產品的依據。

相較之下,單純透過提示詞命令技巧操作 LLM 進行資料分析雖然在操作上較為簡單,但是改善回應的效果比較有限,而且可能會出現回應用字不一致的情況,例如在價格的欄位混用「台幣」、「新台幣」、「$」等不同方式表示,導致後續進行自動化數據分析的困難。

若借助 LangChain 進行上述工作,不但能大幅提升判斷正負意見的準確度,也能確保價格欄位使用一致的格式,讓數據分析的流程更加順暢。

使用 LangChain 構建 LLM 應用更精準又省錢

LangChain 的特色之一是可組合性:開發者可以用 Python 把 PromptTemplate、LLM、Tool、Memory、Chain、Agent 等元件像堆積木一樣靈活組裝,快速構建各種 AI 應用。課程中將提到思維鏈 (Chain of Thought, CoT) 的概念,如何利用提示詞讓 LLM 能逐步推理,完成複雜任務。LangChain 也提供了 ReAct(Reason + Act)等 Agent 架構,能夠讓 LLM 在推理過程中不僅「思考」,還能主動調用工具來執行動作,例如進行網路搜尋、彙整資料、呼叫 API 或操作多款應用程式。透過這樣的設計,AI 可以照著規劃的步驟逐步完成更複雜的工作,進而發揮代理式 AI (Agentic AI) 的功能。

不過,需要注意的是,思維鏈雖能強化推理能力,但也會大幅增加 AI 在運算過程中使用的詞元 (Token) 數量,進而提升雲端主機租金與 API 成本。課程因此也會帶領學員理解 Token 的定義,並利用 LangChain 檢視系統提示詞、使用者提示詞、AI 的回應內容,以簡化 Token 用量,最後透過正確的提示詞降低詞元使用量並省略不必要的詞元,有助於降低 AI 服務 24 小時不間斷運作所消耗的成本並提升效益,對於企業應用來說格外重要。

打造自動資料結構化應用程式

在「使用提示工程技術打造 LLM 應用」課程中,學員只需一台筆電即可透過 NVIDIA DLI 提供的平台上課,完全不需要具備 GPU 的電腦設備,大幅降低了學習的門檻。

課程設計從淺入深,先帶領學員認識提示詞與提示工程,理解 LLM 的運作邏輯,再進一步實作 LangChain 運算式語言 (LCEL),學會如何批次處理資料、執行分析與生成任務,甚至打造能夠保存對話紀錄的聊天機器人。在過程中,你將掌握如何讓 LLM 輸出符合指定格式的結構化資料,並能將其交給其他應用程式使用。最後,講師會引導你完成一個小專案,把原本繁雜的非結構化文本轉換成清晰有序的結構化資訊,真正體驗自動化資料分析帶來的效率與成就感。

如果你想進一步挑戰更多 LLM 的應用,可以參考麗臺科技 DLI 深度學習機構提供的「使用大語言模型建構RAG代理」,學習透過 AI 建立虛擬客服、分析客戶資訊,協助企業簡化運營、降低支出並大規模提高生產力。

另一門「使用大型語言模型快速開發應用」課程將從頭開始理解 LLM 的建構,課程中也加入實作,在講師的引導下操作範例程式與資料集,使用已調整好的模型來執行標記分類、序列分類、範圍預測和零樣本分類等任務,以及架設聊天機器人,透過情境實作,完整操作一次部署應用的流程。

本次「使用提示工程技術打造 LLM 應用」課程採用線上方式進行,預計招收 20 人,將於 10 月 23 日正式開課,10 月 13 日前完成報名繳費,將享有早鳥優惠,另外針對學生也有特別折扣,席位有限,現在就把握機會搶先報名!

word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word

mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word

mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1