1. 緒論

本文件概述一項正在進行的博士研究計畫,旨在探討如何將生成對抗網路整合到時尚設計的共創工作流程中。其核心前提是,生成對抗網路並非取代人類創意,而是能作為協作夥伴,豐富設計過程。此計畫立基於人機互動、生成式機器學習與設計研究的交叉領域。它試圖回答:「生成對抗網路如何應用於共創?在此過程中,它們又能如何貢獻於時尚設計流程?」 藉由運用混合主動式共創的框架,本研究旨在將生成對抗網路的演算法特性轉化為直覺、互動的介面,以促進設計師與人工智慧之間的協同合作關係。

2. 背景與相關研究

本計畫建立在數個現有研究的關鍵領域之上。

2.1. 生成對抗網路在創意領域的應用

生成對抗網路已在藝術、人臉和時尚等領域展現出生成高擬真度、新穎作品的能力。StyleGANCycleGAN 等模型至關重要。例如,CycleGAN 針對非配對圖像到圖像轉換的框架(如 Zhu 等人於 2017 年的開創性論文所述),為與時尚高度相關的風格轉換應用提供了技術基礎。

2.2. 黑箱挑戰與不確定性

生成對抗網路在專業設計領域應用的主要障礙,在於其固有的難以解釋性。複雜且糾纏的潛在空間使得設計師難以理解或可預測地控制生成過程。像 Benjamin 等人這樣的研究者提出將機器學習的不確定性視為一種設計材料,認為神經網路的「不可預測性」可以成為創意靈感的來源,而非需要消除的缺陷。

2.3. 混合主動式共創

這種人機互動範式專注於控制權在人與電腦代理之間動態共享的系統,雙方各自貢獻其獨特優勢。目標並非完全自動化,而是增強,由人工智慧處理大規模的模式識別與生成,而人類則提供高層次的意圖、美學判斷和情境理解。

3. 計畫框架與方法論

3.1. 核心研究問題

  • 生成對抗網路的技術特性(例如潛在空間結構、模式崩潰)如何在互動式共創環境中體現?
  • 哪些互動範式(例如素描、語義滑桿、基於範例的編輯)能最有效地橋接設計師意圖與生成對抗網路生成之間的鴻溝?
  • 與生成對抗網路共創如何影響時尚設計流程、設計師的創造力以及最終成果?

3.2. 提議的共創流程

設想的系統遵循一個迭代循環:1) 設計師提供初始輸入(素描、情緒板、文字提示)。2) 生成對抗網路生成一組候選設計。3) 設計師選擇、評估並精煉候選設計,可能使用互動工具來操控潛在空間。4) 精煉後的輸出將作為下一個生成循環的參考,或是最終定案。

4. 技術基礎與細節

4.1. 生成對抗網路架構與潛在空間

本計畫可能採用基於條件或風格的生成對抗網路架構(例如 StyleGAN2),並在大型時尚影像資料集上進行訓練。關鍵元件是潛在空間 Z,這是一個低維度的流形,其中每個點 z 對應一個生成的影像。在此空間中導航是實現控制的關鍵。

4.2. 數學公式

生成對抗網路的核心目標是生成器 G 與判別器 D 之間的極小極大博弈:

$\min_G \max_D V(D, G) = \mathbb{E}_{x \sim p_{data}(x)}[\log D(x)] + \mathbb{E}_{z \sim p_z(z)}[\log(1 - D(G(z)))]$

對於共創應用,重點轉移到學習一個從使用者輸入(例如素描、屬性)到潛在空間區域的映射函數 fz' = f(Iuser),從而實現引導式生成。

5. 分析框架與範例案例

情境:設計「永續晚禮服」系列。

  1. 輸入: 設計師上傳一個情緒板,包含有機紋理、垂墜輪廓的影像,以及大地色系的調色盤。他們同時輸入文字提示:「優雅、零廢棄剪裁、親生命性」。
  2. 人工智慧處理: 一個多模態生成對抗網路(例如結合用於文字的 CLIP 和用於影像的 StyleGAN)將這些輸入編碼為一個組合的潛在向量,生成 20 個初始設計變體。
  3. 人工精煉: 設計師選出 3 個有潛力的變體。使用一個具有屬性滑桿(例如「結構化 vs. 飄逸」或「裝飾程度」)的介面,他們調整對應這些特徵的潛在方向,創造出新的混合設計。
  4. 輸出與迭代: 最終選定的成果是新穎服裝設計的高解析度渲染圖,融合了初始的美學意圖與人工智慧生成、出乎意料的造型元素,加速了構思階段。

6. 預期成果與實驗方法

6.1. 原型介面描述

提議的互動式原型將具備以下功能:用於初始輸入/編輯的畫布;展示人工智慧生成變體的畫廊;一個用於操控潛在空間的可解釋控制面板(例如已發現的屬性滑桿);以及一個歷史追蹤器,用以視覺化共創歷程。

6.2. 評估指標

成功與否將透過混合方法衡量:

  • 量化指標: 任務完成時間、達到滿意設計所需的迭代次數、生成輸出的多樣性。
  • 質化指標: 設計師訪談,評估感知到的創意支援、自主感以及人工智慧建議的實用性,並透過主題分析進行分析。

7. 未來應用與方向

其影響力超越學術性的人機互動領域。成功的共創式生成對抗網路可能透過以下方式革新時尚產業:

  • 設計民主化: 降低獨立設計師的入行門檻。
  • 永續實踐: 實現快速的虛擬原型製作,減少實體樣品浪費。
  • 個人化時尚: 驅動按需、人工智慧輔助的客製化平台。
  • 跨領域擴展: 此框架適用於產品設計、建築和數位藝術。
未來的研究必須解決潛在空間解糾纏以實現更好的控制、多模態互動(語音、手勢),以及關於這些工具如何重塑專業實踐的縱向研究。

8. 分析師觀點:核心見解與評論

核心見解: 此計畫並非旨在打造更好的影像生成器;它是對創意人工智慧時代中自主權協商的策略性探討。真正的成果是為人機夥伴關係建立一套新的互動語法。

邏輯流程: 論證從識別問題(生成對抗網路的黑箱特性)穩健地推進到提出解決範式(混合主動式共創)和一個具體的測試案例(時尚)。它正確地指出,價值不僅在於人工智慧單獨的輸出,更在於它所促成的過程

優勢與缺陷: 優勢: 聚焦於具體且具商業相關性的領域(時尚)是明智之舉。這將理論性的人機互動問題紮根於現實世界的實踐中。運用「不確定性作為特色」的思維模式,是對典型機器學習弱點的一種精妙重構。 關鍵缺陷: 該提案明顯缺乏關於如何實現可解釋控制的細節。僅僅引用「混合主動式」是不夠的。該領域充斥著失敗的「創意人工智慧」工具嘗試,設計師之所以放棄,是因為互動過程感覺像在猜測。若無法在使潛在空間語義可導航方面取得突破——或許是透過創新運用如 GANSpace(Härkönen 等人,2020)等技術或明確的解糾纏目標——此計畫有淪為另一個無法擴展至專業用途的原型的風險。此外,評估計畫似乎過於學術化;它應納入來自時尚產業本身的指標,例如與趨勢預測的契合度或生產可行性。

可行建議: 為了讓此計畫產生影響,團隊必須:
1. 優先考慮控制而非新穎性: 從第一天起就與在職時尚設計師合作,迭代建構符合他們心智模型的介面,而非機器學習研究者的模型。工具必須感覺像精密儀器,而非吃角子老虎機。
2. 與最先進技術進行基準比較: 嚴格地將其共創流程不僅與基準比較,更要與商業工具如 Adobe Firefly 或新興平台如 Cala 進行比較。他們的學術方法能提供什麼獨特價值?
3. 為生態系統規劃: 超越原型思考。此工具將如何整合到現有的設計軟體套件(例如 CLO3D、Browzwear)中?採用的途徑在於無縫整合,而非獨立的應用程式。

9. 參考文獻

  1. Goodfellow, I., et al. (2014). Generative Adversarial Nets. Advances in Neural Information Processing Systems 27.
  2. Zhu, J.-Y., et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. IEEE International Conference on Computer Vision (ICCV).
  3. Karras, T., et al. (2020). Analyzing and Improving the Image Quality of StyleGAN. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).
  4. Benjamin, G., et al. (2021). Uncertainty as a Design Material. ACM CHI Conference on Human Factors in Computing Systems (CHI '21) Workshop.
  5. Härkönen, E., et al. (2020). GANSpace: Discovering Interpretable GAN Controls. Advances in Neural Information Processing Systems 33.
  6. Shneiderman, B. (2022). Human-Centered AI. Oxford University Press.
  7. Grabe, I., & Zhu, J. (2023). Towards Co-Creative Generative Adversarial Networks for Fashion Designers. CHI '22 Workshop on Generative AI and HCI. (The analyzed PDF).