微笑共鳴 – 結合情感科技與生成藝術的 2049 逍遙活
團隊成員
計畫成員
洪一平 臺大網媒所教授 總計畫主持人 & 子計畫三主持人
陳永昇 陽明交大資工系教授兼教務長 子計畫一主持人
林經堯 南藝大聲響所助理教授 子計畫二主持人
韓秉軒 北科大互動設計系副教授 子計畫四主持人
石勝文 暨大資工系教授 共同主持人
陳錫中 臺大醫院 共同主持人
許永真 長庚大學智慧運算學院院長 共同主持人
葉素玲 台大心理學系教授 協同主持人
李寅彰 樹德科大電競與電腦娛樂系助理教授 共同主持人
釋惠敏 法鼓文理學院教授 協同主持人
王友輝 臺東大學兒童文學研究所教授 共同主持人
王新仁 科技藝術家 協同主持人
計畫簡述
從疫情危機到後疫情時代的修復,「身心療癒」成為當代相當受重視的議題。近年從當代藝術的實踐而言,無論策展或藝術創作都提出如何以「感知」探索人類文明與生態世界的共存方法。如何回應科技藝術先驅白南準構想的未來科技願景,達成在 2049 年的會心一笑,是本作品探討的主題。從白南準的角度而言,科技如何為人類帶來樂趣?即在於能消融我們對於科技過於悲觀的想法,而轉化成更為正面與積極的未來動力。
微笑作為獲致幸福的重要環節,本計畫主持人過去十餘年來帶領 imLab 實驗室團隊創作的《微笑佛》(Smiling Buddha)、《微笑四方》(Quartic Smile)、《微笑宇宙》(SmileVerse)等作品,皆在探討人與影像、人與虛擬角色之間的交互關係。
本計畫《微笑共鳴-結合情感科技與生成藝術的2049逍遙活》旨在創造一個未來有利於以微笑傳遞正向情緒之科技藝術作品,替未來健康與育樂產業提供想像。作品設想在24年後的世界,真人與虛擬人相互情緒感染,傳遞正向情緒之場景。並以當今技術規劃微笑共鳴的單人和雙人之體驗。本計畫所打造的沉浸式互動體驗,將引領觀眾以微笑導引正向情緒,以邁向逍遙樂活的理想境界。此研究特別聚焦於如何透過科技增強人際互動中微笑的情緒傳遞與社會連結功能,為科技與藝術的融合,創造新的可能性。
本計畫之作品預計將分成以下四部分體驗:
序幕:看見自己(數位分身)、第一幕:喜相逢(寵物共情)、第二幕:微笑共鳴(情緒感染)、第三幕:會心一笑(人我無二)之體驗,並透過下列四個子計畫達成整體目標。
[子計畫一] 情緒偵測技術之開發與應用
基於臉部表情、語音、視線、生理訊號,開發多模態情緒辨識模型,以辨識觀眾之笑容以及其笑容強度。
[子計畫二] 聲響科技在情緒調節之研究與應用
運用ASMR × 雙耳錄音技術,提升使用者情緒放鬆、愉悅感受。再透過質化與量化的整合分析,探討心理聲學理論在VR沈浸體驗之應用。
[子計畫三] 生成式AI在虛擬人情緒表達之應用
運用 Gaussian Splatting 與深度學習技術,複製觀眾的表情至虛擬人臉上,或以AI 直接生成虛擬人臉部表情細節,作為觀眾情緒之引導回饋。
[子計畫四] 具身化虛擬寵物在情緒調節之研究與體驗設計
結合3D列印結構、HMD把手、呼吸感測與引導模組與絨毛材質,打造具身化觸覺模擬及其VR互動系統,營造深刻的沉浸的「寵物共情」體驗。基於共情體驗,探索具身化虛擬寵物在情感支持與互動鼓勵中的互動設計與應用,並評估對體驗提升的助益。
[總計畫] 作品體驗設計及系統整合
整合上述子計畫之情緒感測技術、聲響科技及虛擬寵物,共同創造微笑共鳴作品體驗。



