NeoCore
by Red Pill Lab
NeoCore為一套多鏡頭、多演員的無標記動作捕捉系統,採用次世代AI動捕技術打造,僅需一台電腦搭配市售 USB 攝影機即可運作。無需穿戴感應服或貼附標記,即可實現即時、高精度的人體動作追蹤。捕捉之動作可即時串流至 Unreal Engine、Unity 和 MotionBuilder,也可錄製並匯出為 FBX、BVH 或 GLB 檔案格式,完美應用於動畫製作、視覺特效、遊戲開發與機器人技術等領域。
簡單安裝,靈活擴充
NeoCore 專為快速部署與彈性擴充而設計。整套系統僅需一台電腦搭配標準 USB 攝影機運行,無需任何特殊硬體。不論是在專業影棚還是臨時搭建的拍攝空間,都能在數分鐘內完成設置、立即投入使用,無需耗時數小時。
效能與成本之最佳平衡
您無需高昂成本也能取得專業級成果。NeoCore 免去昂貴的動作捕捉服、感測器或專用設備,只需使用一般市售攝影機與電腦,即可打造一套功能強大且預算友善的動作捕捉解決方案,無論是獨立創作者還是大型製作團隊,都能輕鬆上手。


無需標記,輕鬆上手
告別動作捕捉服、標記點和繁瑣的前期準備。NeoCore 可即時捕捉高品質動作數據,表演者無需穿戴任何裝備,大幅提升舒適度與自然表現。無論是節奏緊湊的製作現場,還是需要即時反應的現場演出,皆能快速、高效完成拍攝流程。
實現高精度多演員同時追蹤
NeoCore 可同時精準追蹤多位演員,即使在複雜場景中也能保持穩定可靠的效能。採用先進AI技術打造,確保動作捕捉平暢絲滑、數據一致,無論是動畫製作、視覺特效,或互動內容開發,一律經得起細節檢視。


輕鬆錄製,彈性串流
NeoCore 可將即時動作數據直接串流至 Unreal Engine、Unity 或 MotionBuilder,也能錄製並匯出為業界標準格式,如 FBX、BVH 與 GLB。無論是用於即時虛擬製作或後期處理,NeoCore皆能輕鬆整合到您的創作流程中,大幅提升效率。
Red Pill Go

速度及品質決定一切
想像在你手邊設備上就可即時運作的虛擬角色動畫。無需任何前置作業或將拍攝視頻傳到雲端解算。全身動補.嘴型同步.手部追踪完美結合,亦適合Vtuber進行直播運用。
通往元宇宙樞紐在此
將動作捕捉結果連接到您最喜歡的遊戲引擎如 Unity 或 Unreal Engine就是那麼簡單,或是訪問我們特別開發之隨選角色網頁平台:


自動骨架對位
可直接在 Red Pill GO 網站上傳您用 Vroid / ReadyPlaer.me 創建的模型,Red Pill 的 AI 將自動把即時之骨架追蹤資料重新對位至您的角色上。在RedPill 開發的 Unity 和 Unreal Engine 也內建了自動對位功能。
Red Pill Studio
2019年 Red Pill Lab 透過AI深度學習輔以上千筆動作資料推出了領先業界之 Red Pill IKNet 專利 MoCap 技術,僅需藉由六個感測器即可取代傳統動作捕捉的點點裝,不須無數反光點及固定式攝影棚,至今已銷售至九國家,同時被運⽤運線上直播及演唱會,成為活動中最大亮點。

全身動作捕捉
僅透過六個感測器和一個麥克風驅動的即時角色動畫系統。在 Red Pill Studio 所追蹤之即時人體動作十分生動、反應靈敏且穩定。您也可以在幾秒鐘內導入任何 FBX 角色和環境、2D 背景、視頻和 FBX 動畫作為素材。
超便攜且無需事前校準
整個Red Pill Studio系統可裝進行李箱或背包,幾分鐘內即可安裝啟用。無需與環境校準使其成為現場活動或演唱會甚至臨時攝影棚之最佳解決方案。


自動骨架對位
Red Pill Studio 可將原始或完成骨架對位後之動作捕捉資料轉錄為 FBX 格式,除可輸入 3D 軟體編修,也可透過 LiveLink 即時與 Unreal 虛幻引擎對接。
Red Pill Voice Engine
由 Red Pill 歷經兩年研發的 Voice2Facial 人工智慧聲學引擎,運用深度學習即可即時將人聲轉換為數位演員的嘴型及表情,全自動且適用於各國語言發音。採用Red Pill Voice Engine將可省下巨量動畫師重新調整嘴型的成本,且可讓角色表演更加逼真細膩,同時也提供離線版的技術支援服務。


高擬真之聲音嘴型同步
Red Pill Voice Engine可從現場收音或預錄音頻中轉換成十二種人類自然發音並對應至虛擬角色嘴型。此AI算法經過特別優化後可在 Windows、行動裝置或網頁上運行,且僅需要CPU。
眼神與情緒偵測
除生動且無延遲之嘴型之外,Red Pill Voice Engine可透過聲音偵測四種人類情緒及逼真的注視和眨眼。


即速反應
Red Pill Voice Engine每 10 毫秒即可進行一次AI聲音偵測,並整合高效之動態圖學算法,最終由聲音到影像之延遲率低於 150 毫秒,非常適合虛擬實境或視訊會議等即時應用。




