高光譜視頻的實現路徑:主動照明與編碼傳感器的協同設計(上)
?

從“拍照片"到“拍光譜視頻"
主動光源 + 像素級編碼曝光如何實現真正的高光譜視頻?
高光譜成像大家并不陌生。
它可以獲取 400–700nm 甚至更寬波段范圍內的連續光譜信息,讓我們看到“肉眼不可見"的物質差異。在農業表型、礦物識別、生物醫學、材料分選等領域,高光譜早已成為核心技術。
但一個問題長期存在:
為什么高光譜大多只能“拍靜態",卻很難“拍視頻"?
今天,我們從成像原理層面,深入講解一種“主動光源 + 像素級編碼曝光"的高光譜視頻思路,并解析它背后的核心物理機制。
推掃式(線掃)
一次采集一條空間線
通過運動完成整幅圖像
光譜精度高
無法拍攝快速動態場景
面陣濾光片馬賽克(MSFA)
每個像素覆蓋不同波段濾光片
單次曝光獲得多波段信息
每個像素只接收部分光譜 → 光子利用率低
噪聲高、動態范圍受限
CASSI / DOE 光學壓縮系統
通過衍射或編碼孔徑壓縮光譜信息
單幀完成采集
光學系統復雜
運動時出現空間-光譜混疊
核心矛盾在于
光譜分辨率 ↑ → 光能被分得更細 → 單波段光子數 ↓ → 曝光時間必須變長 → 無法拍視頻
把“光譜調制"從被動濾光片轉移到主動光源
傳統系統是:
用濾光片“丟掉"不需要的光
新思路是:
主動發出“需要的光"

像素級編碼曝光(CEP)
普通 CMOS 的限制
普通相機:
整個傳感器統一曝光
不能在同一幀內部做時間編碼
而 CEP(Coded Exposure Pixel)傳感器具有兩個特點:
① 每個像素有兩個電荷桶(Bucket 0 / Bucket 1)
② 每個像素可以在微秒級別控制:
當前子幀 → 把光子存進哪個桶
子幀機制
假設一幀時間 27ms
被分成 158 個子幀
每個子幀 170µs
在每個子幀內:
LED 按計劃點亮
每個像素根據編碼決定是否積分


免責聲明
本文技術內容基于公開論文《Lumosaic: Hyperspectral Video via Active Illumination and Coded-Exposure Pixels》
作者團隊來自 University of Toronto。
本文僅為技術原理解讀與行業趨勢分析,旨在促進高光譜成像領域的學術交流與工程探討。文中所述系統架構、實驗結果及性能指標均來源于論文作者公開發表的研究成果,并不代表奧譜天成現有產品技術方案或商業化能力承諾。
部分技術推演與產業化分析為作者基于行業經驗的理解與延伸,不構成對任何第三方技術的評價或替代說明。
如涉及論文引用或轉載需求,請以原作者及原始文獻為準。

