智能羽球裁判系統
側面羽球偵測
1、模型訓練與特徴提取
羽球偵測模型採用深度學習架構進行自主訓練,透過蒐集大量側面視角的比賽影像並進行手動標註,建立側面視角的羽球訓練數據集。訓練時利用資料增強[3]、隨機翻轉與多比例縮放等,大幅增加樣本的多樣性,強化模型對於不同光影環境與背景雜訊的辨識能力。
模型透過 YOLO架構的 Backbone [4]進行深層特徵提取,並由檢測頭學習預測羽球的精確座標。為確保模型精準收斂,訓練過程使用複合式損失函數[5],同步計算位置回歸誤差、類別分類誤差及物體存在之置信度誤差,並透過反向傳播[6]與梯度下降[7]持續更新權重,達成兼具高精度與實時處理效能的偵測表現。
2、時序動態追蹤
在實際應用階段,系統不僅依賴單影格的偵測結果,更結合了時序狀態機[8]進行連續追蹤,以應對高速移動下可能產生的影像模糊。系統利用循環隊列[9]儲存羽球連續幀位移的座標數據,構建出滑動窗口平滑化[10]的運動軌跡,透過信心度門檻過濾低品質偵測結果,確保系統僅針對高可靠度的羽球目標進行邏輯判定。
3、缺失目標容錯與虛擬補償
針對發球瞬間羽球極易與手腕重疊而導致偵測缺失的問題。當羽球在關鍵接觸期間消失時,會啓動計數器進行狀態保持,防止判定程序因瞬間的目標丟失而中斷。系統會調用存儲的人體手腕座標,並結合球體消失前的空間座標狀態進行持續追蹤,自動生成虛擬接觸點,確保在物理碰撞發生的極端影格中,仍能維持軌跡的完整性與高度判決的連貫性。
側面影像_羽球偵測結果
側面羽球偵測發球高度判定
4、局部最佳化瞬間鎖定
為定義最精確的擊球起點,在偵測到潛在接觸區間後,程式會自動回溯並搜索影格序列,尋找羽球中心與手腕座標距離真正的「局部最小値」。考量到發球動作的物理慣性,會根據發球次序動態調整影格選取偏移量。此機制確保了擷取到的高度數據點,即為羽球真正離開拍面受力飛行的起始物理點位,極大化了 115 公分高度判決的準確度。
側面視角羽球偵測