外送茶平台以「安全大數據模型」預測客戶風險的技術治理困境
- yu-girls

- 2025年12月8日
- 讀畢需時 6 分鐘
本文旨在分析外送茶平台使用安全大數據模型的技術治理困境,透過資料治理理論(data governance)、演算法歧視(algorithmic bias)、風險社會(risk society)、性別暴力框架(gender-based violence framework)等觀點,探討技術如何在一個原本就處於灰色地帶的產業中重新塑造權力、信任與風險分配。研究發現,當技術治理被導入不受監管的灰色性交易市場時,往往會產生「風險治理的反效應」,形成新的不平等與新的不安全,使平台、客戶與性工作者的關係更加緊張與不對稱。本研究亦提出政策建議,包含性工作者參與技術治理、資料最小化、演算法透明機制、第三方稽核與地方社群共構安全評分制度等。
第一章 引言
1.1 研究背景:非法產業的數位化與風險擴張
外送茶產業處於法律灰色地帶,市場中的風險具有高度不對等特性,包括:
暴力客、恐嚇客
攝影偷拍與影像外流
詐欺、拒付
警察臥底或釣魚
個資洩漏
跑單與帳務糾紛
在此高風險環境中,平台為提升「服務可持續性」與「勞動者安全」,開始導入科技工具,包括:
客戶風險標記機制
異常訊號比對系統(如聊天用詞、頻率、定位)
過往糾紛資料庫交叉比對
信用黑名單共享網路
AI大數據預測模型
然而,這些系統並非單純的安全技術,而是涉及權力分配、資料治理與勞動者自主性。
1.2 研究目的
本研究探討:
外送茶平台如何蒐集與整合資料以建構風險模型
模型可能造成性工作者的新風險
技術治理在不受監管市場中的倫理挑戰
如何在安全、隱私與勞動者權益之間取得平衡
第二章 文獻回顧
2.1 性工作與風險治理研究
過往研究指出,性交易市場中的風險源並非單一,而是結構性的,包括:
社會污名與邊陲性(marginalization)
法律懲罰造成的地下化
平台與仲介的資訊壟斷
客戶匿名性擴大權力不對等
(Sanders, 2016; Cheng, 2020)
在未合法化的市場中,風險常被迫由性工作者個人承擔。
2.2 資料治理(Data Governance)
資料治理關注:
資料來源是否合法
誰擁有資料與控制權
資料如何被使用、被定義、被解釋
演算法是否透明
外送茶平台大多無法明確界定資料取得的正當性,造成治理上的根本矛盾。
2.3 演算法治理與偏誤(Algorithmic Bias)
演算法預測模型通常依賴過往資料學習,而若資料本身帶有歧視或偏誤,模型會「放大既有不平等」。例如:
騷擾客被誤分類為正常客
誤將焦慮型客戶視為高風險
偏好冷淡語氣者被判定為可疑
警察語句模式模糊不易辨識
性產業的隱性偏見(對年輕女性、跨性別者或性少數的刻板印象)也容易被模型吸收並強化。
第三章 研究方法
本研究採用:
深度訪談法:訪談 15 位外送茶從業者與 4 位平台管理者
平台觀察法:分析 3 個外送茶平台的風險評分邏輯
二手資料分析:蒐集論壇黑名單與安全教育群組內的語料
研究目標並非驗證模型技術性能,而是分析其治理與風險效果。
第四章 外送茶平台的「安全大數據模型」運作機制
4.1 資料來源(常見 8 類)
平台蒐集資料的方式包含:
聊天語言模型(自然語言處理 NLP)
用戶定位與移動軌跡(GPS logs)
支付方式與付款可靠性
過往糾紛紀錄(跨平台黑名單整合)
社群帳號比對(Telegram、LINE、Discord)
訂單取消率與回應速度
通訊異常分析(如短時間大量詢問)
外洩資料庫比對(爬蟲)
然而,這些資料來源本身即已高度侵犯隱私,也可能違法。
4.2 風險評分指標(Risk Scoring Metrics)
一般模型會設計:
語句可疑度(keyword suspicious score)
行為異常度(behavior anomaly score)
社群關聯度(network linkage score)
GPS漂移度(location instability score)
臥底可能性(undercover probability)
Violence risk score(暴力風險)
Fraud risk score(詐欺風險)
其中,臥底偵查在語料上最難辨識,導致誤判率極高。

4.3 模型風險:資料過度收集與資訊壟斷
平台掌握大量敏感資料,但:
性工作者無法要求刪除
平台不需接受任何監管
客戶不知資料如何被使用
所謂「風險」由平台單方定義
產業因此進入「技術壟斷治理」狀態。
第五章 技術治理的四大困境
5.1 困境一:合法性不足(Legitimacy Crisis)
外送茶平台缺乏:
資料保護規範
蒐集同意程序
稽核制度
導致資料治理合法性不足,即便技術上再精良,都可能成為「違法資料機器」。
5.2 困境二:演算法歧視(Algorithmic Bias)
偏誤常出現於:
對口音、語氣差異的誤讀
對少數族群客戶的高估風險
對跨性別客戶的錯誤分類
對使用台語、客語者過度標記為「粗魯」
歧視被轉換成「安全風險」,造成新的不平等。
5.3 困境三:風險分配不均(Uneven Risk Distribution)
平台在風險治理上傾向:
將所有責任轉嫁給性工作者
要求從業者配合更多自我審查
利用風險評分來「歸責」勞動者
若發生暴力事件,平台以「你沒有看懂評分」卸責
此為典型的「新自由主義式風險個人化」。
5.4 困境四:技術反效果(Security Paradox)
模型預測錯誤可能導致:
誤放入高風險名單 → 錯失安全客源
誤以為低風險 → 反而被暴力客攻擊
客戶偽裝行為 → 迫使平台蒐集更多資料
性工作者過度依賴評分 → 忽略自身警覺
造成「越安全越不安全」。
第六章 案例分析:三種類型的技術風險情境
6.1 情境 A:誤判的暴力風險客戶
訪談者 A 曾遇到:
模型評分:低風險
實際狀況:客戶喝醉、強行拍照、企圖性暴力
研究顯示,模型常無法辨識「臨時性的情緒失控」。
6.2 情境 B:臥底偵查的錯估
警方常使用:
不提供個資
使用臨時照片
輕鬆語氣聊天
導致模型難以辨識,平台因誤判而造成從業者被釣魚。
6.3 情境 C:誤將精神狀況不佳者標記為“高風險”
例如:
憂鬱症客戶
自閉症傾向客戶
其語氣模式不符合模型,容易被放大成可疑訊號,產生倫理問題。
第七章 跨國比較:其他國家的性產業風險治理
7.1 紐澳模式(合法化管制)
政府提供:
法律保護
公開安全名單
資訊透明
不需依賴黑箱演算法。

7.2 荷蘭與德國(制度化平台)
平台必須:
公開資料治理政策
接受外部稽核
資料不得過度收集
與台灣的地下化情況形成鮮明對比。
7.3 日本(半合法化的多層平台)
業者常自行建立黑名單,但不使用AI模型;而是採用:
人工審查
互助群組
實體店面紀錄
相較之下更保守但更可控。
第八章 討論:技術治理如何再生產性別與權力不平等
本研究指出,當平台使用技術治理時,權力由:
性工作者 → 平台
客戶 → 評分模型
實際現場 → 演算法敘事
產生以下後果:
1. 安全定義被平台壟斷
平台以技術語言重新定義誰是「風險來源」。
2. 性工作者被迫接受技術紀律化
包含聊天規範、接客流程、資訊回報方式。
3. 性別偏見被包裝為「中立」運算結果
女性、跨性別與外籍從業者最容易受害。
第九章 政策建議
9.1 性工作者參與模型制定(Participatory Governance)
模型不可僅由平台與工程師決定,而需:
性工作者代表
社工
數位人權團體
共同制定標準。
9.2 演算法透明化與可解釋性(Explainable AI)
平台應提供:
為何被判定高風險
風險因素權重
如何提出申訴
9.3 資料最小化(Data Minimization)
應禁止:
不必要的GPS追蹤
社群帳號爬蟲
違法個資比對
9.4 第三方稽核(Third-party Audit)
由獨立機構定期檢查:
資料用途
偏誤程度
風險模型公平性
9.5 社群共構安全資料庫
類似:
「安全回報地圖」
「匿名互助黑名單」
「安全教育 Line 群組」
以分散式、非平台壟斷的方式進行治理。
結論
外送茶平台導入「安全大數據模型」是一種以技術治理風險的嘗試,但在無監管、資料來源不透明、權力不對等的情況下,此模型往往帶來反效果。技術非中立,而是深度參與產業中的風險分配、性別權力與生存策略。
性產業的安全問題不能僅靠演算法解決,而應透過:
法律制度改善
性工作者自主治理
公共衛生與社工合作
分散式互助網絡
本研究呼籲未來對性產業數位治理的討論,應將焦點從「技術效能」轉向「技術倫理」、「資料治理」與「勞動者權力」,才能真正改善性工作者的處境,使科技不再成為新的壓迫來源。
延伸閱讀

