2025年1月3日,新年伊始,美國聯邦貿易委員會(FTC)發布了一篇題為“AI and the Risk of Consumer Harm”(AI 與消費者損害風險)的技術博客,以近期的一些案例和舉措為例,梳理了公司在開發、維護、使用和部署基于AI的產品時需要考慮的因素。
FTC關注和監管的范圍
作為美國聯邦層面的機構,FTC的職責是處理所有經濟部門的消費者保護和競爭問題。FTC在博客中指出,其對AI的關注也是從消費者保護和競爭的角度出發的。
FTC指出,由于法律沒有對AI豁免,因此部署AI系統和工具的公司有義務遵循包含FTC執行的競爭和消費者保護法規在內的現有法律。目前,FTC已經日益關注到AI可能在商業監控、欺詐和冒充以及非法歧視等方面造成的損害。
在這里,FTC舉例涵蓋的AI系統和工具包括:客服聊天機器人、教育工具、為社交媒體提供支持的推薦技術、可能將特定消費者標記為安全風險的面部識別技術、決定是否或者以何種條件獲得醫療幫助、住所、工作或貸款等的工具。
具體而言,FTC的工作人員可以分析AI工具是否侵犯了人們的隱私,或者是否容易受到使個人數據面臨風險的對抗性輸入或攻擊。而且,FTC還可以審查用于欺詐、操縱或未經同意的圖像或危害兒童和他人的生成式AI工具。此外,FTC還關注在高風險環境中做出決策的算法產品,這些高風險環境包括但不限于健康、住房、就業或進入等領域。
FTC強調的風險因素
FTC回顧了一系列近期的案例和舉措,強調了公司在開發、維護、使用和部署基于AI的產品時,需要考慮的四大方面因素。
第一,在部署產品之前和之后都采取必要措施防止損害。
FTC在2023年曾指控零售藥房Rite Aid在使用面部識別技術(FRT)時未采取合理措施防止對消費者造成傷害,原因是Rite Aid使用的FRT在商店中誤將消費者(尤其是女性和有色人種)標記為扒手。
FTC的投訴提到,該公司在部署FRT技術之前沒能采取合理的步驟測試、評估、測量、記錄或詢問其FRT的準確性。進一步,該公司在部署后也未能采取合理措施定期監控或測試技術的準確性,具體包括未“實施任何程序來跟蹤面部識別匹配的假陽性率或基于假陽性面部識別匹配所采取的行動。”
對此,FTC強調,提供AI模型的公司需要在部署其工具之前和期間評估和減輕潛在的下游危害,其中包括解決用于做出消費者決策的技術和使用和影響。
第二,采取預防措施,檢測、組織和停止與AI相關的冒充、欺詐、兒童性虐待材料和未經同意的私密圖像。
2024年4月,FTC發布了一項關于打擊冒充政府和企業的規則——考慮到AI生成的深度偽造等技術正在加劇欺詐。FTC指出,雖然生成式AI是新的技術,但上述危害并不新鮮。在向國會提交的《打擊在線危害報告》中,FTC討論了深度偽造的問題。
此外,FTC還發起了一項語音克隆挑戰賽,旨在通過檢測和阻止未經授權的用戶濫用語音克隆軟件來促進消費者保護,具體方向包括應用有效的實時檢測或監控措施、使用解決方案評估現有內容、防止和遏制基于AI的詐騙和欺詐行為以及利用解決方案構建有力的身份驗證或防止上游傷害的防護措施。
第三,避免可能導致人們損失金錢或者使用戶面臨損害風險的關于AI工具的欺騙性聲明。
FTC提及了許多起關于AI產品將幫助人們創業或賺錢的欺騙性聲明的案件。2025年9月,FTC發起的“Operation AI Comply”(AI合規行動)打擊了五起利用AI欺詐消費者的案件,一個典型的例子是一些公司生成其AI產品能夠幫助人們創業或者賺錢:該計劃聲稱其“尖端”人工智能工具將幫助消費者通過開設在線店面快速每月賺取數千美元的被動收入。根據投訴,該計劃已詐騙消費者至少 2500 萬美元。
第四,默認隱私保護和安全。
生成式 AI 工具需要大量數據輸入,其中一些數據可能非常敏感。FTC長期以來一直為企業提供有關確保數據安全和隱私保護的知道,例如已通過了“關于生物識別信息的政策聲明”(Policy Statement of the Federal Trade Commission on Biometric Information and Section 5 of the Federal Trade Commission Act)。FTC已對未能遵循該項法律義務的公司發起了訴訟。例如,FTC對亞馬遜的語音助手服務Alexa提出投訴,指控該公司默認設置將用戶(包括兒童)的語音錄音永久保存。FTC表示,亞馬遜“誤導了Alexa用戶關于刪除語音錄音的能力”,并非法使用這些數據來改善Alexa算法。FTC工作人員還建議公司不應悄悄更改其服務條款。
FTC在結尾處總結,有效緩解AI的這些風險有助于推動其好處的發揮。公司使用AI工具時可能對消費者產生重大影響,因此需要在消費者接觸前、過程中和之后解決相關風險。當公司思考如何開發、部署和維護基于AI的系統時,應考慮其可能帶來的風險,并采取積極措施保護公眾,以防其工具成為未來FTC的案例研究。
參考資料:https://www.ftc.gov/policy/advocacy-research/tech-at-ftc/2025/01/ai-risk-consumer-harm