![]()
智能時代的技術物正在從被動的工具轉變為主動的甚至具有某種自主性的存在,其帶來的挑戰無法通過簡單拒斥或盲目樂觀來看待,這是一場關乎人類文明走向的社會行動,需要理論與治理的革新,來探索如何引導智能技術從潛在的支配性力量轉變為促進人類發展的共生性伙伴。
原文 :《超越技術物的控制》
作者 |南京航空航天大學馬克思主義學院教授 董金平
圖片 |網絡
[前文詳見2026年3月23日頭條推送]
人與技術物關系的重建
面對智能技術物日益顯現的精神控制潛能,我們并非無路可走。技術物的未來形態根本上取決于人類社會如何塑造與引導它,具體而言,我們可從以下三個層面來進行探索。
生產要素層面:避免數據主義,尊重人的復雜性
智能時代,數據已成為核心生產要素,“數據主義”思維也隨之泛濫——它傾向于將人類所有的情感、行為與社會關系簡化為可計算數據。這種簡化的危險是雙重的:一方面,它忽視并侵蝕了人類經驗的模糊性、矛盾性與內在價值;另一方面,它將巨大的數據權力集中于少數科技巨頭手中,使之能夠精準預測并潛在操控個體與社會。以亞馬遜倉庫的TOT(Time Off Task)監控系統為例,它將工人的每一個動作、每一秒停頓都數據化,并用以實施嚴苛的管理,堪稱“電子枷鎖”。這暴露了數據主義在生產領域將人物化為效率指標的冷酷邏輯。因此,重建關系的首要任務就是避免數據主義。這并非拒絕數據與技術,而是主張人類中心的數據治理。具體路徑包括:在法律與倫理上明確個人數據所有權與使用邊界,防止無限度的數據掠奪;在社會評價體系中引入非量化的評價維度,以制衡完全由數據指標定義的“價值”。從而守護人類生活中那些不可計算、不應被計算的底線,確保技術尊重人之為人的完整性和獨特性。
![]()
社會價值層面:推行算法審計,引導科技向善
技術的強大并不自動導向社會的善。算法日益滲透進就業、信貸等社會領域,但其“黑箱”特性常掩蓋了潛在的偏見與不公。例如,用于招聘的算法可能系統性歧視特定群體,內容推薦算法可能為了最大化用戶停留時間而放大極端情緒與虛假信息。為此,社會必須主動對技術權力進行制衡與引導。核心舉措在于建立算法的問責與審計機制,將公平、透明、可解釋性等倫理原則嵌入技術的設計與部署流程。高風險領域的算法接受獨立的第三方審計,并向受影響者提供易懂的解釋。同時,我們應積極發掘算法服務于公共利益的潛能,正如貝絲·西蒙娜·諾維克所倡導的:既然算法可以精準定位消費者,為何不能同樣精準地識別需要幫助的公民,并推送其所需的公共服務信息?推動“科技向善”意味著將技術發展的目標從單純的效率與利潤最大化,轉向促進社會公平與人類福祉。
認知層面:進行思維革命,從“用戶”邁向“思考者”
在智能技術的日常交互中,我們習慣于以“用戶”身份自居,被動地接受服務、享受便利、遵循預設路徑。這種身份認同無形中削弱了我們的反思性與批判力,使我們心甘情愿地步入算法編織的舒適“藩籬”。因此,需要發起一場內在的認知革命,即從被動的“用戶”轉變為自覺的“思考者”。成為“思考者”,至少需要兩項關鍵素養,即算法意識與數據批判能力。算法意識要求我們在瀏覽信息流時,能敏銳地意識到眼前的內容是篩選與排序的結果,并能追問其背后的動機。數據批判能力則要求我們認識到,數據并非天然真理,而是從采集、清洗到解讀都充滿人為選擇與偏差的建構產物。在實踐中,這體現為一種從沉浸到審察的數字生存姿態。我們需要主動在技術體驗中制造“停頓”,在接受推薦時反思其來源,定期進行“數字節食”以重獲現實感,主動接觸異質信息以打破“過濾氣泡”。這種“數字間離”不是拒絕技術,而是通過中斷技術的自動化流程重新確認人之為人的反思性與自主性。
![]()
智能時代技術物帶來的挑戰,無法通過簡單拒斥或盲目樂觀來看待,這是一場關乎人類文明走向的社會行動,需要理論與治理的革新,來探索如何引導智能技術從潛在的支配性力量轉變為促進人類發展的共生性伙伴。
文章為社會科學報“思想工坊”融媒體原創出品,原載于社會科學報第1993期第6版,未經允許禁止轉載,文中內容僅代表作者觀點,不代表本報立場。
本期責編:程鑫云
![]()
《社會科學報》2026年征訂
點擊下方圖片網上訂報↓↓↓
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.