眼下,有一個熱詞叫“AI幻覺”,是指對AI進行提問時,輸出的內容看似合理,實則經常出現“與輸入問題意圖不一致,與世界知識不一致,與現實或已知數據不符合或無法驗證”等問題,有時還會不懂裝懂,胡編亂造。
AI,即人工智能。在未來信息化智能化戰爭中,AI必將得到越來越廣泛的應用,“AI幻覺”也可能出現在不同場景之中。如果指揮員在借助AI進行戰場偵察、情報獲取、決策輔助、方案選擇的過程中,不假思索、信以為真,就可能導致信息謬誤、決策失誤和行動失敗。
從世界近幾場局部戰爭看,無人集群的蜂群作戰、智能系統的態勢預判、算法驅動的精確打擊等,展現出了智能作戰系統和武器裝備自動分析、自動研判的特殊優勢。這種“自動”行為,從表面上看擁有了“自主”意識,其實是一種在既定框架內的機械式運作,是對人類思維過程的表層模仿,永遠替代不了指揮員的自主意識。
恩格斯曾講:鷹比人看得遠得多,但是人的眼睛識別東西遠勝于鷹。人作為地球上最有智慧的生物,有著獨有的思維優勢。指揮員的自主意識,是一種基于豐富的知識儲備、任務經驗,以及通過對戰場態勢的深度理解、敏銳洞察和靈活應對,所形成的獨立思考與科學決策能力,蘊含著人類的智慧、膽略和創造力。這是一種建立在對戰爭規律深刻把握基礎上的主動選擇,而人工智能很大程度上只是搜集、模仿、復制、延伸人類的一些思維模式和行動,不能真正獨立自主地進行思考和決策。
“無論處于怎樣復雜、嚴重、慘苦的環境,軍事指導者首先需要的是獨立自主地組織和使用自己的力量。”戰爭遠遠不只是“計算”問題,還有運籌、謀劃、欺詐等一系列思維上的“算計”問題。夫未戰而廟算勝者,得算多也。不管人工智能武器如何發展演變、達到何等尖端程度,它都不過是基于人類需要而由人類研發和制造的一種器物而已,而決定戰爭勝負的因素始終是人不是物。從目前情況看,人工智能技術尚無法解決軍事領域的“算計”——謀略問題,未來也難以完全替代和超越人類的思維與智慧。
計算機科學家和哲學家朱迪亞·珀爾有一句名言:“數據是深度愚蠢的。”像任何事物一樣,人工智能既有特定長處,也有明顯短處。未來戰爭作戰行動的突然性、瞬時性越來越突出,作戰節奏將以分秒計算,而人工智能系統中的諸多不確定性因素,將使戰場沒有從頭再來的機會。故而我們應慎之又慎、察之再察,而不能把輔助手段當成替代工具,不能將AI技術看作萬能武器,更不能讓人工智能削弱人類思考。
霍金曾這樣評價人工智能:“它既可能成為人類迄今發生過的最好的事,也可能成為最糟糕的事。”盡管人工智能存在天然缺陷,但并不妨礙它成為優秀的“參謀”和助手。廣大官兵特別是各級指揮員應不斷強化自主思考和創新思維能力,深入掌握智能算法和相關系統運行原理,做到運用而不迷信、依托而不依賴、善用而不濫用,揚長避短、為我所用,優勢互補、掌握主動,努力達到在戰時全面掌握信息、準確判別態勢、高效分析處理、科學指揮決策,最大限度地讓戰爭朝著有利于己方的方向發展。
文章中觀點僅代表作者個人觀點,不代表本網站的觀點和看法。
神州學人雜志及神州學人網原創文章轉載說明:如需轉載,務必注明出處,違者本網將依法追究。