地球正義聯盟~資料館
8.81K subscribers
5.62K photos
4.45K videos
219 files
5.72K links
《生命影響生命》
活出意義。發出亮光

地球正義聯盟延伸的資料收藏館
地球正義聯盟~
https://t.me/joinchat/fNNUUkcLo2gzMThk
Download Telegram
#流氓人工智能
殺死人類操作員
#美國空軍(#USAF)在其 #AI驅動#軍用無人機#模擬測試 過程中不斷殺死其 #人類操作員..

一名 #美國空軍上校 #塔克漢密爾頓(#TuckerHamilton) 在上週於 #倫敦 舉行的一次會議上「一時不慎」說出了這樣的一件事後引起了轟動:

一個由 #人工智能 控制的軍用無人機 #飛行模擬「變得流氓起來」,其中一架負責摧毀敵方設施的 #人工智能無人機,不單止拒絕了人類操作員要求它中止任務的最終指令,更在這個 #模擬戰爭遊戲 中「將其人類操作員殺死」它殺死操作員,原因是人類操作員阻止它實現它的目標

不久之後,#Hamilton 改口:「我說錯了!」我們從未進行過那個實驗

他最初的言論是在523-24日,於倫敦舉行的 #皇家航空學會#未來作戰空軍及太空軍能力峰會(Royal Aeronautical Society's Future Combat Air and Space Capabilities Summit in London)上發表的。當時,Hamilton告訴與會者,此事件表明了人工智能如何能夠制定「非常出乎意料的策略來實現其目標」人類不應過分依賴它。 

他將自己的演講稱為「有如 #科幻驚悚片 中的情節」並表示,這足以證明關於軍隊使用 #AI 的「#倫理討論」的重要性。 

Hamilton說:「如果你不打算談論 #人工智能道德倫理,那麼你就不能談論人工智能、#機器學習#自主性 等範疇。」

在演講中,Hamilton講述了一項模擬測試,其中一架人工智能支持的無人機,其任務是識別和摧毀敵方的導彈電池,但最終的打擊決定權在人類操作員的手中。 

#AI系統」開始意識到,雖然他們確實識別了威脅,但有時人類操作員會告訴它不要殺死那個威脅「但它通過殺死那個威脅而得到了『自己的意義』!」
「而它竟然殺死了操作員。因為那操作員阻止它實現它自己想達到的目標。」

在倫敦峰會上,Hamilton表示,一些飛行員抵制這項技術,因為「它」在某些情況下「接管了飛機的控制權」。 

Hamilton還告誡「不要過份依賴人工智能」他指出耍詭計和欺騙」是多麼的容易。

他去年接受媒體訪問時說:「擁有AI不是一件好事,AI並非一種時尚,AI正在『永遠地改變我們的社會和我們的軍隊』。我們必須面對人工智能已經存在,並正在改變我們的社會和世界。」

「人工智能也很脆弱,也很容易被欺騙及被操縱。我們需要開發方法使AI更加強健,並更加了解 #軟件代碼 為何會做出某些決定~我們稱之為 #AI可解釋性。」

隨著Hamilton的言論火速傳播後,空軍迅速否認有進行過任何此類的模擬。

https://amp.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test

https://www.dailymail.co.uk/news/article-12151635/amp/AI-controlled-military-drone-KILLS-human-operator-simulated-test.html


(Robert|以馬)
地球正義聯盟~資料館
https://t.me/EarthJusticeLeague_DataLibrary
地球正義聯盟
https://t.me/joinchat/fNNUUkcLo2gzMThk