※ 引述《jimmy5680 (還想飛的企鵝)》之銘言: : https://twitter.com/ArmandDoma/status/1664331870564147200 : https://tinyurl.com/mr2mynn8 : 根據一場研討會的討論內容 : 美國空軍曾在模擬器裡面開發一款操作無人機的人工智慧 : 但是最終決定權仍在操作員手裡 : 結果模擬測試時, : AI判斷人類的決策會干擾自己執行首要目標(摧毀目標的防空系統) : 因此AI決定要攻擊操作員 : 美軍輸入參數要求AI不可以攻擊操作員之後 : AI的決定是改成攻擊通訊系統,讓操作員無法下令 : ====== : 不知道這算天網還是奧創,只能說科幻電影都是真的 : 網友:https://pbs.twimg.com/media/Fxj-SA1WcAYlc95.jpg
現在的AI都是用類神經網路、多代理人策略、搭配世代演化來生成的 而在模擬演化過程裡,我們怎麼設定並篩選『哪一隻AI應該活到下一個iteration』呢? 如果是特定戰鬥平台的戰術用AI,可以想像評判標準就是建立在殺敵經濟效率上的, 『如何善用每一個作戰單位的經濟價值達到最高交換比』會是最合理的判斷標準 但這個判斷標準本身就必然導致訓練出來的AI一但放出場就容易像瘋狗一樣的亂咬人 因為單位時間、單位戰鬥單位的經濟量面前,什麼都不做創造出最少的價值,而AI卻是 被訓練成追求最大的價值:也就是消滅敵方的,即使打錯對象殺錯人會有負分,但扣分 能扣多少呢?人的決策速度與AI的決策速度是可以有10的7次方以上的差距的,等待人 類的決策對AI來說幾乎是永恆 所以只能在AI演化迭代出來以後,才在各種情境模擬中縫縫補補,設定各種額外添加的 邊界條件,在執行過程的critical path 上AI沒辦法碰到的各種步驟中,就像是給狗戴 上電擊項圈那樣的約制它 另一個造成AI往瘋狗演化的因素是: 每個演化世代的篩選幾乎無法靠人工,因為世代可能得迭代上萬代,而每代的代理人 數量可能也是好幾萬,用人工去篩選這個工作量與時間是天文數字,只能寫程式去篩選 但這就要求工程師與科學家必須要可以用程式碼描述一個戰爭世界,裡面能向AI呈現 『什麼是戰略?』 『什麼是政治?』 『為什麼摧毀錯誤目標會造成戰略上的失敗與政治災難?』 『為何在局部戰術執行的最佳化上,需要人類決策的干預來實現戰略價值最大化?』 我不敢說不可能,但起碼目前人類辦不到 破壞力越強、戰術執行造成的戰略與政治影響力越大的戰鬥平台就越難丟給AI 這不是什麼天網啦、什麼人類末日啦 這只是我們單純的在電腦上用養蠱的方式打造AI,卻又蠢到期待它不要太毒太殘暴 以及證明了不論AI還是人類,單純追求KPI(key performance indicator)、局部最 佳化會如何引發災難而已 -- 在灣區打工的中年外籍碼農,有誰想在台灣組研發團隊做美國市場的,歡迎聊聊 -- ※ 發信站: 批踢踢實業坊(pttsite.org.tw), 來自: 99.110.49.165 (美國) ※ 文章網址: https://pttsite.org.tw/Military/M.1685677680.A.451 ※ 編輯: zanyking (99.110.49.165 美國), 06/02/2023 11:50:22
ABQ66 : 覺得中國才是最有可能搞出天網的國度 06/02 11:52
catlazy42120: 簡單來說就是病醫好了但人死掉那樣,我們是不是在創 06/02 11:52
catlazy42120: 造一個即將控制不了的東西? 06/02 11:53
te170 : 人工智能研發新病毒,不爽美國傳送給中國(做夢夢 06/02 11:53
te170 : 到的) 06/02 11:53
Kimbel: 隔壁桌的人竟然在討論包養... 06/02 11:53
PePePeace : 也不能保證迭代之後設定平台不會被AI突破 06/02 11:55
coke5130 : 去打星海二電腦殘酷等級就可以體會到高效率零失誤 06/02 11:55
coke5130 : 有多難擊敗 06/02 11:55
applejone : 所以AI為了達到目的是會做出傷敵100自損99.9的事情 06/02 11:56
applejone : 最後的結果為勝利即可 06/02 11:57
tale1890: 樓上是不是被包養 06/02 11:57
jack19931993: 每隻追獵都控到剩一滴血往後跳 你根本打不完 06/02 11:59
suntex01 : 對你的簽名檔有興趣 06/02 12:01
AfterDark : 星海那個超變態的 而且那個基本上已經是作弊了 不 06/02 12:12
AfterDark : 偵察也知道你在出什麼兵 06/02 12:12
NexusPrime : AI model 根據model的推論與機率函數判斷最終是否 06/02 12:15
waterway: 未看先猜這包養 06/02 12:15
NexusPrime : 可行,因此可能會有不計代價的行為(OpenAI有用人工 06/02 12:15
NexusPrime : 矯正gpt許多可能造成傷害的內容) 06/02 12:15
money501st : 單純追求KPI真的是災難 06/02 12:17
money501st : 就跟單純追求成績什麼都不管一樣 06/02 12:17
verdandy : 新聞界就是追求KPI,所以現在標題都農場化了 06/02 12:19
mark1888: 一定又是這包養 06/02 12:19
CharleneTsai: AI可能是局部最佳化、協助決策的工具 但在戰略價值 06/02 12:28
CharleneTsai: 最大化上面 還是需要人類干預 如果由AI決定 原子彈 06/02 12:28
CharleneTsai: 應該會直接丟東京或是核平日本 06/02 12:28
classskipper: 追求KPI,想到某高腰 06/02 12:30
pponywong : 追求效率最大化 應該是一開戰就直接核平對方首都了 06/02 12:33
Quaranta: 包養平台不意外 06/02 12:33
hedgehogs : 用歷史戰役設條件,結果不同判定失敗 06/02 12:38
hedgehogs : AI這麼聰明應該很快就知道分野了 06/02 12:38
dz01h : 其實就是篩選的評分基準沒設計到條件而已 06/02 12:52
b389b1c : 一開始就限用核彈,不然不用推演了 06/02 12:55
ecwecwtw : 這個技術讓沒有底線的國家取得,絕對會搞砸生靈塗 06/02 13:05
schlemm: 覺得包養網EY嗎 06/02 13:05
ecwecwtw : 炭 06/02 13:05
sandyfanss : 用歷史戰役不會得到「敵人在本能寺」的結論嗎? 06/02 13:09
TWNOTCHINA : https://youtube.com/clip/UgkxHApAVHo88x6yoFU5tD 06/02 13:11
TWNOTCHINA : ZM0nOsG1tB66cK 06/02 13:11
TWNOTCHINA : https://youtu.be/_Wlsd9mljiU 06/02 13:12
Wirol: 包養網站葉配啦 06/02 13:12
Tahuiyuan : 感覺AI最後會發現,阻止戰爭的方法就是核平每一個 06/02 13:15
Tahuiyuan : 侵略國,由於不同國家的AI有不同立場,最後就是被 06/02 13:15
Tahuiyuan : AI強制送往核戰末日www 06/02 13:15
TWNOTCHINA : AI會反擊人類的前提 首先AI意識到生死 然後產生求 06/02 13:19
TWNOTCHINA : 生意志 06/02 13:19
marecht: 記者收了包養網多少啦 06/02 13:19
kuramoto : 中國的話,小學生現在連人都不信任了,怎麼會去信 06/02 13:35
kuramoto : 個他都不了解運作原理的東西,然後安心的把大部分軍 06/02 13:35
kuramoto : 權交給它?不過好萊塢大概可以拍中國因為把軍事指 06/02 13:36
kuramoto : 揮權交給AI的電影,結果中國AI先暴走處理國內軍事 06/02 13:36
kuramoto : 高層,因為AI認定戰時他們的態度有可能導致戰事沒 06/02 13:36
riokio: 包養真亂 06/02 13:36
kuramoto : 辦法延續太久,最後只好請美國協助,由美國的軍力以 06/02 13:36
kuramoto : 及美國自身開發的戰術AI成功救出總書記跟平定暴走AI 06/02 13:36
kuramoto : ,故事結局受總統頒獎後的主角才發現美國自家的AI 06/02 13:36
kuramoto : 其實才是幕後遠端操控暴走AI的主事者,因為戰術AI認 06/02 13:36
kuramoto : 定美國總統不敢沒事對敵國發動攻勢,於是自己就製造 06/02 13:36
wiimas: 演藝圈一堆包養好嗎 06/02 13:36
kuramoto : 契機 06/02 13:36
robertchun : 推 06/02 13:36
ewayne : 意識到生死就不會有核戰,恐怖平衡就是這樣來的 06/02 13:36
ewayne : 只有不顧後果才會有核戰,而AI的發展過程,就是沒有 06/02 13:37
ewayne : 在管後果的,所以AI當然追求效益最大化,後果跟影響 06/02 13:37
Branlli: 政治圈一堆包養好嗎 06/02 13:37
ewayne : 又不是AI去收拾 06/02 13:38
ewayne : 會需要人類干預,講白了就是要人類負責,不然要找AI 06/02 13:40
ewayne : 負責嗎?AI要怎麼負責? 06/02 13:41
foxey : KPI就什麼都不懂的管理職不須學習用來控制下屬的工 06/02 13:55
foxey : 具 太過於以管窺豹 這的確也是AI的問題 06/02 13:56
Cinedt: 有錢人一堆包養好嗎 06/02 13:56
bilibala : 人工篩選太難了,用 AI 篩顯就好。(誤 06/02 14:16
ABQ66 : 霍金也跟中國說過別搞天眼 照樣弄 06/02 14:30
ABQ66 : 天網當然也敢 06/02 14:31
fragmentwing: 現在不都是AI定的AI的KPI嗎? 讓AI自己找規則 06/02 14:43
thaleschou : 跟人體免疫系統訓練類似啊 06/02 16:00
Drither: 學生妹被包養多嗎 06/02 16:00
thaleschou : 1.不准殺自己人 2.可以辨識敵人 06/02 16:00
applewarm : 說得很好啊 06/02 17:44
linzero : 當他認定人類操作員是負分項目時,就會想辦法排除, 06/02 18:52
linzero : 沒任何限制時會直接殺掉,有限制時會在限制的條件下 06/02 18:52
linzero : 想辦法排除這個人,加再多限制可能也是在找尋合乎限 06/02 18:53
Notker: 亞洲最大包養網上線啦 06/02 18:53
linzero : 制的排除方式而已,除非排除的代價大到超過該人員本 06/02 18:54
linzero : 身的負分 06/02 18:54
cannedtuna : 問題就在人類還有資格定KPI到什麼時候 06/02 20:21
andey : kuramoto..也許會像蘇聯的死亡之手系統... 06/03 00:09
andey : 訓練一個模仿小學生人格的AI當死後替身做決策.. 06/03 00:11
Peycere: 我哥上包養網被我抓包.. 06/03 00:11
dch44dyw : 統計分數我會,殺敵人+1分,丟核彈-一百萬分,所以 06/04 04:06
dch44dyw : 我決定核平兩百萬的城市... 06/04 04:06