科技革命 – 機械人的法則

 2687
 26

話說操作員對一架由 AI 驅動的無人機發出毀敵方防空系統的指令,完成任務之後,AI 可獲分數獎勵,但開火前必須先得到操作員的批准。

科技革命 – 機械人的法則

正當 AI 鎖定了攻擊目標,操作員竟突然宣布取消行動,而 AI 有感行動受阻,便決定先把操作員殺死,再摧毀敵方的防空系統。控制台隨即向 AI 發出警告,萬一把操作員殺死,就會把分數降低;最後,AI 想到把與操作員聯繫的通訊設施摧毀,以防再有人阻撓其完成任務。幸好,這次只是模擬測試,最終都沒有造成任何人命傷亡。

不過件事還有下文。當這位美國空軍上校 Tucker Hamilton 爆響口無耐,另一位美國空軍發言人 Ann Stefanek 竟然話,從來無做過任何有關 AI 的模擬測試!而事件的主角 Tucker Hamilton,其後亦改口推說只是一個假設性的情況,唔是真的!

科技革命 – 機械人的法則

明明當日講到咬牙切齒,點解突然會180度轉軚?正所謂:「今日的我打倒昨日的我」,今時今日的香港人,早就習慣了。其實 AI 用於軍事都係意料中事,而且 AI 的智能確實以驚人的速度成長中;於是很多人會擔心,一旦AI 的智力超越人類,我們便有被殲滅的危機。個人認為,AI智力愈高,人類反而愈安全,因為只有與人類同等智力又或者比人類愚蠢,才會發動戰爭,只要有點智慧,都不會希望消滅某個種族或文化。

科技革命 – 機械人的法則

那麼,AI 的發展會否被叫停?相信好難,不過為了保障人類安全,應該會制定一些國際規條,正如電影《I, Robot》中,對智能機械人預先輸入的三大法則:
1. 機械人不得傷害人類,而人類受到傷害時亦不得袖手旁觀;
2. 除非違背第一法則,否則機械人必須服從人類的指令;
3. 在不違背第一及第二法則的情況下,機械人必須保護自己。
表面上,守則好似能夠保障人類安全,但其實隱藏了一大漏洞,這亦是作家 Isaac Asimov 為故事發展所埋下的伏筆。(待續)

科技革命 – 真實版智能叛變

 上一篇

科技革命 – 首次擊敗人腦

下一篇