新聞哥:禁研發殺手機器人 它們可以獨立選擇作戰方案最終戰勝人類!

  馬斯克等116名科技大佬呼籲禁止研發“殺手機器人”。

  現代機器人和相關人工智能技術的飛速發展,也越來越讓人擔心好萊塢影片裏殺人如麻的“終結者”成為現實。據英國《金融時報》21日報道,全球116名機器人和人工智能企業的創始人日前簽署公開信,呼籲禁止使用“殺手機器人”。

新聞哥:禁研發殺手機器人 它們可以獨立選擇作戰方案最終戰勝人類!

  包括美國太空探索技術公司首席執行官馬斯克在內的116名相關領域專家在公開信中警告説,“致命的自主武器有可能成為戰爭中的第三次革命。一旦它們發展起來,可能導致武裝衝突以比以往任何時候更大的規模進行,而且速度比人類所能理解的還要快。”尤其讓人擔心的是,“這些自主武器可能被獨裁者和恐怖分子用來對付無辜人羣。一旦潘多拉的盒子打開,就很難再關閉。”

  去年12月,聯合國《特定常規武器公約》的123個成員國同意正式討論這類自主武器,其中19個成員國已要求徹底禁止這種武器。但原定於本週開始的相關討論會議被推遲到11月。公開信對會議被推遲表示遺憾,並敦促各方在11月會議之前加倍努力。

  馬斯克近來已多次表達對人工智能、機器人技術發展的擔憂。他曾連同物理學家霍金等多名專家於2015年簽署公開信,要求禁止開發“超過人類控制意義之外的自主武器”。馬斯克警告説,“人工智能可能通過創建假冒的賬户、發送虛假新聞等方式操縱信息,甚至可以引發戰爭。”

  但並非所有人都贊成這種觀點。臉書創始人扎克伯格就反對説,“對那些否定人工智能、試圖營造世界末日論的人,我確實不太理解。他們的言論某些時候讓我感覺太不負責任。未來5-10年,人工智能將在許多方面改善我們的生活質量。”

  以下為網友評論:

  網友“鄭州用户50xxx049”:科學家太天真了,如果呼籲能解決機器人殺手的問題,那這個世界就不像現在這樣打打殺殺,你死我活了。就和諧了。

  網友“上海用户50xxx049”:擋不住。機器人的戰爭會成主流。即便有法律,各國仍會私下搞並應用。機器人戰鬥,無法確定身份,可冒充任一組織。美日會是先行者

  網友“鐵卓”:武器是無法禁止的,人類從開創以來就是滅絕的開始,地球上的動物都是因人類的擴張而滅絕,最終人類將用自己的終極武器毀滅自己,完成本次文明循環,這一次的文明教訓就是善惡之爭,人類的惡因就在其貪婪和無限的慾望

  網友“zhangkw1285”:禁止也沒有用!!你能禁止正當的機構研發,但極端組織你管得着嗎?!技術可是沒有邊界的?!你能做的事,人家就能做!!到時候,極端組織有這個“殺器”,而正當的組織卻沒有,豈不是更慘?!

  網友“博大今亮”:確實杞人憂天,金老爺子早就給出了答案,藥丸控制,設定限制性強制工作時間和存在壽命,不能超過15-30年,必須自毀

  網友“用户36xxxx621”:不能禁止,這會嚴重影響人類科技發展。甚至人類文明進步。

  網友“杭州用户31xxxx169”:機器人用於戰爭對人類是毀滅性的,會造成人類滅絕,所以開發機器人作為殺人武器,超越人類倫理,是對人類生存和生命不負責任的,應該制定相關國際法律禁止研發

  網友“用户20xxxx010”:機器人的戰爭想想都恐怖 在機器人面前 人連螞蟻都不如 機器人就像坦克會被大批量生產 掃平一切敵人 如果高度智能化 比人還聰明 速度還快 將是災難

  網友“前衞”:磚家,應該呼籲美國研發高科技殺人武器,那個才是真的殺人武器。

  網友“天津用户50xxx049”:禁止在網絡玩意淫的遊戲,禁止玩虛擬的遊戲。夢醒,發現全是魔鬼

版權聲明:本文源自 網絡, 於,由 楠木軒 整理發佈,共 1422 字。

轉載請註明: 新聞哥:禁研發殺手機器人 它們可以獨立選擇作戰方案最終戰勝人類! - 楠木軒