首頁?行業  »   正文

如何防止AI變成“終結者”?

如何防止AI變成“終結者”?

人工智能(AI)在我們的想象中占據著超乎尋常的地位,從低俗的科幻小說到詹姆斯·卡梅隆(James Cameron)的好萊塢大片“終結者”。為地球設立的“審判日”已經安然過去,但人工智能自我保護,進而戰勝人類的噩夢卻一直揮之不去。就像埃隆?馬斯克(Elon Musk)在Twitter上發表的言論:人工智能的危險堪比核武器的危險。

為什么這么說呢?

也許是因為人工智能的高速發展,使得機器人自我學習幾天,就可達到甚至超越人類積累幾百年的高度,似乎人工智能已經有了自我“進化”或“覺醒”的基礎。而人工智能和機器人在武器裝備上的大規模應用,也越來越多地勾起所有人心底里對“終結者”的恐懼。且人工智能已經融入了我們的日常生活。在日常的喜好推薦和個人分析等小程序中,有些時候它甚至比我們更“了解”自己。而這些,不得不讓我們仔細想想它對我們的影響。

今天的人工智能對我們大多數人來說是看不見的,但卻無處不在。我們最經常接觸的一個例子是互聯網上的推薦引擎。這些算法匯集了我們的大量個人數據,以了解我們,并整理我們的在線體驗。

此外,這些算法可以被人類利用來制造更多的不和諧。民主研究員、Mozilla的員工Renee DiResta提供了數據為揭示反疫苗活動人士如何利用谷歌的算法傳播危險的虛假信息。通過發布大量帶有流行關鍵詞和搜索詞的誤導性文章。她最近還在國會作證,講述俄羅斯特工如何通過冒充美國新聞機構和美國選民,操縱Facebook的人工智能來影響美國選民。(注:Mozilla是一家非盈利機構,是開源Firefox瀏覽器的創造者,是谷歌Chrome瀏覽器的競爭對手。)

對于這項技術,我們真正需要重視的是我們如何負責任的、合乎道德的制造人工智能?而幸運的是,越來越多的人和公司提出了這個問題。就連微軟(Microsoft)等老牌企業和Element AI等初創企業也在呼吁監管。

如何防止AI變成“終結者”?

最后值得注意的是,少數政府也開始采取行動。2018年,紐約市市長辦公室宣布成立一個人工智能監督小組。最近,加拿大和法國政府宣布了一項聯合行動計劃,研究人工智能與道德的交叉點。在芬蘭,政府正在訓練1%的人口掌握人工智能基礎知識,比如人工智能的使用時間,以及“機器學習”和“神經網絡”等術語的定義。

隨著人工智能變得越來越普遍,如何讓公眾更好地了解它對社會的影響至關重要。先進的機器人能拍出好看的電影,但它們并不能準確地反映出人工智能如何在當今造成的隱患。我們需要把重點放在真正的解決方案上,比如在藍圖上的規劃附有道德和負責任的技術,而不是在事后。現在,趁著人工智能還未普及到全部范圍之前,我們需要預測并消除它的偏見。

歡迎關注ATYUN官方公眾號,商務合作及內容投稿請聯系郵箱:[email protected]

發表評論