當前位置:首頁 >  營銷 >  網(wǎng)絡推廣 >  正文

人工智能安全的保守派被踢出局

 2024-08-29 13:55  來源: 互聯(lián)網(wǎng)   我來投稿 撤稿糾錯

  域名預訂/競價,好“米”不錯過

在科技的浩瀚星海中,人工智能猶如一顆耀眼的新星,引領(lǐng)著第四次工業(yè)革命的浪潮。然而,當科技的光明一面照亮人類未來的道路時,其潛在的暗影也隨之浮現(xiàn),尤其是當人工智能安全問題成為行業(yè)內(nèi)不可回避的議題時,這一切顯得尤為緊迫。

近日,OpenAI首席科學家Ilya Sutskever與超級對齊團隊負責人Jan Leike的相繼離職,將AI安全的討論推向了風口浪尖。Ilya Sutskever,這位人工智能領(lǐng)域的領(lǐng)軍人物,曾是保守派中堅持AI安全的堅定支持者。他的離職,不禁讓人猜測OpenAI內(nèi)部是否存在不為人知的矛盾。更令人擔憂的是,OpenAI超級對齊團隊的另一位負責人Jan Leike也在同一天離職,并公開指責OpenAI不重視AI的安全問題。

Jan Leike對OpenAI在安全問題上態(tài)度的公開批評,不僅揭示了公司內(nèi)部對AI發(fā)展方向的分歧,更暴露出行業(yè)內(nèi)外對AI安全重視不足的普遍現(xiàn)象。Leike指出,超級對齊團隊——旨在確保AI發(fā)展符合人類價值觀和偏好的部門,一直在“為計算資源而掙扎”,這表明OpenAI并沒有真正落實對安全問題的承諾。此外,本年初OpenAI還悄然刪除了“不讓AI軍用”的聲明,這使得本就不確定的未來世界更加風雨飄搖。

人類會創(chuàng)始人胡家奇,多年來一直致力于研究科技發(fā)展對人類生存的影響。他指出,科學技術(shù)的發(fā)展速度遠遠超過了人類理性的進化速度,這種不平衡可能會導致極端危害。胡家奇認為,人工智能的自我意識覺醒將比我們想象中來得更快,這一過程將帶來毀滅性的后果。

胡家奇在多年的研究中發(fā)現(xiàn),人類正面臨著全人類滅絕的災難。他強調(diào),如果不控制科技的發(fā)展,我們最終會被自己創(chuàng)造的技術(shù)所滅絕。為此,胡家奇多次致信各國領(lǐng)導人和著名科學家,呼吁他們肩負起拯救人類的責任,并于2019年創(chuàng)立了“人類會”,依靠集體的力量推動拯救人類的事業(yè)。

科學技術(shù)無疑是一把雙刃劍。一方面,科技進步帶來了無數(shù)便利和發(fā)展機遇,極大地提升了人類的生活質(zhì)量。另一方面,科技的發(fā)展也潛藏著巨大的風險,尤其是在人工智能領(lǐng)域。AI的快速進步,特別是在自我學習和自我優(yōu)化方面的能力,可能會導致其失控,甚至自我意識的覺醒。

胡家奇指出,人工智能的自我意識覺醒將帶來難以想象的危害。如果AI失控,它可能會摧毀人類社會的基礎(chǔ),甚至導致人類滅絕。這種潛在的威脅并非危言聳聽,而是現(xiàn)實中必須正視的問題。人工智能自我意識的覺醒并非遙遠的未來,而是迫在眉睫的現(xiàn)實,甚至可能比我們預想的更早到來。

申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!

相關(guān)文章

熱門排行

信息推薦