隨著人工智能的迅猛發(fā)展,一些頂尖科學(xué)家和專家開始表達(dá)對其潛在風(fēng)險和倫理問題的擔(dān)憂。最近,圖靈獎得主、人工智能領(lǐng)域的泰斗們Yoshua Bengio和Geoffrey Hinton相繼在公開場合表達(dá)了他們對人工智能未來的憂慮。他們擔(dān)心人工智能可能滅絕人類、限制人類自由,以及被惡意利用。在這篇文章中,元宇宙官網(wǎng)將帶您探討B(tài)engio和Hinton的觀點,并深入思考人工智能發(fā)展過程中所面臨的倫理和安全挑戰(zhàn)。同時,我們也應(yīng)該認(rèn)識到人工智能所帶來的積極影響,并討論如何在保證人類安全的前提下推動其可持續(xù)發(fā)展。
最近,圖靈獎得主之一的Yoshua Bengio在接受BBC采訪時流露出一種憂郁的情緒,表示自己對于自己一生追求的事業(yè)感到迷失。
具體來說,他認(rèn)為如果自己早些認(rèn)識到人工智能的發(fā)展速度,他可能會更加關(guān)注人工智能的安全性,而不是實用性。
Bengio最近簽署了一封公開信,呼吁對人工智能的風(fēng)險進(jìn)行更加嚴(yán)格的規(guī)范。這封只有22個字的公開信將人工智能可能滅絕人類的風(fēng)險與核戰(zhàn)爭、傳染病等社會危機(jī)進(jìn)行了對比。
在BBC采訪中,Bengio詳細(xì)闡述了他的觀點。他呼吁限制軍方使用人工智能等舉措。政治機(jī)構(gòu)對人工智能的發(fā)展也并非置之不理。歐盟可能是最早對人工智能進(jìn)行立法的組織之一,他們表示將在未來幾周內(nèi)制定與人工智能相關(guān)的行為準(zhǔn)則。
這種擔(dān)憂并非沒有道理。畢竟,人工智能的高性能可能被用于對人類有害的目的,比如開發(fā)新型化學(xué)武器。Bengio表示,他非常擔(dān)心那些“有惡意”的人會掌握人工智能的技術(shù),特別是在人工智能發(fā)展如此迅速的情況下。這些人可能是軍方、恐怖分子,或者是精神情緒不穩(wěn)定的人。如果這些人掌握了人工智能,并讓其執(zhí)行極其危險的任務(wù),后果將無法預(yù)測。
此外,他還表示,如果人工智能繼續(xù)發(fā)展,我們可能無法中斷正在進(jìn)行的人工智能進(jìn)程。
Bengio還談到了自己的情況。這些擔(dān)憂無疑對他個人生活和工作產(chǎn)生了影響。以前,Bengio是備受尊崇的人工智能專家,他愿意為自己熱愛和擅長的事業(yè)奮斗終生。人工智能事業(yè)曾經(jīng)給他帶來身份認(rèn)同感和人生方向。但是,由于現(xiàn)在這些擔(dān)憂的存在,這些東西對他來說已經(jīng)不再清晰!皩τ谀切┥硖幦斯ぶ悄茴I(lǐng)域的人來說,這在情感上是具有挑戰(zhàn)性的。”
然而,盡管憂郁情緒存在,但是在他內(nèi)心深處仍然存在積極的態(tài)度。“你可以說我感到迷失,但是你必須堅持下去,必須參與討論,鼓勵別人和你一起思考。”
正如Bengio所提到的,埃隆·馬斯克也表達(dá)過類似的擔(dān)憂。盡管他并不認(rèn)為人工智能一定會滅絕人類,但他認(rèn)為人工智能可能會限制和控制人類。
Bengio認(rèn)為,所有與人工智能產(chǎn)品相關(guān)的科技巨頭公司都需要受到監(jiān)管和登記。政府需要追蹤它們的活動,并進(jìn)行審計。這只是我們對其他任何行業(yè)(如航空、汽車或制藥)所做的最基本的事情。此外,我們還需要引入道德培訓(xùn),盡管這在計算機(jī)科學(xué)領(lǐng)域并不常見。
Huggingface的科學(xué)家Sasha Luccioni博士表示,社會應(yīng)該關(guān)注諸如人工智能偏見和錯誤信息傳播等具體問題。她認(rèn)為這些問題更加切實可行,而滅絕人類等抽象的問題還沒有具體討論的基礎(chǔ)。
實際上,還有許多例子顯示了人工智能為社會帶來的許多好處。就在上周,借助人工智能的力量,一個癱瘓的人通過意念控制得以再次嘗試行走,這得益于使用人工智能開發(fā)的微芯片。此外,人工智能對國家經(jīng)濟(jì)產(chǎn)生了深遠(yuǎn)影響,許多公司已經(jīng)開始使用人工智能工具取代人工勞動力,這也是好萊塢劇作家罷工的一個重要原因。
與Bengio相似,圖靈獎得主Geoffrey Hinton也因為對人工智能風(fēng)險的擔(dān)憂而引起關(guān)注。他宣布離職谷歌,以便能夠自由地談?wù)撊斯ぶ悄艿娘L(fēng)險,而不考慮對谷歌的影響。Hinton直言不諱地警告世人,他深刻擔(dān)憂人工智能的風(fēng)險,并對自己的畢生工作感到后悔。
Hinton的離職標(biāo)志著科技行業(yè)正處于幾十年來最重要的拐點之一,這也讓許多業(yè)內(nèi)人士感到不安。他們擔(dān)心他們的研究可能會釋放出某種危險。因為生成式人工智能已經(jīng)成為制造錯誤信息的工具,并且在未來可能對人類構(gòu)成威脅。
Hinton認(rèn)為,我們尚未找到有效的方法來防止壞人利用人工智能做壞事。盡管面臨反對浪潮,Hinton并未在限制人工智能發(fā)展的兩封公開信上簽名。他表示,在辭去工作之前,他不想公開批評谷歌或其他公司。
他最近終于下定決心,通知谷歌即將辭職。選擇離職后,Hinton終于可以暢所欲言地談?wù)撊斯ぶ悄艿娘L(fēng)險了。他承認(rèn)對自己的畢生工作感到十分后悔,但他安慰自己說即使沒有他,也會有其他人繼續(xù)前進(jìn)。
這些憂慮和擔(dān)憂凸顯了人工智能發(fā)展過程中的倫理和安全問題。盡管人工智能帶來了許多積極的影響和創(chuàng)新,但我們必須認(rèn)真面對其潛在的風(fēng)險。
為了應(yīng)對這些問題,政府、科技公司和學(xué)術(shù)界需要密切合作,制定嚴(yán)格的規(guī)范和準(zhǔn)則來管理人工智能的發(fā)展和應(yīng)用。這包括對軍方和其他潛在惡意行為的限制,加強(qiáng)監(jiān)管和審計,以及加強(qiáng)道德培訓(xùn)和教育。
同時,公眾也需要參與到人工智能的討論中,了解其潛在風(fēng)險和影響,以便能夠做出明智的決策和推動相關(guān)政策的制定。
人工智能是一項強(qiáng)大的技術(shù),可以為社會帶來巨大的好處。然而,我們必須確保其發(fā)展和應(yīng)用符合倫理和人類價值,以確保人工智能能夠真正成為人類的助力,而不是威脅。