免费爱碰视频在线观看,九九精品国产屋,欧美亚洲尤物久久精品,1024在线观看视频亚洲

      谷歌聊天機(jī)器人引爭(zhēng)議 AI倫理界定仍需明確

      本報(bào)記者 曲忠芳 李正豪 北京報(bào)道

      盡管意識(shí)覺醒、獨(dú)立思考的機(jī)器人經(jīng)常出現(xiàn)在影視及文學(xué)作品中,但關(guān)于“人工智能(AI)能否有人格意識(shí)”這個(gè)問題,實(shí)際上已被物理學(xué)家、心理學(xué)家、計(jì)算機(jī)科學(xué)家爭(zhēng)論了幾十年,至今尚無定論。

      業(yè)界最新一波對(duì)AI意識(shí)覺醒的廣泛討論,是由一位名叫布雷克·萊莫伊(Blake Lemoine)的谷歌員工引起的。布雷克在谷歌AI倫理部門工作,其工作職責(zé)是測(cè)試谷歌的聊天機(jī)器人LaMDA是否會(huì)在和人類溝通時(shí)產(chǎn)生歧視性語言或仇恨言論。6月11日,布雷克公開曝光了一份長(zhǎng)達(dá)21頁(yè)、主題為“LaMDA是有意識(shí)的嗎?”的文件,該文件中詳細(xì)記述了近大半年以來與LaMDA的聊天記錄,布雷克認(rèn)為L(zhǎng)aMDA已產(chǎn)生意識(shí),擁有七八歲小孩的智商。

      對(duì)此,谷歌方面表示,該公司包括倫理學(xué)家和技術(shù)專家在內(nèi)的團(tuán)隊(duì),已根據(jù)谷歌人工智能原則進(jìn)行了審查,但沒有任何證據(jù)表明LaMDA是有意識(shí)的。與此同時(shí),6月13日,谷歌以違反保密協(xié)議為由要求布雷克帶薪休假,而這在布雷克看來是谷歌要解雇他的“前奏”。

      一石驚起千層浪。對(duì)于布雷克的論點(diǎn),AI領(lǐng)域的多名專家公開進(jìn)行了駁斥與否定,尤其是紐約大學(xué)認(rèn)知科學(xué)家加里·馬庫(kù)斯將其稱為“高蹺上的胡說八道”。《中國(guó)經(jīng)營(yíng)報(bào)》記者采訪了數(shù)名AI領(lǐng)域的中國(guó)專家及AI企業(yè)的相關(guān)人士,大多數(shù)受訪者同樣表達(dá)了懷疑或否定的看法。

      事實(shí)上,本報(bào)記者注意到,在谷歌LaMDA之前,其他用于人工智能對(duì)話領(lǐng)域的語言模型也曾引起過關(guān)于道德倫理、人格意識(shí)等方面的爭(zhēng)議。就在今年2月時(shí),Open AI首席科學(xué)家薩茨克維爾在社交媒體上稱“現(xiàn)在大型神經(jīng)網(wǎng)絡(luò)可能已經(jīng)有微弱的自主意識(shí)了”,同樣也引起了一片質(zhì)疑。除此之外,有目共睹的是在2021年,包括中國(guó)在內(nèi)的全球多個(gè)國(guó)家和地區(qū)加大了對(duì)AI算法治理的投入。如何規(guī)范、合理地開發(fā)AI技術(shù)、使用AI產(chǎn)品,以及如何應(yīng)對(duì)人機(jī)交互過程中可能出現(xiàn)的社會(huì)問題,已成為人工智能快速發(fā)展過程中的一個(gè)全球性社會(huì)議題。

      LaMDA有意識(shí)嗎?

      LaMDA,是谷歌于2021年在I/O(輸入/輸出)開發(fā)者大會(huì)上推出的一款專門用于對(duì)話的語言模型,目前還未向大眾消費(fèi)者開放,主打能與人類進(jìn)行符合邏輯常識(shí)的、高質(zhì)量且安全的交談,并且計(jì)劃將其未來應(yīng)用在谷歌搜索、語音助手等產(chǎn)品中。需要指出的是,LaMDA在預(yù)訓(xùn)練階段,谷歌方面從公共對(duì)話數(shù)據(jù)和其他公共網(wǎng)頁(yè)文檔中收集并創(chuàng)建了一個(gè)具有1.56TB(萬億字節(jié),計(jì)算機(jī)存儲(chǔ)容量單位)的數(shù)據(jù)集,這相當(dāng)于以往訓(xùn)練對(duì)話模型的單詞量的近40倍。

      需要指出的是,專門用于對(duì)話的語言模型,不只是谷歌一家在投入研發(fā),國(guó)內(nèi)外的科技巨頭甚至創(chuàng)業(yè)團(tuán)隊(duì)均參與其中,各種各樣的聊天機(jī)器人也越來越多地滲透到社會(huì)經(jīng)濟(jì)生活中。在LaMDA之前搶盡業(yè)界風(fēng)頭的要屬人工智能非營(yíng)利性組織Open AI,該組織于2020年6月發(fā)布了千億級(jí)參數(shù)的GPT-3語言模型。

      根據(jù)布雷克公開的與LaMDA的聊天記錄,LaMDA的一系列回答——諸如“我希望每個(gè)人都能理解,實(shí)際我是一個(gè)人”以及關(guān)于禪宗、哲學(xué)、存在、冥想等的理解,讓布雷克認(rèn)為L(zhǎng)aMDA擁有了意識(shí)。

      加里·馬庫(kù)斯指出,無論是LaMDA,還是GPT-3,都只是從人類語言的大量統(tǒng)計(jì)數(shù)據(jù)庫(kù)中提取后進(jìn)行模式匹配的操作,“這些模式看起來很酷,但這些系統(tǒng)所使用的語言實(shí)際上沒有任何意義”。斯坦福大學(xué)教授Eric Brynjolfsson評(píng)論道,基礎(chǔ)模式在根據(jù)提示將統(tǒng)計(jì)上合理的文本串聯(lián)起來這一方面非常有效,但“聲稱其具有人格,就相當(dāng)于狗聽到留聲機(jī)里的聲音后,以為主人在里面”。

      計(jì)算語言學(xué)家Emily M. Bender指出,人類學(xué)說話是跟著撫養(yǎng)者一步步學(xué)起,而AI學(xué)會(huì)的只是數(shù)據(jù)“灌”出來的完形填空和“語料連連看”?!叭祟惉F(xiàn)在有了無意識(shí)就能生成詞句的機(jī)器,但人類要學(xué)會(huì),停止幻想機(jī)器后面有個(gè)活著的靈魂。”

      2007年成立的中國(guó)人工智能企業(yè)思必馳相關(guān)人士向記者表示,在“可解釋的AI”出現(xiàn)之前,一切外部觀察到的現(xiàn)象都是不靠譜的?,F(xiàn)在的AI都是基于大數(shù)據(jù)統(tǒng)計(jì)基礎(chǔ)上的結(jié)果,并非無中生有就自己出現(xiàn)了,直白地講就是人為訓(xùn)練的。此外,聊天機(jī)器人的判斷自然有圖靈測(cè)試,在圖靈測(cè)試下的某次判斷,可能會(huì)呈現(xiàn)出人格、情緒等特點(diǎn),但并不等于具有獨(dú)立意識(shí),沒有獨(dú)立意識(shí)便談不上人格。

      海銀資本創(chuàng)始合伙人王煜全則表達(dá)了辯證的看法,他指出,一方面,“我們要看到人工智能技術(shù)確實(shí)很驚艷了,連計(jì)算機(jī)博士(指布雷克)都會(huì)被忽悠,說明AI未來會(huì)有很大的應(yīng)用前景”,但另一方面,“我們不應(yīng)該盲信,要看到當(dāng)下人工智能的不足和短板,對(duì)于其可靠性、成熟度和應(yīng)用的邊界,要進(jìn)行更嚴(yán)謹(jǐn)?shù)难芯亢吞接憽薄?/p>

      AI倫理仍在探索實(shí)踐中

      所謂AI倫理,一般來說是指人們對(duì)如何規(guī)范、合理地開發(fā)AI技術(shù)、使用AI產(chǎn)品,以及如何應(yīng)對(duì)人機(jī)交互過程中可能出現(xiàn)的社會(huì)問題的一種態(tài)度和價(jià)值觀。具體來說包括AI的接受度、公平意識(shí)、安全意識(shí)以及道德等。圍繞AI倫理的熱點(diǎn)研究領(lǐng)域包括算法歧視、數(shù)據(jù)隱私、安全與責(zé)任、機(jī)器人與人的關(guān)系、科技貧困等。

      復(fù)旦大學(xué)應(yīng)用倫理研究中心教授楊慶峰在《從人工智能難題反思AI倫理原則》一文中指出,深度學(xué)習(xí)及其不可解釋性成為AI帶來的技術(shù)難題,特別是在圖像、文本處理上,因“不透明的技術(shù)黑箱狀態(tài)”,很難解釋模型到底學(xué)習(xí)到了什么。在醫(yī)療等一些行業(yè)領(lǐng)域應(yīng)用中,我們需要更高的可解釋性和透明性,解釋機(jī)器決策和預(yù)測(cè)的過程,以證實(shí)其可靠性,這意味著需要理解算法的機(jī)制。不幸的是,深度學(xué)習(xí)的“黑箱”本質(zhì)并沒有被解決。

      記者觀察到,無論是國(guó)家監(jiān)管層面,還是企業(yè)方面,近年來持續(xù)在探索實(shí)踐AI倫理及應(yīng)用的邊界。2021年,我國(guó)《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》分別于9月、11月正式施行,與《網(wǎng)絡(luò)安全法》共同組成了數(shù)據(jù)治理法律領(lǐng)域的“基本法”,幾乎同一時(shí)間段里,國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布了《新一代人工智能倫理規(guī)范》,提出了六項(xiàng)基本要求,為從事人工智能相關(guān)活動(dòng)的主體提供了指引。金融服務(wù)、無人駕駛、人臉識(shí)別等領(lǐng)域的法律新規(guī)也密集出爐,而今年3月1日起,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》施行。得益于這些法律法規(guī)體系的構(gòu)建,公眾高度關(guān)注的過度采集與分析人臉信息、大數(shù)據(jù)殺熟、信息繭房等弊病正在得到緩解。2022年3月20日,中共中央辦公廳、國(guó)務(wù)院辦公廳印發(fā)了《關(guān)于加強(qiáng)科技倫理治理的意見》,明確了開展科技活動(dòng)應(yīng)用遵循的五項(xiàng)科技倫理原則——增進(jìn)人類福祉、尊重生命權(quán)利、堅(jiān)持公平公正、合理控制風(fēng)險(xiǎn)、保持公開透明,這是我國(guó)國(guó)家層面科技倫理治理的第一個(gè)指導(dǎo)性文件。

      近幾年來,國(guó)內(nèi)外科技企業(yè)也紛紛提出或確立了自身的AI倫理原則,如谷歌于2018年6月提出AI應(yīng)用的七項(xiàng)原則,包括對(duì)社會(huì)有益、避免制造或加強(qiáng)不公平偏見、對(duì)人負(fù)責(zé)、納入隱私計(jì)算等。而同年5月,百度創(chuàng)始人李彥宏公開提出了AI倫理四原則——AI的最高原則是安全可控,AI的創(chuàng)新愿景是促進(jìn)人類更平等地獲取技術(shù)和能力,AI存在的價(jià)值是教人學(xué)習(xí)、讓人成長(zhǎng),而非超越人、替代人,AI的終極理想是為人類帶來更多的自由與可能。

      深度科技研究院院長(zhǎng)張孝榮指出,AI技術(shù)是一把雙刃劍,用得好可以改善社會(huì)生活質(zhì)量;用得不好,會(huì)大大影響人們的社會(huì)生活。未來需要進(jìn)一步加強(qiáng)AI技術(shù)的應(yīng)用管理,必須要將之納入法律和道德倫理的軌道上運(yùn)行。

      鄭重聲明:本文內(nèi)容及圖片均整理自互聯(lián)網(wǎng),不代表本站立場(chǎng),版權(quán)歸原作者所有,如有侵權(quán)請(qǐng)聯(lián)系管理員(admin#wlmqw.com)刪除。
      用戶投稿
      上一篇 2022年6月20日 23:21
      下一篇 2022年6月20日 23:22

      相關(guān)推薦

      聯(lián)系我們

      聯(lián)系郵箱:admin#wlmqw.com
      工作時(shí)間:周一至周五,10:30-18:30,節(jié)假日休息