免费爱碰视频在线观看,九九精品国产屋,欧美亚洲尤物久久精品,1024在线观看视频亚洲

      18年后,無人幸免?

      18年后,無人幸免?

      1

      AI,真的覺醒了?

      人工智能,會蘇醒嗎?

      這是一個古老而又新奇的話題。

      “深度學習”天生的不可預測,加深了這種憂慮。

      “神經(jīng)網(wǎng)絡”的生物性類比,讓“AI黑匣子”更讓人擔心。

      最近,一個谷歌工程師再次引爆該話題:AI覺醒了?

      2022年6月,谷歌工程師Lemoine表示,自己在與AI“LaMDA”聊天中,發(fā)現(xiàn)了后者的回答已經(jīng)高度人格化,認為該AI已經(jīng)“覺醒”。

      為此,Lemoine寫了一篇長達21頁的調(diào)查報告,試圖讓高層認可AI的人格。

      不過,谷歌高層暫未表態(tài),希望獲得更清晰的認定。

      但Lemoine仿佛化身科幻電影主角,他沒有放棄,將自己和AI的聊天記錄公布于眾,引發(fā)軒然大波?!度A盛頓郵報》跟進報道后,更是在全球炸圈。

      AI真的覺醒了嗎?爭議不斷。

      有人說,這是《西部世界》式的預警;

      有人說,這是人的擬人傾向在作祟;

      有人說,Lemoine精神方面存在問題;

      有人說,這只是谷歌設計的一場營銷;

      ……

      不管真相如何,有一點可以肯定:

      因為深度學習和神經(jīng)網(wǎng)絡的加持,人工智能已經(jīng)越來越“不可捉摸”。

      2

      那一夜,人類安然睡去

      關于AI覺醒,讓人想起了6年前的另一件事。

      2016年3月13日,人類和AI在圍棋上進行一場智力的終極較量。

      在此之前,AI與人類較量屢屢得手。

      但人類認為,圍棋是AI不可突破的天花板。

      因為可測宇宙原子總數(shù)約為10^80,而圍棋走法有2.08*10^170,AlphaGo不可能依靠計算量和算力枚舉來獲勝,那么,擁有創(chuàng)造力的人類,怎么可能敗給AI。如果圍棋上敗給了AI,那么說明它已經(jīng)完成了“圖靈測試”。

      然而,前三局,李世石一敗再敗,全世界震驚了。

      第四局,李世石判斷黑空中有棋,下出白78挖。李世石這史詩級的“神之一手”,體現(xiàn)了人類巔峰的直覺、算力和創(chuàng)造力。這也是人類最后的尊嚴之戰(zhàn)。

      那個漫漫長夜,人類終于長吐了口氣,似乎一切都是虛驚一場。

      當年圍棋第一的李世石,回到自己的住處,在疲憊不堪中沉沉睡去。

      只有AI對手AlphaGo,在蒙特卡羅模擬場中繼續(xù)訓練,和自己又下了一百萬盤棋。

      第二天太陽照常升起,一切似乎都和昨日無異。

      然而李世石依舊是李世石,但AlphaGo再也不是“阿爾法狗”了。

      此后,人類在圍棋領域再沒有戰(zhàn)勝人工智能的戰(zhàn)績。

      當年一個作者寫下上段內(nèi)容(有修改),并提到“23年后,無人幸免”,科學家建立了一個數(shù)學模型,判斷2040年人工智能可能會達到普通人的智能水平,并引發(fā)智力爆炸。

      面對越來越普遍的AI,機器即將代替人類,AI正在迅速擴張。

      一個合力共建的“超級大腦”;

      一張指數(shù)增長的“神經(jīng)網(wǎng)絡”;

      一個初具規(guī)模的“硅基秩序”;

      …………

      五年過去了,人類朝著“黑客帝國”大步邁進。

      那么18年后,真的無人幸免?

      3

      AI的另一面:不夠穩(wěn)定

      以上兩件事,本質(zhì)上都是對AI覺醒的擔憂。

      一個擁有自由意志的AI不可信,最終會威脅到人類。

      霍金警告人類要正視人工智能帶來的威脅。

      比爾·蓋茨認為人工智能是“召喚惡魔”。

      《2001太空漫游》中,超級電腦HAL9000在宇宙中將人類無情抹殺。

      《黑客帝國》中,人類被AI禁錮在矩陣之中。

      不過,實事求是地講,對AI覺醒的不可信,仍然只是人類臆測。

      雖然科幻電影里描寫得殘酷冰冷,也還沒有得到普遍證實。

      但AI的另一個“不可信”,卻是真實存在的。

      它不是太聰明太智慧或者產(chǎn)生意識,而是不夠穩(wěn)定。

      這種不穩(wěn)定,產(chǎn)生的后果才真的“瘆人”。

      2015年2月,英國進行了首例機器人心瓣修復手術(shù)。

      這本是一場最尖端醫(yī)療AI技術(shù)的展示,但最終以慘痛的失敗告終。

      在手術(shù)過程中,AI的操作并不如我們想象中那么完美:

      機器人把病人的心臟“放錯位置”,還戳穿大動脈;

      大動脈戳破后血濺到機器人的攝像頭,導致機器“失明”;

      機械臂“亂動”打到醫(yī)生的手,影響醫(yī)生行動;

      機器人主機發(fā)出的聲音過于嘈雜,影響醫(yī)生之間的交流。

      種種問題,最終導致患者在一周后不治身亡。

      2021年,重慶朝天門。

      一次大規(guī)模的上百架無人機進行表演測試。

      原本是一次技術(shù)的演出展現(xiàn),但卻出現(xiàn)了意外。

      帶著燈光的無人機群突然像撲火的飛蛾撞向大樓。

      關于人工智能“失靈”的例子還有很多很多,這是AI不夠沉穩(wěn)的一面。

      這才是實實在在“不可信”的地方,也是AI對人類真正的威脅。

      我們不愿意看到AI的“覺醒”,但更不能接受人工智能的“輕率”。

      4

      人類需要的是一個可信的AI

      所以,人類需要一個“可信AI”。

      AI是聰明還是愚蠢,也許并不重要。

      AI是進化還是退化,可能暫時只是一個偽命題。

      人類需要的是一個可靠的助手,一個值得信任的機器助理。

      我是你的創(chuàng)造者,你得聽我的吧,不能瞎搗亂。

      阿西莫夫在七十年前就提出了“機器人學三大定律”:

      1.機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;

      2.機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;

      3.機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。

      這是人類在AI倫理思考中的方向。

      可以把它稱為是人工智能社會的道德準則。

      對于人類來說,可信,才是我們對AI最重要的需求。

      如果從“貝葉斯-拉普拉斯”定理開始溯源人工智慧,目標是解決“逆向概率”問題,其實本質(zhì)就是解決AI的可信賴度。

      如果不能做到可信,AI就有可能反噬人類。

      最起碼AI與我們相伴要保證人類兩點:生命安全與財產(chǎn)安全。

      以自動駕駛為例,如果人工智能以準確率為99.99%概率推算,0.01%的失誤率依舊會讓人心驚膽戰(zhàn)。如果未來城市有一百萬輛自動駕駛汽車,即便是0.01%的失誤率,對人類生命安全造成威脅的隱患車輛仍有一百輛。

      如果我們不能擁有可信AI,我們自然無法確定,人工智能給我們帶來的到底是技術(shù)的進步,還是無數(shù)潛在的威脅。

      可信AI,雖然它不像“AI覺醒”這樣能夠引發(fā)世界關注。

      但實際上它才是人工智能領域最有價值的航燈,也是現(xiàn)在科技公司追求的方向。

      5

      什么是可信AI,

      這16個技術(shù)小哥在做什么?

      所以,什么是可信AI?

      可能很多人還不知道,先得把這個定義弄清楚。

      我們可以先看一檔節(jié)目《燃燒吧,天才程序員2·可信AI》。

      這款綜藝節(jié)目第一季在豆瓣評分8.0,讓人腦洞大開。

      在第二季中,16個AI技術(shù)小伙分為四個團隊待在“小黑屋”中四天三夜,完成60個小時任務挑戰(zhàn)。

      比賽中,他們需要與“黑產(chǎn)”進行無數(shù)次較量,培養(yǎng)出與幫助人類的“可信AI”,打敗“黑產(chǎn)”,最終決出最強團隊。

      關于程序技術(shù)的綜藝節(jié)目,在中國乃至世界都非常稀缺。

      一方面程序與代碼本身過于硬核,普通人難以理解。

      另一方面則是節(jié)目腳本設置沖突相比其他綜藝要更難一些。

      但《燃燒吧,天才程序員2·可信AI》通過“反詐騙”這一實際場景需要,以此構(gòu)建起節(jié)目的比賽邏輯。

      16個AI技術(shù)小伙需要直面欺詐交易識別、聯(lián)合反詐等關卡的挑戰(zhàn)。

      通過AI與攻防互相協(xié)作,覆蓋反詐全鏈路。

      比賽之中,程序員們通過創(chuàng)造“可信AI”,完成“科技反詐”。

      哪一個團隊產(chǎn)出的算法和模型在數(shù)據(jù)的識別準確率和覆蓋率更好,就能贏得比賽勝利。

      雖然不如《黑客帝國》那般深刻宏大,也不如《人工智能》那樣發(fā)人深省。

      但《燃燒吧,天才程序員》卻通過真實的應用場景,解決現(xiàn)實生活存在的實際問題。

      當你看完整個節(jié)目時就會明白,原來這就是可信AI:依照現(xiàn)有數(shù)據(jù)構(gòu)建智能模型,非常穩(wěn)定地解決現(xiàn)實難題。

      可信AI的技術(shù)應用范圍非常廣泛,反詐是其中一個重要應用場景。

      可信AI沒有那么遙遠,它近在咫尺。它也沒有那么神秘,很多時候它就是你身邊的小助理。

      當前基于神經(jīng)網(wǎng)絡的AI技術(shù)非??幔瑫r占據(jù)AI話題至高點,以創(chuàng)造力和神秘性提供太多想象空間,也是許多AI技術(shù)員仰視的圣殿。但它面臨的問題也非常多:具有不可解釋、魯棒性差、過于依賴數(shù)據(jù)等缺陷,隱藏著許多潛在危害。

      而可信AI的存在,就是為了解決這些“信任危機”問題。

      如果說基于神經(jīng)網(wǎng)絡的AI技術(shù)有著強烈的理想主義,那么基于大數(shù)據(jù)整理的AI技術(shù)則是一個腳踏實地的現(xiàn)實執(zhí)行者。

      6

      可信AI的技術(shù)特點

      要真正了解可信AI對人類的幫助,需要從技術(shù)底層入手。

      可信AI有四大技術(shù)特點:魯棒性、隱私保護、可解釋性、公平性

      01

      魯棒性

      魯棒性指在異常和危險情況下系統(tǒng)生存的能力和算法穩(wěn)定。

      1、前者指的是系統(tǒng)抗打擊的能力,如計算機軟件在輸入錯誤、磁盤故障、網(wǎng)絡過載或惡意攻擊情況下,能否不死機、不崩潰。打個比方,如果把一個AI模型比喻成萬里長城,那么其魯棒性便是長城在面對惡劣天氣(如臺風)、自然災害(如地震)時,人工轟炸時仍然可以做到不輕易倒塌。

      2、后者指的是AI模型中算法本身的穩(wěn)定性,如果添加擾動的熊貓照片,輕易就繞開了AI模型的“眼睛”,則說明其魯棒性比較差;比如在欺詐交易中,由于作案手法不斷升級,可能導致基于既往數(shù)據(jù)訓練的模型,面臨著新風險數(shù)據(jù)帶來的穩(wěn)定性考驗,需要不斷迭代來保障模型的分析和識別能力。

      以支付寶為例。支付寶每天都有上億筆交易,其對抗的不是散戶,而是專業(yè)的黑產(chǎn)團伙。他們可能有兩種攻擊方式:

      1、對現(xiàn)在的防御體系找到漏洞進行攻擊,那就要看AI魯棒性的抗攻擊能力。

      2、輸入從未有過的污染數(shù)據(jù),逃避現(xiàn)有算法追蹤,這就要AI模型的算法穩(wěn)定性。

      為了保障資金安全,螞蟻集團引入“博弈智能攻防”技術(shù),該技術(shù)具有對風險知識和模型的提前模擬、提前訓練、提前補防的能力。應用該技術(shù)的AI模型魯棒性有大幅提升,實現(xiàn)“左右互搏”,既能夠更智能地“攻”,也能更安全地“防”。

      02

      隱私保護

      傳統(tǒng)的數(shù)據(jù)保護方法客觀上形成了「數(shù)據(jù)孤島」,影響了如醫(yī)療、金融等領域的協(xié)同作戰(zhàn),也制約 AI 技術(shù)以及行業(yè)發(fā)展。

      所以,拓展數(shù)據(jù)價值的隱私計算技術(shù),對實現(xiàn)「數(shù)據(jù)不動價值動」顯得尤為重要。

      在AI領域,聯(lián)邦學習作為一種新的機器學習模型和算法,就是為解決數(shù)據(jù)孤島問題而提出的。在保證每個參與方不泄露原始數(shù)據(jù),即數(shù)據(jù)不出域的前提下,用多方的數(shù)據(jù)聯(lián)合建模,實現(xiàn)數(shù)據(jù)可用不可見,進而實現(xiàn)「數(shù)據(jù)不動價值動」。

      03

      可解釋性

      人類對一切未知的東西,始終都會有一種莫名的恐懼。

      如果人工智能的行為無法進行解釋,只有結(jié)果沒有過程,那么它就像是一個盲盒,你永遠不知道放出來的是“阿拉丁”,還是“潘多拉”。

      AI 模型是許多重要決策的重要依據(jù),在很多應用里它的思考過程不能是黑盒。

      人類希望知道模型背后的邏輯、收獲新的知識,并在它出現(xiàn)問題時踩好剎車,確保 AI 思考的過程和結(jié)果合規(guī)合法。

      這背后需要數(shù)據(jù)驅(qū)動與模型推理能力結(jié)合起來,產(chǎn)生可解釋的結(jié)果。

      04

      公平性

      AI公平性是可信AI的重要組成部分。

      只有實現(xiàn)“公平性”,才能真正推動技術(shù)造福于整個社會。

      一方面,公平性需要重視弱勢人群、兼顧落后地區(qū)發(fā)展,在重視社會倫理原則下進行 AI 調(diào)優(yōu),通過 AI 技術(shù),讓老年人、殘障人士、欠發(fā)達地區(qū)用戶,享受到數(shù)字經(jīng)濟時代的價值。

      另一方面,公平性要思考如何從技術(shù)上思考如何減少算法、數(shù)據(jù)等因素可能帶來的 AI 決策偏見。

      魯棒性、隱私保護、可解釋性、公平性。

      這是可信AI的四大基本原則。

      今天,發(fā)展可信AI,已經(jīng)成為全球共識。

      特別是對于領先的科技公司來講,他們是要服務用戶且不能犯錯誤的。

      微軟、谷歌、螞蟻、京東、騰訊、曠世等科技企業(yè),都在積極開展可信AI的研究和探索。

      其中,螞蟻在可信AI上已有很多技術(shù)優(yōu)勢,自2015年開始投入研究起,已經(jīng)完成了長達7年的可信AI技術(shù)積累之路。

      據(jù)2021年權(quán)威專利機構(gòu)IPR daily發(fā)布的《人工智能安全可信關鍵技術(shù)專利報告》顯示,螞蟻集團旗下的支付寶在該領域的專利申請數(shù)和授權(quán)數(shù),均位列全球第一。

      7

      可信AI的應用探索

      基于可信AI的以上特點,應用場景多種多樣。

      AI在醫(yī)療、教育、工業(yè)、金融等多個領域的廣泛應用,算法安全性、數(shù)據(jù)濫用、數(shù)據(jù)歧視等問題也層出不窮。當前AI技術(shù)的主要矛盾,已經(jīng)轉(zhuǎn)化為人們對AI日益增長的應用范圍需求和AI不可信不夠穩(wěn)的發(fā)展之間的矛盾。

      2018年,IBM開發(fā)了多個AI可信工具,以評估測試人工智能產(chǎn)品在研發(fā)過程中的公平性、魯棒性、可解釋性、可問責性、價值一致性。之后IBM將這些工具捐獻給Linux Foundation并成為了開源項目,幫助開發(fā)人員和數(shù)據(jù)科學家構(gòu)建可信、安全、可解釋的人工智能系統(tǒng)。

      作為可信AI領域的先行者之一,螞蟻也做了不少探索。

      螞蟻的可信AI技術(shù)應用最好的實踐結(jié)果是,自研了一套智能風控解決方案,定名IMAGE。這套技術(shù)體系實現(xiàn)了用可信AI技術(shù)保障風控業(yè)務安全的問題,且達到了非常好的效果。

      它能將支付寶資損率控制在千萬分之0.098,解決了風控場景中的諸多世界難題。

      還有一個例子,是支付寶的“叫醒熱線”——從系統(tǒng)識別到用戶遇到詐騙風險,到AI機器人向用戶呼出“叫醒電話”,它能把整個過程控制在0.1秒內(nèi)。

      螞蟻集團基于可信AI的IMAGE風控體系

      另外在可信AI的公平性方面,螞蟻也有自己的實際應用。

      目前業(yè)內(nèi)廣泛使用的“圖形滑塊驗證碼”一直是視障人群接入數(shù)字化服務的巨大障礙。但許多 APP 為了防范機器批量操作,又不得不保留驗證碼服務。

      為此,螞蟻開發(fā)了一套“空中手勢”驗證碼方案,可以利用“行為識別”技術(shù)幫助視障群體通過“驗證碼”關卡。

      可信AI的應用探索,并不會讓AI技術(shù)失去它的可能性。

      它更像是一種倫理規(guī)范的約束條約,讓AI在正確的軌道上前行。

      8

      18年后,人類真的無人幸免?

      讓我們回到一開始的問題。

      AI真的會覺醒嗎?

      一百年前的人類,很難想象我們?nèi)缃裆畹倪@個高度數(shù)字化世界。

      那么,一百年后,人工智能會發(fā)生什么變革,我們真的無法預測。

      但AI對人類是福是禍,是一個攸關人類命運的重要課題。

      按照現(xiàn)在AI發(fā)展的模式來看,未來的AI可能會分為兩大派:

      一派是自我獨立的智能AI,一派是追隨人類的可信AI。

      當然,還有人在問,AI真的會存在獨立意志嗎?

      這要看從科學上如何去解釋,一個AI系統(tǒng)是可以“坎陷”到具有“自我意識”的狀態(tài),差別只在于“坎陷”的深度和魯棒性,這可以解釋AlphaZero為什么能夠自我“坎陷”到圍棋大師,如果再“坎陷”下去呢?這一派AI,可能會對人類造成我們認定的“威脅”。

      另一派AI,即可信AI,它們會在四大基本原則的架構(gòu)中不斷完善自我,幫助人類解決更多實際問題,成為人類可靠的助手,并與人類共存共生。那么,它們會一直幫助和保護人類嗎?

      但無論未來如何發(fā)展,不同的技術(shù)方向或許帶來不同的悲劇或者喜劇,但有一點可以確定:

      AI技術(shù)在四面突擊,不論是可信AI還是智能AI,最終會落地深入到我們生活的方方面面。它會滲透到世界的每一個角落,在很多方面取代“無用之人”。

      不管我們?nèi)绾螕鷳n,AI只會變得越來越強大,而人類的進化又顯得如此龜速,甚至退化墮落。

      那么,18年后,有多少人可以幸免?

      鄭重聲明:本文內(nèi)容及圖片均整理自互聯(lián)網(wǎng),不代表本站立場,版權(quán)歸原作者所有,如有侵權(quán)請聯(lián)系管理員(admin#wlmqw.com)刪除。
      上一篇 2022年6月24日 12:43
      下一篇 2022年6月24日 12:43

      相關推薦

      聯(lián)系我們

      聯(lián)系郵箱:admin#wlmqw.com
      工作時間:周一至周五,10:30-18:30,節(jié)假日休息