1
AI,真的覺醒了?
人工智能,會蘇醒嗎?
這是一個古老而又新奇的話題。
“深度學習”天生的不可預測,加深了這種憂慮。
“神經(jīng)網(wǎng)絡”的生物性類比,讓“AI黑匣子”更讓人擔心。
最近,一個谷歌工程師再次引爆該話題:AI覺醒了?
2022年6月,谷歌工程師Lemoine表示,自己在與AI“LaMDA”聊天中,發(fā)現(xiàn)了后者的回答已經(jīng)高度人格化,認為該AI已經(jīng)“覺醒”。
為此,Lemoine寫了一篇長達21頁的調(diào)查報告,試圖讓高層認可AI的人格。
不過,谷歌高層暫未表態(tài),希望獲得更清晰的認定。
但Lemoine仿佛化身科幻電影主角,他沒有放棄,將自己和AI的聊天記錄公布于眾,引發(fā)軒然大波?!度A盛頓郵報》跟進報道后,更是在全球炸圈。
AI真的覺醒了嗎?爭議不斷。
有人說,這是《西部世界》式的預警;
有人說,這是人的擬人傾向在作祟;
有人說,Lemoine精神方面存在問題;
有人說,這只是谷歌設計的一場營銷;
……
不管真相如何,有一點可以肯定:
因為深度學習和神經(jīng)網(wǎng)絡的加持,人工智能已經(jīng)越來越“不可捉摸”。
2
那一夜,人類安然睡去
關于AI覺醒,讓人想起了6年前的另一件事。
2016年3月13日,人類和AI在圍棋上進行一場智力的終極較量。
在此之前,AI與人類較量屢屢得手。
但人類認為,圍棋是AI不可突破的天花板。
因為可測宇宙原子總數(shù)約為10^80,而圍棋走法有2.08*10^170,AlphaGo不可能依靠計算量和算力枚舉來獲勝,那么,擁有創(chuàng)造力的人類,怎么可能敗給AI。如果圍棋上敗給了AI,那么說明它已經(jīng)完成了“圖靈測試”。
然而,前三局,李世石一敗再敗,全世界震驚了。
第四局,李世石判斷黑空中有棋,下出白78挖。李世石這史詩級的“神之一手”,體現(xiàn)了人類巔峰的直覺、算力和創(chuàng)造力。這也是人類最后的尊嚴之戰(zhàn)。
那個漫漫長夜,人類終于長吐了口氣,似乎一切都是虛驚一場。
當年圍棋第一的李世石,回到自己的住處,在疲憊不堪中沉沉睡去。
只有AI對手AlphaGo,在蒙特卡羅模擬場中繼續(xù)訓練,和自己又下了一百萬盤棋。
第二天太陽照常升起,一切似乎都和昨日無異。
然而李世石依舊是李世石,但AlphaGo再也不是“阿爾法狗”了。
此后,人類在圍棋領域再沒有戰(zhàn)勝人工智能的戰(zhàn)績。
當年一個作者寫下上段內(nèi)容(有修改),并提到“23年后,無人幸免”,科學家建立了一個數(shù)學模型,判斷2040年人工智能可能會達到普通人的智能水平,并引發(fā)智力爆炸。
面對越來越普遍的AI,機器即將代替人類,AI正在迅速擴張。
一個合力共建的“超級大腦”;
一張指數(shù)增長的“神經(jīng)網(wǎng)絡”;
一個初具規(guī)模的“硅基秩序”;
…………
五年過去了,人類朝著“黑客帝國”大步邁進。
那么18年后,真的無人幸免?
3
AI的另一面:不夠穩(wěn)定
以上兩件事,本質(zhì)上都是對AI覺醒的擔憂。
一個擁有自由意志的AI不可信,最終會威脅到人類。
霍金警告人類要正視人工智能帶來的威脅。
比爾·蓋茨認為人工智能是“召喚惡魔”。
《2001太空漫游》中,超級電腦HAL9000在宇宙中將人類無情抹殺。
《黑客帝國》中,人類被AI禁錮在矩陣之中。
不過,實事求是地講,對AI覺醒的不可信,仍然只是人類臆測。
雖然科幻電影里描寫得殘酷冰冷,也還沒有得到普遍證實。
但AI的另一個“不可信”,卻是真實存在的。
它不是太聰明太智慧或者產(chǎn)生意識,而是不夠穩(wěn)定。
這種不穩(wěn)定,產(chǎn)生的后果才真的“瘆人”。
2015年2月,英國進行了首例機器人心瓣修復手術(shù)。
這本是一場最尖端醫(yī)療AI技術(shù)的展示,但最終以慘痛的失敗告終。
在手術(shù)過程中,AI的操作并不如我們想象中那么完美:
機器人把病人的心臟“放錯位置”,還戳穿大動脈;
大動脈戳破后血濺到機器人的攝像頭,導致機器“失明”;
機械臂“亂動”打到醫(yī)生的手,影響醫(yī)生行動;
機器人主機發(fā)出的聲音過于嘈雜,影響醫(yī)生之間的交流。
種種問題,最終導致患者在一周后不治身亡。
2021年,重慶朝天門。
一次大規(guī)模的上百架無人機進行表演測試。
原本是一次技術(shù)的演出展現(xiàn),但卻出現(xiàn)了意外。
帶著燈光的無人機群突然像撲火的飛蛾撞向大樓。
關于人工智能“失靈”的例子還有很多很多,這是AI不夠沉穩(wěn)的一面。
這才是實實在在“不可信”的地方,也是AI對人類真正的威脅。
我們不愿意看到AI的“覺醒”,但更不能接受人工智能的“輕率”。
4
人類需要的是一個可信的AI
所以,人類需要一個“可信AI”。
AI是聰明還是愚蠢,也許并不重要。
AI是進化還是退化,可能暫時只是一個偽命題。
人類需要的是一個可靠的助手,一個值得信任的機器助理。
我是你的創(chuàng)造者,你得聽我的吧,不能瞎搗亂。
阿西莫夫在七十年前就提出了“機器人學三大定律”:
1.機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;
2.機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;
3.機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。
這是人類在AI倫理思考中的方向。
可以把它稱為是人工智能社會的道德準則。
對于人類來說,可信,才是我們對AI最重要的需求。
如果從“貝葉斯-拉普拉斯”定理開始溯源人工智慧,目標是解決“逆向概率”問題,其實本質(zhì)就是解決AI的可信賴度。
如果不能做到可信,AI就有可能反噬人類。
最起碼AI與我們相伴要保證人類兩點:生命安全與財產(chǎn)安全。
以自動駕駛為例,如果人工智能以準確率為99.99%概率推算,0.01%的失誤率依舊會讓人心驚膽戰(zhàn)。如果未來城市有一百萬輛自動駕駛汽車,即便是0.01%的失誤率,對人類生命安全造成威脅的隱患車輛仍有一百輛。
如果我們不能擁有可信AI,我們自然無法確定,人工智能給我們帶來的到底是技術(shù)的進步,還是無數(shù)潛在的威脅。
可信AI,雖然它不像“AI覺醒”這樣能夠引發(fā)世界關注。
但實際上它才是人工智能領域最有價值的航燈,也是現(xiàn)在科技公司追求的方向。
5
什么是可信AI,
這16個技術(shù)小哥在做什么?
所以,什么是可信AI?
可能很多人還不知道,先得把這個定義弄清楚。
我們可以先看一檔節(jié)目《燃燒吧,天才程序員2·可信AI》。
這款綜藝節(jié)目第一季在豆瓣評分8.0,讓人腦洞大開。
在第二季中,16個AI技術(shù)小伙分為四個團隊待在“小黑屋”中四天三夜,完成60個小時任務挑戰(zhàn)。
比賽中,他們需要與“黑產(chǎn)”進行無數(shù)次較量,培養(yǎng)出與幫助人類的“可信AI”,打敗“黑產(chǎn)”,最終決出最強團隊。
關于程序技術(shù)的綜藝節(jié)目,在中國乃至世界都非常稀缺。
一方面程序與代碼本身過于硬核,普通人難以理解。
另一方面則是節(jié)目腳本設置沖突相比其他綜藝要更難一些。
但《燃燒吧,天才程序員2·可信AI》通過“反詐騙”這一實際場景需要,以此構(gòu)建起節(jié)目的比賽邏輯。
16個AI技術(shù)小伙需要直面欺詐交易識別、聯(lián)合反詐等關卡的挑戰(zhàn)。
通過AI與攻防互相協(xié)作,覆蓋反詐全鏈路。
比賽之中,程序員們通過創(chuàng)造“可信AI”,完成“科技反詐”。
哪一個團隊產(chǎn)出的算法和模型在數(shù)據(jù)的識別準確率和覆蓋率更好,就能贏得比賽勝利。
雖然不如《黑客帝國》那般深刻宏大,也不如《人工智能》那樣發(fā)人深省。
但《燃燒吧,天才程序員》卻通過真實的應用場景,解決現(xiàn)實生活存在的實際問題。
當你看完整個節(jié)目時就會明白,原來這就是可信AI:依照現(xiàn)有數(shù)據(jù)構(gòu)建智能模型,非常穩(wěn)定地解決現(xiàn)實難題。
可信AI的技術(shù)應用范圍非常廣泛,反詐是其中一個重要應用場景。
可信AI沒有那么遙遠,它近在咫尺。它也沒有那么神秘,很多時候它就是你身邊的小助理。
當前基于神經(jīng)網(wǎng)絡的AI技術(shù)非??幔瑫r占據(jù)AI話題至高點,以創(chuàng)造力和神秘性提供太多想象空間,也是許多AI技術(shù)員仰視的圣殿。但它面臨的問題也非常多:具有不可解釋、魯棒性差、過于依賴數(shù)據(jù)等缺陷,隱藏著許多潛在危害。
而可信AI的存在,就是為了解決這些“信任危機”問題。
如果說基于神經(jīng)網(wǎng)絡的AI技術(shù)有著強烈的理想主義,那么基于大數(shù)據(jù)整理的AI技術(shù)則是一個腳踏實地的現(xiàn)實執(zhí)行者。
6
可信AI的技術(shù)特點
要真正了解可信AI對人類的幫助,需要從技術(shù)底層入手。
可信AI有四大技術(shù)特點:魯棒性、隱私保護、可解釋性、公平性。
01
魯棒性
魯棒性指在異常和危險情況下系統(tǒng)生存的能力和算法穩(wěn)定。
1、前者指的是系統(tǒng)抗打擊的能力,如計算機軟件在輸入錯誤、磁盤故障、網(wǎng)絡過載或惡意攻擊情況下,能否不死機、不崩潰。打個比方,如果把一個AI模型比喻成萬里長城,那么其魯棒性便是長城在面對惡劣天氣(如臺風)、自然災害(如地震)時,人工轟炸時仍然可以做到不輕易倒塌。
2、后者指的是AI模型中算法本身的穩(wěn)定性,如果添加擾動的熊貓照片,輕易就繞開了AI模型的“眼睛”,則說明其魯棒性比較差;比如在欺詐交易中,由于作案手法不斷升級,可能導致基于既往數(shù)據(jù)訓練的模型,面臨著新風險數(shù)據(jù)帶來的穩(wěn)定性考驗,需要不斷迭代來保障模型的分析和識別能力。
以支付寶為例。支付寶每天都有上億筆交易,其對抗的不是散戶,而是專業(yè)的黑產(chǎn)團伙。他們可能有兩種攻擊方式:
1、對現(xiàn)在的防御體系找到漏洞進行攻擊,那就要看AI魯棒性的抗攻擊能力。
2、輸入從未有過的污染數(shù)據(jù),逃避現(xiàn)有算法追蹤,這就要AI模型的算法穩(wěn)定性。
為了保障資金安全,螞蟻集團引入“博弈智能攻防”技術(shù),該技術(shù)具有對風險知識和模型的提前模擬、提前訓練、提前補防的能力。應用該技術(shù)的AI模型魯棒性有大幅提升,實現(xiàn)“左右互搏”,既能夠更智能地“攻”,也能更安全地“防”。
02
隱私保護
傳統(tǒng)的數(shù)據(jù)保護方法客觀上形成了「數(shù)據(jù)孤島」,影響了如醫(yī)療、金融等領域的協(xié)同作戰(zhàn),也制約 AI 技術(shù)以及行業(yè)發(fā)展。
所以,拓展數(shù)據(jù)價值的隱私計算技術(shù),對實現(xiàn)「數(shù)據(jù)不動價值動」顯得尤為重要。
在AI領域,聯(lián)邦學習作為一種新的機器學習模型和算法,就是為解決數(shù)據(jù)孤島問題而提出的。在保證每個參與方不泄露原始數(shù)據(jù),即數(shù)據(jù)不出域的前提下,用多方的數(shù)據(jù)聯(lián)合建模,實現(xiàn)數(shù)據(jù)可用不可見,進而實現(xiàn)「數(shù)據(jù)不動價值動」。
03
可解釋性
人類對一切未知的東西,始終都會有一種莫名的恐懼。
如果人工智能的行為無法進行解釋,只有結(jié)果沒有過程,那么它就像是一個盲盒,你永遠不知道放出來的是“阿拉丁”,還是“潘多拉”。
AI 模型是許多重要決策的重要依據(jù),在很多應用里它的思考過程不能是黑盒。
人類希望知道模型背后的邏輯、收獲新的知識,并在它出現(xiàn)問題時踩好剎車,確保 AI 思考的過程和結(jié)果合規(guī)合法。
這背后需要數(shù)據(jù)驅(qū)動與模型推理能力結(jié)合起來,產(chǎn)生可解釋的結(jié)果。
04
公平性
AI公平性是可信AI的重要組成部分。
只有實現(xiàn)“公平性”,才能真正推動技術(shù)造福于整個社會。
一方面,公平性需要重視弱勢人群、兼顧落后地區(qū)發(fā)展,在重視社會倫理原則下進行 AI 調(diào)優(yōu),通過 AI 技術(shù),讓老年人、殘障人士、欠發(fā)達地區(qū)用戶,享受到數(shù)字經(jīng)濟時代的價值。
另一方面,公平性要思考如何從技術(shù)上思考如何減少算法、數(shù)據(jù)等因素可能帶來的 AI 決策偏見。
魯棒性、隱私保護、可解釋性、公平性。
這是可信AI的四大基本原則。
今天,發(fā)展可信AI,已經(jīng)成為全球共識。
特別是對于領先的科技公司來講,他們是要服務用戶且不能犯錯誤的。
微軟、谷歌、螞蟻、京東、騰訊、曠世等科技企業(yè),都在積極開展可信AI的研究和探索。
其中,螞蟻在可信AI上已有很多技術(shù)優(yōu)勢,自2015年開始投入研究起,已經(jīng)完成了長達7年的可信AI技術(shù)積累之路。
據(jù)2021年權(quán)威專利機構(gòu)IPR daily發(fā)布的《人工智能安全可信關鍵技術(shù)專利報告》顯示,螞蟻集團旗下的支付寶在該領域的專利申請數(shù)和授權(quán)數(shù),均位列全球第一。
7
可信AI的應用探索
基于可信AI的以上特點,應用場景多種多樣。
AI在醫(yī)療、教育、工業(yè)、金融等多個領域的廣泛應用,算法安全性、數(shù)據(jù)濫用、數(shù)據(jù)歧視等問題也層出不窮。當前AI技術(shù)的主要矛盾,已經(jīng)轉(zhuǎn)化為人們對AI日益增長的應用范圍需求和AI不可信不夠穩(wěn)的發(fā)展之間的矛盾。
2018年,IBM開發(fā)了多個AI可信工具,以評估測試人工智能產(chǎn)品在研發(fā)過程中的公平性、魯棒性、可解釋性、可問責性、價值一致性。之后IBM將這些工具捐獻給Linux Foundation并成為了開源項目,幫助開發(fā)人員和數(shù)據(jù)科學家構(gòu)建可信、安全、可解釋的人工智能系統(tǒng)。
作為可信AI領域的先行者之一,螞蟻也做了不少探索。
螞蟻的可信AI技術(shù)應用最好的實踐結(jié)果是,自研了一套智能風控解決方案,定名IMAGE。這套技術(shù)體系實現(xiàn)了用可信AI技術(shù)保障風控業(yè)務安全的問題,且達到了非常好的效果。
它能將支付寶資損率控制在千萬分之0.098,解決了風控場景中的諸多世界難題。
還有一個例子,是支付寶的“叫醒熱線”——從系統(tǒng)識別到用戶遇到詐騙風險,到AI機器人向用戶呼出“叫醒電話”,它能把整個過程控制在0.1秒內(nèi)。
螞蟻集團基于可信AI的IMAGE風控體系
另外在可信AI的公平性方面,螞蟻也有自己的實際應用。
目前業(yè)內(nèi)廣泛使用的“圖形滑塊驗證碼”一直是視障人群接入數(shù)字化服務的巨大障礙。但許多 APP 為了防范機器批量操作,又不得不保留驗證碼服務。
為此,螞蟻開發(fā)了一套“空中手勢”驗證碼方案,可以利用“行為識別”技術(shù)幫助視障群體通過“驗證碼”關卡。
可信AI的應用探索,并不會讓AI技術(shù)失去它的可能性。
它更像是一種倫理規(guī)范的約束條約,讓AI在正確的軌道上前行。
8
18年后,人類真的無人幸免?
讓我們回到一開始的問題。
AI真的會覺醒嗎?
一百年前的人類,很難想象我們?nèi)缃裆畹倪@個高度數(shù)字化世界。
那么,一百年后,人工智能會發(fā)生什么變革,我們真的無法預測。
但AI對人類是福是禍,是一個攸關人類命運的重要課題。
按照現(xiàn)在AI發(fā)展的模式來看,未來的AI可能會分為兩大派:
一派是自我獨立的智能AI,一派是追隨人類的可信AI。
當然,還有人在問,AI真的會存在獨立意志嗎?
這要看從科學上如何去解釋,一個AI系統(tǒng)是可以“坎陷”到具有“自我意識”的狀態(tài),差別只在于“坎陷”的深度和魯棒性,這可以解釋AlphaZero為什么能夠自我“坎陷”到圍棋大師,如果再“坎陷”下去呢?這一派AI,可能會對人類造成我們認定的“威脅”。
另一派AI,即可信AI,它們會在四大基本原則的架構(gòu)中不斷完善自我,幫助人類解決更多實際問題,成為人類可靠的助手,并與人類共存共生。那么,它們會一直幫助和保護人類嗎?
但無論未來如何發(fā)展,不同的技術(shù)方向或許帶來不同的悲劇或者喜劇,但有一點可以確定:
AI技術(shù)在四面突擊,不論是可信AI還是智能AI,最終會落地深入到我們生活的方方面面。它會滲透到世界的每一個角落,在很多方面取代“無用之人”。
不管我們?nèi)绾螕鷳n,AI只會變得越來越強大,而人類的進化又顯得如此龜速,甚至退化墮落。
那么,18年后,有多少人可以幸免?