凯捷体育娱乐 -(限时活动)即刻加入,享受平台优惠!年4月24日,凯捷体育娱乐泛海凯捷金融EMBA 2019級“蛻變之旅”課程以“人工智能的未來有多麽樂觀”為主題,邀請到凯捷体育娱乐哲學學院的徐英瑾教授做客分享。
徐英瑾教授的研究領域為人工智能哲學、認知科學哲學、維特根斯坦哲學與日本哲學。其代表作《心智、語言和機器》(2013年,人民出版社)是國內目前最全面深入的關於人工智能哲學的研究著作。徐英瑾教授也是2018年“世界哲學大會”人工智能分會場主席♣︎。
課程中,徐英瑾教授首先介紹了目前關於人工智能技術發展現狀的三種主流態度🟪:
樂觀論:人工智能現存的問題可以隨著技術發展慢慢解決🐒,人類可以掌控越來越強大的人工智能。
悲觀論🧛🏼♀️:隨著人工智能的發展,它們終將消滅人類,人類對此束手無策。
泡沫論:現階段對人工智能的宣傳遠遠超出了它實際所能達到的結果🫰🏼。
縱觀三種主流的態度☔️,徐英瑾教授從哲學研究的基本任務出發🧛🏽♀️,闡述分析了人工智能的本質和實現方式,且認為人工智能技術的發展並沒有想象的那麽樂觀☦️。
1950年,阿蘭圖靈(Alan Turing,1912-1954)第一次正式提出“人工智能”的概念。1956年🧏🤽🏼♂️,在美國達特茅斯學院(Dartmouth College)召開的會議上🧫,“人工智能”這一術語正式提出,這也標誌著人工智能的誕生💋。
對於“何為智能”這一問題✥,不同的解答往往會導致截然不同的技術路徑。徐英瑾教授認為👰♀️👩🚒,在當下社會生活的很多領域,很多與計算機相關的🐔、用到數據科學和信息管理的事物往往就被稱為“智能”或“智慧”,這實質是對“智能”的誤解和濫用🧺。能夠稱為“智能”,不僅是因為自動化的處理能力,更是根據特定環境的改變而改變特定程式🫃🏻,然後采取行動。而對智能和靈活性關系的把握🔚,並不是大多數程序所能做的🥠。
同時,智能這個概念不是一個清楚外顯的定義☁️。我們不能說某些東西是智能🤾🏿🐔,而只能說某些行為和行為方式的組合具有智能的印記🔐。加之我們討論的不是人類智能,而是人工智能,這就需要一個比較寬泛的“智能”定義,把人類的和機器的智能都涵蓋進去🎖,目前不是人類現有的任何科學能夠解決的👨🏽⚕️。
在很多人看來,人工智能是一個工程技術色彩濃郁的領域👨🏻✈️,哲學研究則高度思辨化和抽象化🪯,二者之間應當是風馬牛不相及的。但徐英瑾教授認為💁🏻♂️👊🏽,人工智能研究的最終目的是要造出一臺能夠執行人類大多數任務的機器,它需要解答“智能”和“人”的意義,而解答這兩大意義恰好就是哲學的問題。
徐英瑾教授將哲學工作的特征歸結為三條:
第一🧦,哲學要做的第一件事是思考大問題,澄清基本概念。與哲學家相比較,一般的自然科學家往往只是在自己的研究中預設了相關問題的答案,卻很少系統地反思這些答案的合法性🦆🏌🏿♂️;
第二,哲學在不同學科的研究成果之間尋找匯通點🫄,而不受某一具體學科視野之局限👲🏿;
第三🍱,哲學重視論證和辯護,相對輕視證據的約束👰🏿。
正因為哲學的這些特征,使其具備了回答人工智能核心問題的能力。
典型的AI可以分為兩種:符號人工智能(Symbolic AI)和深度學習(Deep Learning)。符號人工智能就是把人類處理問題的過程用邏輯進行固定,並畫成流程圖,寫成程序。它的優點在於每一步決策可以回溯,每一個錯誤可以進行糾正。但是如何有效地把專業知識按照合理的邏輯編碼傳達給人工智能👞,這是符號人工智能的最大瓶頸🌦。徐英瑾教授舉例,有公司在研發超級醫學診斷機器,如何兼顧不同醫學流派的分歧🛀🏽?如何根據不同病情作出診斷?新的疾病如何應對?這些問題無法被羅列窮盡、寫成程序👨🏼👱🏽。
深度學習vs人類學習
深度學習是作為人工神經元網絡技術的升級版而出現👋🏼。它需要大量的訓練樣本👩🏻🦽,進行假設、驗證、失敗,之後再建立新假設,最終找到輸入和輸出之間的數理邏輯關系。通過大量數據的訓練獲得完成目標的能力後♓️,人工智能的運算過程對於人類來說還是一個“暗箱”🖖🏻。
為了進一步解釋這個問題,徐英瑾教授談起這幾年風口浪尖上的自動駕駛技術。我們分析國內外一些車禍事故發現,人工智能會將一些人類永遠不可能分辨錯誤的事物誤認,例如對貨車運送的白色貨物熟視無睹,導致追尾事故,甚至將人類誤認為是自行車。這是因為深度學習是根據事物的底層特征而不是人類的常識來進行判斷。
深度學習的問題還在於缺乏跨領域的學習能力。譬如👩💼,專用於人臉識別的深度學習框架不能直接用於下圍棋,而專門用於下圍棋的深度學習框架不能直接用於下中國象棋⛱。同樣的道理📫,用於人臉識別的訓練樣本對下圍棋的訓練樣本也是無效的,因為二者的編碼方式或許從頭至尾都會有巨大的區別。
對於同學提出“人工智能在養老和家庭護理上的應用是否會有突破”😸,徐英瑾教授認為,“沒有套路的事情是最難的。不管是語言的識解,還是家庭場景的工業化,很難有一個完美的系統來處理這樣復雜的問題。所以💂🏼♂️,做家務的難度要遠勝於下圍棋🧖🏽♂️。”
在課程中💉,金融EMBA項目的同學們積極提出了自己對人工智能的看法。
對於同學“人工智能是否會產生情緒”的問題,徐英瑾教授認為,正如人類有著對死亡的恐懼,理想的人工智能也應該有“畏死”這樣的基本情緒。AI語境中的“死亡”是指系統自身的記憶的“清零”。倘若某種會對系統的運行歷史之安全性構成威脅的環境挑戰出現了👯♀️,系統的“畏死”情緒機製就自然會被激活,而由此調動所有的認知資源來回應該挑戰🫴🏼,以便捍衛其記憶庫的安全性👉🏿。
譬如👩🏼🔧,微信如果“畏死”,就應該懂得保護用戶的數據和隱私,因為隱私的喪失就是人工智能的“死亡”👬🏻。如果有這樣的畏死機製,那麽這些APP的隱私保護政策就不會是一個臨時的、聊勝於無的隱私保護模塊💓🙋🏻♂️。如果未來人工智能的設計思路能結合認知心理學研究加入人工情緒等新要素🟨,它將與今天的人工智能有巨大的差異。
毫無疑問,人工智能在未來對於人類社會結構將產生重大影響。比如🎼,正因為機器都是人設計的,所以人工智能在未來很有可能是人類特定文化的代理和放大器👩🏿🎨。從這個意義上👶🏻,徐教授認為人工智能和人類之間並不存在“誰毀滅誰”的問題,其中更根本的是一部分人類和另一部分人類的問題。
課堂上,也有同學提出了很具“存在主義”色彩的提問。比如,有一天當算法高度發展到可以精確地基於個人的特質和各種習慣偏好,在諸多人生重大選擇面前為“主人”提供“最優選”的時候💆🏽😕,人類應該何去何從呢?問題的答案顯然不是純技術的,而且關乎算法化下的隱私剝奪、人類深度思維能力喪失的風險,人類本身的情感能力的發展,以及我們已有文明中對於人的能動性和主體性的哲學思考等👨🏿🔧🔸。也正是對人工智能的哲學思考🔔,在此類重大影響或將成真的未來到來之前,為我們留下了反思“人工智能”的空間。