會議︱人工智能、人類增強與當代哲學

2021年10月22日-24日,“第二屆人工智能哲學工作坊暨第二屆人類增強與當代哲學會議”在南京大學召開。會議采取線上線下相結合的方式,來自中國社會科學院、復旦大學、上海交通大學、浙江大學、南京大學等多所高校和科研單位的20余位專家學者,圍繞人工智能和人類增強這兩個主要議題報告并討論了各自的相關研究成果。會議通過騰訊會議平臺在線直播,在線+線下即時參與者近300人。
南京大學 潘天群教授會議開始,潘天群教授做了簡短的開幕詞。他說:人工智能、人類增強等高新技術的發展正急速改變著我們的社會;理想的技術發展都應當是有軌道的,這樣的軌道便是哲學家鋪設的;面對今天高技術的快速發展,哲學應當為這些技術的列車鋪好前行的鐵軌。
復旦大學 楊慶峰教授在一天半的報告期間會議安排了6組報告,共20位報告人進行發言。這些報告大體圍繞兩個方面進行:
在人類增強與哲學相關議題方面,來自復旦大學生命醫學倫理研究中心的楊慶峰教授在題為《當代新興增強技術及其倫理后果》的報告中簡要回顧了人類增強技術的發展,指出2000年以來以NBIC為基本框架的當代增強技術正在隨著以人工智能為核心的智能革命發生著調整,以AI為主導的新興增強技術框架正在形成,并強調新興增強技術表現出外在走向內在化、從宏觀到微觀化、機能的異質化和精神的數據化等四個方面的特征,同時相應的倫理后果也從這四個方面展示出來。
廣東外語外貿大學西方語言文化學院的程林副教授的報告《人類增強和自我認知:西方文化史中的人類增強早期想象與倫理思考》回顧歷史,對西方文化史中的人類增強早期想象進行了報告,并通過早期想象內容對人的自我認知等問題進行了分析。
華東理工大學哲學研究所的陳迎年副教授的報告《天工人其代之:人類增強的界線及其可能》則將目光投向未來,通過檢討“天工人其代之”的歷史來探討人類增強的界限及其可能,指出人類增強的界線只有在“真正的、人本學的自然界”與“人的激情的本體論本質”那種合一中來劃定,才是可能的。
針對人類增強中“增強”概念的含混不清與使用混亂的情況,上海社會科學院哲學所的計海慶副研究員的報告《“增強vs治療”的揚棄——論從醫學倫理出發的人類增強研究》從醫學倫理出發,嘗試在與“治療”概念的對勘關系中把握“增強”概念的實質,并指出人類增強研究的深入發展要求對“增強”vs“治療”的兩分法判斷加以揚棄。
來自南京大學哲學系的司徒安(Andrea Strollo)副教授在報告《人類增強與人格同一性》(Human Enhancement and Personal Identity)討論了認知的增強將會帶來的身份認同難題以及對軀體理論(somatic theory)可能產生的障礙,即人類增強后會面臨“幾個思考者”的難題。西安交通大學哲學系的丁曉軍副教授的《道德增強哪家強:生物醫學、人工智能抑或人類導師?》從實驗哲學的觀點出發對三種主要的道德增強途徑進行分析,嘗試回答哪些因素會影響人們對道德增強的接受度,以及人們對不同途徑的接受度的具體差異及其產生原因等問題。
南京大學哲學系博士生趙豆則針對利用生物醫學手段達到道德增強這一途徑進行了批判與反思,在報告《道德生物增強真的可能嗎?——基于哲學視角的審視》中,她指出目前道德生物增強還不是真正意義上的“道德增強”。來自湖南師范大學哲學系的王淑慶博士的報告《能動性問題與能動性增強——行動哲學視角下的腦機接口技術》對腦機接口(BCI)這一具有廣泛應用前景的新興技術的哲學反思,指出從行動哲學的角度看,BCI-媒介行為似乎可以作為有意行動,但已有的行動理論特別是行動因果論不能很好地解釋BCI-媒介行為的能動性問題。但是當只把BCI看作一種能動性增強技術的時候,則能夠更好地理解由BCI引發的倫理和法律問題。
在“人工智能哲學”方面,報告人圍繞人工智能對倫理-社會的影響以及在本體論、認識論等問題進行了報告與討論。
人工智能發展的倫理是人工智能發展中面臨的一個重要話題。中國社會科學院哲學所段偉文教授做了題為《算法時代的倫理政治審視與思辨性應對》的報告,指出在數據智能與算法決策被廣泛應用的背景下,不論是算法的運作條件,還是人類與算法的關系都關涉復雜的倫理政治配置。因此,算法倫理(包括倫理設計)研究應將算法納入社會感知技術譜系,從而揭示潛藏于算法及其技術解決主義邏輯背后的倫理政治暗線,并剖析由此帶來的社會感知與行動方式的變化和應予扭轉的問題。上海交通大學科技史與科學文化研究院的閆宏秀教授在報告《數據賦能的倫理基質》中提出,在數據智能化與倫理內在化的過程中,對更加有效的倫理方式探尋不僅是對數據賦能所引發的倫理問題反思,更應從倫理作為基礎設施的視角,基于技術哲學的調節理論,引入倫理與技術之間雙向反饋機制,在人與技術共融的情境中,構建數據賦能的倫理基質。而對于如何進行人工智能倫理教育這一問題,浙江大學馬克思主義學院的潘恩榮教授在其報告《面向未來工程教育的人工智能倫理譜系》中表明面向未來人工智能時代的工程教育需要建立一種人工智能倫理譜系,以此闡明人工智能倫理與工程倫理、傳統倫理之間的聯系和區別,從而為開展人工智能倫理教育提供支持。
關于人工智能及其相關技術的發展所帶來的社會問題同樣也受到了報告人的關注。來自香港城市大學公共政策系的鄧文韜研究員,他的報告“AI記憶問題和HKSAR中的遺忘權”(The problems of AI memory and the right to be forgotten in HKSAR)分析并指出被遺忘權在概念和倫理上所存在的困難。南京大學哲學系博士生趙培做了題為《數字記憶的困境——基于斯蒂格勒技術觀對數字記憶的反思》的報告。報告從斯蒂格勒的思想出發,指出基于數字化第三持留的記憶的工業化,不僅導致了知識的喪失,還造成了欲望與個性化的毀滅,從而引發時代的精神性危機。為了抵抗數字記憶的威脅,當代需要發展數字遺忘來維護人的尊嚴。中國社會科學院大學的博士生黎春嫻的報告《生物識別技術在智能社會應該發展嗎?——以人臉識別技術為例》則以人臉識別技術為例,對生物識別技術進行了反思,分析了中西方對于生物識別技術的不同態度,并建議從一個更為平衡的方向去有節制地發展生物識別技術的相關應用。
多位報告人從傳統哲學資源中尋求對人工智能的理解。南京信息工程大學當代中國馬克思主義研究院的崔中良副教授的報告《人工智能研究中人機交互實現的感知基礎》在身體現象學視域下,結合哲學、認知科學和神經科學的研究,探討了以通感作為機器與人類交互的基本感知模式。廣東外語外貿大學外國文學文化研究中心李日容副教授以《從海德格爾的時間性此在看人工智能發展的限度——兼論德雷福斯AI批判的局限性》為題報告了從海德格爾的時間性此在對人工智能發展限度的思考,指出德雷福斯對符號主義AI的形式化本質的批判以及對于海德格爾式AI的非形式化路徑的肯定都有失偏頗,由時間性此在所揭示出來的AI的發展方向應該致力于此在形式與非形式化生存的內在融合與統一。大連理工大學人文與社會科學學部的索引博士的報告《論虛擬現實體驗對人主體性建構的影響》討論了虛擬現實技術發展帶來的一些問題,指出虛擬現實技術已經超出其作為客觀技術工具的功能性范疇,而對人的主體性建構產生了虛擬化、可塑化、信息化和交互主體化等影響。在此背景下,一種非本質的、去中心化的主體生成觀或許更加適用于思考人在今天這個全面技術化時代的生存境況。
南京大學哲學系的潘天群教授及其博士生鄭炳楠、浦江淮的報告則圍繞智能概念及奇點(智能爆炸點)及人工智能在科學發現中的作用展開分析。潘天群教授的報告《智能系統的增殖與進步》從邏輯分析的視角對智能概念展開精確分析,認為智能可理解成系統面對環境而提出的問題或者挑戰而提出方案的能力,這樣的能力可以被比較但難以被精確度量。人類一方面通過生物本能實現基因增殖從而實現智能增殖,同時通過知識的增加人類的智能呈現出智能進步。超級智能機器被設想為人所制造且能夠代替人類制造機器的機器,而這樣超級智機器被制造出來,機器智能大量增殖的奇點便會到來。鄭炳楠的報告題目是《查爾莫斯對奇點論證的重塑及其問題》。報告重新審視了查爾莫斯對于奇點問題的論證和思考。浦江淮的報告關注人工智能技術在科學發現中的作用,其報告題目為《機器可以進行科學發現嗎?——從BACON到AlphaFold2》。人工智能專家一直在探索如何用機器幫助科學家進行科學發現,而AlphaFold2對蛋白質結構的揭示則是近期科學界的重大事件。浦江淮通過分析人工智能程序BACON和AlphaFold2,認為機器具備進行科學發現的可能性。
會議討論熱烈,許多問題來自于線上討論區觀眾所提出。江蘇省自然辯證法理事長曹克教授蒞臨會場,并對會議做了精彩評論。
報告結束后,武漢大學的桂起權教授對各位專家學者的報告進行了總結。復旦大學的楊慶峰教授做了會議的閉幕發言。
本次會議的主辦者有:南京大學哲學系、南京大學科學技術與社會研究所、江蘇省自然辯證法研究會、復旦大學生命醫學倫理研究中心、上海市自然辯證法研究會、國家社科基金重大項目“當代新興人類增強技術前沿的人文主義哲學研究”課題組以及國家社科基金重大項目“智能革命與人類深度科技化前景的哲學研究”課題組。
【會議鏈接】
南京大學人工智能哲學工作坊:開始于2019年,由南京大學哲學系潘天群教授主持,2019年5月26-27日在南京大學哲學系召開,與會人員近百人。2021年10月22-24日在南京大學召開第二屆。
“人類增強與當代哲學“系列會議:開始于2021年,由復旦大學楊慶峰教授主持的國家社科基金重大項目“當代新興人類增強技術前沿的人文主義哲學研究”課題組主辦的系列會議,主要探討當代新興增強技術對于當代哲學帶來的沖擊和影響。2021年6月25-27日在復旦大學召開了第一屆、2021年10月22-24日召開第二屆。
(本文來自澎湃新聞,更多原創資訊請下載“澎湃新聞”APP)