欲望爱人,就爱干,史密斯夫妇h版,蜜中蜜3在线观看视频

檢測到您當前使用瀏覽器版本過于老舊,會導致無法正常瀏覽網站;請您使用電腦里的其他瀏覽器如:360、QQ、搜狗瀏覽器的極速模式瀏覽,或者使用谷歌、火狐等瀏覽器。

下載Firefox

新聞通知

首頁 / 新聞通知 / 新聞資訊

“機器人倫理1.0”學術研討會暨哲學與認知科學跨學科交叉平臺年度規劃啟動儀式

日期: 2021-06-11

640.jpeg

2021年5月28日,由中國人民大學哲學與認知科學跨學科交叉平臺主辦的“機器人倫理1.0”學術研討會暨平臺年度規劃啟動儀式在京召開。中國人民大學發展規劃處副處長陳敏鵬教授、哲學院副院長張霄教授、平臺首席專家和研究員,以及人工智能界、計算機科學界、認知科學界、哲學界和藝術界的近百名專家學者參加了本次會議。本次會議聚焦于機器人的倫理問題,采取特邀報告和圓桌對話相結合的形式。而人工智能的哲學、邏輯、倫理與政治問題研究也是平臺總體研究規劃實施的一個部分。

640-1.jpeg

會議第一時段是研討會開幕式暨平臺2021年度規劃啟動儀式,由心理學系系主任、平臺首席專家胡平主持。發展規劃處副處長陳敏鵬教授、哲學院副院長張霄教授分別致辭,平臺首席專家劉曉力、朱銳和胡平三位教授分別就平臺工作和新一輪啟動計劃進行匯報。

640-2.jpeg

640-3.jpeg





發展規劃處副處長陳敏鵬教授致辭

首先,陳敏鵬副處長致辭,肯定了自2018年6月至今,人民大學哲學與認知科學跨學科交叉平臺作為國家投入、學校重點建設的一個非常重要的雙一流跨學科重大創新平臺,三年來在人才培養、科學研究和體制機制等各個方面所取得的豐富成果,甚至在文理交叉平臺運行機制上都有建設性的啟發意義。在此基礎上陳處長進一步對平臺未來的發展提出新的期望,希望平臺能夠深化創新并進一步完善。她表示,規劃處未來也將繼續全力支持平臺建設,打造一批成熟的雙一流跨學科重大創新平臺,建立中國人民大學完整的平臺體系。

640-4.jpeg

哲學院副院長張霄教授致辭

張霄副院長在致辭中首先指出,在人民大學眾多交叉學科研究平臺之中,哲學與認知科學跨學科交叉平臺是走在前列、特別重視人文與理工學科交叉合作的一個杰出典型,并表示哲學院將繼續大力支持平臺建設。隨后他從倫理學研究的專業視角,強調了在機器人倫理學研究中關于機器人主體、倫理嵌入、機器人算法與相關性等前沿話題的重要價值。

640-5.jpeg

平臺首席專家劉曉力教授匯報

劉曉力教授接下來重點匯報了平臺的主要研究方向、研究目標,以及2021年的年度規劃。她首先回顧了哲學院聯合心理學系正式成立交叉平臺,三年來在學校和哲學院、心理學系的大力支持下,取得了累累碩果,無論在研究產出還是貢獻學術、社會服務方面,都有很好的表現,在平臺評估中也獲得專家高度評價。在2021年,平臺在原有基礎上還計劃打造一個以交叉研究主題為核心的知識社區圖譜數據庫:從哲學、心理、腦神經科學、人工智能、認知語言學和藝術的交叉視野,對知覺、表征、認知局限、理解、洞見、主體性、無知與偏見、意識、意向性、預測心智等涉身性認知研究主題建立路徑指南性平臺。2021年將繼續主編《認知科學》雜志、出版譯著和專著系列;繼續舉辦已經有非常大影響力的“明德講壇”系列及線上線下學術會議。

640-6.jpeg640-6.jpeg




640-7.jpeg

平臺首席專家朱銳教授匯報

朱銳教授從具體的交叉合作與國際學術交流層面作了細致的部署和展望。特別對于學術交流的主題設置、科研活動的具體安排、理論成果的推廣與宣傳等方面都提出了實際有效、富有可行性的建議。鼓勵平臺研究員與合作院校和機構共同籌辦4-6個不同學科和行業的圓桌會議等,真正實現充實有效、高品質的跨學科、跨行業、多視角的學術交流。

640-8.jpeg

平臺首席專家胡平教授匯報

胡平教授著重強調了平臺在哲學與社會科學交叉研究中的社會現實意義和當前時代中的重要實踐面向。胡平教授指出,在當前的時代,人工智能和機器人等技術飛速發展。在這樣的時代之中,我們每個人都面對海量數據。而機器根據大數據所計算出來的某種“人格”是否等同于一個真實的人格和自己?關于人與動物的區分、基于人格的預測、意識和心靈的本質等,也是心理學和認知科學研究面臨的非常深刻的話題,而這些問題隨著技術的不斷發展都迫切呼喚跨學科的交流與對話。文理學科之間深刻的交流和交融,才能對很多現實社會面臨到的重要問題提供更有效的支持和幫助。

640-9.jpeg


啟動儀式最后一項是哲學與認知科學跨學科交叉平臺2021年度研究員聘任儀式。隨后,會議進入第二階段——“機器人倫理1.0”學術研討會特邀報告環節。第一場特邀報告由劉曉力教授主持。


640-10.jpeg

賈福新先生介紹了《機器人倫理學》一書的出版情況。他認為當前隨著智能機器人技術的不斷發展,社會各界注定要直面機器人技術所帶來的倫理問題,而這正是人機共生時代的每個人都需要從《機器人倫理學》這樣的書中所追問和探索的重要話題。因而,《機器人倫理學》一書具有極高的社會價值。

640-11.jpeg

640-13.jpeg

薛少華:生態式進路的機器人倫理學

接下來,《機器人倫理學》一書的中譯者、平臺研究員、北京理工大學人文學院科學技術與社會研究所副所長薛少華做了“生態式進路的機器人倫理學”專題報告。他首先簡要回顧了翻譯工作的艱辛歷程,以及在北京理工大學連續4年開設“人工智能倫理”課程的教學經歷。他在報告中指出,機器人倫理學是涉獵領域非常廣泛的學問,涉及哲學、人工智能、軍事、法律、醫學、人造人、社交、陪護、依戀、宗教、編程等各種各樣的、幾乎涵蓋了人類方方面面的眾多領域。而這也恰恰反映了在我們所身處的當今時代,機器人已經深入到了各個領域。關于機器人倫理學研究的前沿進展,薛少華著重分析了機器人倫理的生態式研究路徑。他首先從“生命之樹”提出以下問題:與人類自組織的生命相比,機器人生命是否具有所謂生命之樹上的生態學位置?機器人生命是否可以看做生命之樹的一種新的演化模式?結合生態心理學家和哲學家吉布森的生態學研究理論、“吉普森環境”、生態機器人,以及機器人在軍事、社交陪護等領域的應用,薛少華指出了機器人倫理學討論在當下社會的重要現實價值,這其中涉及到人的強烈情感投射。在人口老齡化的未來,社交陪護機器人的人格化問題以及機器人和人的交互也影響著軍事、宗教等廣泛領域。薛少華指出,機器人作為一種高密度與人類進行交互的種群,應當具有某種意義上的生態位。薛少華提出,機器人生態研究路徑主要有三種,分別是機器人學的生態路徑,機器人交互設計的生態路徑和機器人倫理的生態路徑。

640-14.jpeg

陳小平:什么是機器人倫理的重大挑戰?

中國人工智能學會人工智能倫理道德專業委員會主任、中國科學技術大學機器人實驗室主任陳小平教授帶來了題為“什么是機器人倫理的重大挑戰?”的特邀報告。陳小平教授提出,在機器人倫理這樣一個大的課題中,主要存在以下三個方面的重大挑戰。首先,第一個重大挑戰在于如何理解人工智能和機器倫理的終極使命。他認為這種終極使命應在于增進人類的福祉,無論是“負責任的AI”,還是“可信賴的AI”,都是在對人類福祉負責的角度上談的。第二個重大挑戰在于AI發展中所遇到的問題恰恰并非因為技術發展太快所導致,而是源于全球AI發展不夠快,特別是在產業落地上做得不夠好。他認為現有人工智能的技術條件,也就是封閉性準則,在當下未得到充分關注。人工智能技術以及相關倫理問題,都應該被放置在其真實的情況和技術條件下去研究。隨后,陳小平提到機器人倫理問題的第三個重大挑戰在于長期效應和界外效應。他以“機器換人”現象為例,分析了產業需求和機器人應用到產業所引發的一些可能的長期效應以及社會層面的考慮,而這些都是技術帶來的長期效應和界外效應的體現。最后一個重大挑戰在于情感上的人機交互。陳小平認為情感人-機器人交互的社會需求非常大,涉及空巢群體、新生代文化群體、少兒教育娛樂、心理干預等多方面。而這項技術帶來的長期后果可能是出現“非人非物、亦人亦物”的第三類存在,也將對人機關系本身造成長遠影響。在情感人機交互的這一重大挑戰面前,應該堅持公義原則,將市場要素和非市場要素的公義性組合,兼顧人性原則與商業利益。

640-15.jpeg

曾毅:人工智能的近期與遠期倫理挑戰

中國科學院自動化研究所研究員、類腦智能研究中心副主任曾毅教授做了題為“人工智能的近期與遠期倫理挑戰”的特邀報告。曾毅主要圍繞人工智能技術的倫理風險問題展開論述。他首先提醒技術學者注意一個重要的問題,即當下人工智能技術的發展過程中,存在一些用技術的手段去回避可能存在的倫理風險的問題。例如,歐盟的《通用數據保護條例》(簡稱GDPR)實際上并不具備真正保護數據隱私的效果;學術界提出的“聯邦學習”作為一種保護數據隱私的策略似乎頗有成效,但是它依然沒有考慮到知情同意的問題;而“差分隱私”作為經常被提及的一種保護用戶數據隱私的方案,在產業中也不具備實際上的可行性。曾毅談到的第二個方面的問題在于人工智能的未來發展路徑與相關的倫理考量。他總結了三種對于人工智能發展的模式:西方的人工智能發展將之作為一種工具;以日本為較典型代表的東方很多國家將人工智能發展為人類的伴侶或者社會準成員;構成三角形的最后一個角是將人工智能構造為人類的敵人。實際上全世界目前做人工智能的主流仍然是只有一條工具路徑。而只有從構造自我、構造生命的本源的最基本要素開始,考慮到人類的情感與認知共情、以及人的脆弱性,在這樣的基礎上去發展,才可能使人工智能去學習人類的道德倫理規范。

第二場特邀報告由中國自然辯證法研究會副理事長、北京師范大學劉孝廷教授主持。

640-16.jpeg

胡郁:人工智能和機器人與人類共存的社會問題

科大訊飛創始人高級副總裁、訊飛研究院院長胡郁先生進行了題為“人工智能和機器人與人類共存的社會問題”的演講。胡郁首先談到了價值觀與社會關懷對于技術研究和產業從業人員的重要性。他簡單回顧了一下機器人自1920年以來經歷的發展歷史,并著重闡釋了人工智能與機器人的具體實現、特點,以及他們與人類智能的差異。關于人工智能和機器人之間的關系,他認為雖然機器人在物理世界,而人工智能在虛擬世界,但在技術上本質上也是一樣的,具有共性的倫理問題。胡郁認為,非常值得探討的一個話題在于我們現在研究的人工智能和真實的人類有什么區別。他以科大訊飛的語音識別轉換系統為例,對比了該系統的工作和一個真實人類速錄員之間的差別。他還總結了實現人工智能的三條路徑:全腦仿真、深度神經網絡和智能動力學。他提到,工業界的主要熱門方向在于智能新能源車以及智能家庭服務機器人,而這兩類機器人可能帶來的倫理問題主要體現在機器人是否奪取人類工作,以及意識會不會從人工智能中產生。關于這兩個問題,胡郁認為,機器人代替人類工作需要一個時間,而人類有充足時間來進行安排和替換,并且人類和機器人實際上是互相合作的關系,機器人的發展也產生出很多新的工作崗位,并且隨著機器人的發展人類付出的工作量也會減少。而關于意識從人工智能中產生,從現在的發展路徑來看,胡郁傾向于持悲觀態度。

640-17.jpeg

段偉文:人機共生的倫理智慧

中國社會科學院哲學研究所段偉文研究員的報告題目為“人機共生的倫理智慧”。段偉文先從圖靈測試談起,他認為,圖靈測試的要義是使人無法分辨機器和人,而順著圖靈測試的思路反觀這個問題,可以得到在當下人機共生時代的一種新思路,那就是人如何為機器提供一種“可供性”。段偉文認為這其實是我們重新理解人與機器人關系的一個契機。以當前火熱的AI教育中課堂教學應用人臉識別技術為例,這實際上形成的是一種人對于機器的自然反應和條件反射,并且人不得不為機器的識別主動提供可供性。段偉文研究員認為,人機共生時代的一個特點在于人類智能與機器人智能之間的轉換,這個過程實際上是不斷地把人的智能轉換為機器的智能。由于人類在現實中很少按照規范去行動,因為規范實際上是用來懲罰的一個邊界和約束。對于機器人倫理的理解也應該采取一種更主動的姿態。人類可以在生活中主動建立一種新的社會契約去應對人機共生的現狀,可以隨時隨地將某種檢測開關斷掉,為爭取自己隨意運用理性和情感的空間動用一些倫理智慧。

640-18.jpeg

邱仁宗:機器人何以為人?

中國社科院哲學研究所研究員、生命倫理學前輩邱仁宗先生帶來了題為“機器人何以為人?”的報告。邱仁宗首先從概念上分析了“機器人”這一說法,并指出無論是目前的機器人,還是在可預見的未來,所謂的機器人都不能成為人,它只是可編程的機器。如果機器人的動作不是有意向、有目的、有理由的行動,它就無法對自己的行動負責。由此,機器人不能成為行動者,更不是道德行動者。道德行動者是一個有能力來辨別是非并對他的行動及其后果負責的人,負有不對他人造成得不到辯護的傷害的道德責任。另外,我們可以從道德的生物學基礎來考量機器人何以為人的問題。人和非人哺乳動物擁有內在的關心自己,并且推己及人地關心他人的意識并從中發展出道德的基礎。與之相對照,機器人并不關切它們自己的保護或避免痛苦,因此機器人無法真正關切給人造成的損傷或痛苦。他認為,對于機器人倫理的討論必須確立這樣一條原則:是人,而非機器人是負有責任的行動者。由人來承擔責任可以看作是一項道德至上律令。最后,邱仁宗對于未來機器人是否有可能成為人這一話題闡述了自己的觀點:如果在未來機器人具備了成為道德行動者的條件,那么行動者的概念將分為兩類,即自然的行動者和人工的行動者。他認為,在設計“人工道德行動者”(artificial moral agent, AMA)系統時需要強調自主性和道德事實敏感性這兩個維度。而這些工作無論對于機器人學科技人員,還是對于哲學研究者來說都是艱難的挑戰,在當下可以得出的結論就是,機器人難以為人。

下午首先開始的是第三場特邀報告,由華東師范大學哲學系副系主任郁鋒主持。

640-18.jpeg1623411479698050.jpeg

蔡恒進:超級智能的可能形態

武漢大學計算機學院蔡恒進教授做了題為“超級智能的可能形態”的報告。他首先談及了中文屋問題中的意識問題,他認為中文屋是很多人意識的延申與凝聚,例如其中的各種詞典編撰者。他因此認為計算機肯定是有意識的,只不過是用計算的方式展現出來。但這種計算目前和物理世界的規律一樣是基于圖靈機的運算。他認為圖靈機的計算是一旦出錯就會停機,因此基于圖靈機的人工智能都是弱智能。不過他覺得現實的計算機超越了圖靈機,像AlphaGo這樣的人工智能就是超級智能。因此他認為事實上人工智能就擁有了意識和意向性等哲學家認為只屬于人類的事物。他對此的論證在于,由于人類是不可定義的,所以人工智能和人的邊界是混淆的。界限已經消失,哲學家對倫理的談論都是意義有限的。接下來他展望了未來的超級人工智能的形態,他認為計算機的算力發展將很快趕超人類大腦神經元的數量,而這需要我們更加關注區塊鏈。區塊鏈在他看來是人類和機器的互相參與的領域,人類可以作為節點而發揮作用。而超級人工智能盡管能力強大,但也有著兩面性,因此需要在區塊鏈中受到人類的約束。

640-20.jpeg

張子夏:我們有好的理由制造人工道德主體嗎?

南京師范大學公共管理學院張子夏副教授就“我們有好的理由制造人工道德主體嗎?”做了報告。他首先指出當前AI倫理研究現況缺乏對行動哲學中有關道德責任、能動性等傳統議題的關注,往往過于輕巧地給出觀點而缺少論證。接著他回顧了機器人倫理學家就是否有好的理由開始制造一個人工道德主體的相關爭論。在支持者提供的理由中,最重要的是他們認為AMA能保證安全性。而現有的一些反駁旨在說明這些支持理由都可以通過別的途徑實現,而無需研究人工道德主體。但張子夏認為,這一訴諸替代性的反駁不夠強力,他的工作論證在現有條件下根本無法制造合格的AMA。AMA在道德兩難困境與純粹傷害情境中都無法有足夠好的表現。純粹傷害情境指機器人的既定任務可能對突發狀況中的人類造成傷害,此時一個AMA無疑應當遵循道德做出與人類一樣的正確行為。然而張子夏指出AMA至少在可設想的未來是無法做出正確行為的。因為首先做出一個道德行為需要道德推理,而道德推理需要理解道德規范和相關的非道德事實。即便機器人被植入了相應的道德規范,它們也仍然無法在實際情境中識別相應的非道德事實。隨后他基于現實情境的復雜性呈現了機器人在識別表征這些事實從而完成道德推理上的困境。如此一來,現有機器人的能力就無法支持AMA的開發。

640-21.jpeg

第一場圓桌對話:機器與主體

下午特邀報告結束后,接著進行的是第一場圓桌對話。對話的主題是“機器與主體”,由山西大學哲學社會學學院梅劍華教授主持。

朱銳教授首先就“機器,我與主體”進行了發言。朱銳的發言圍繞“我思”的退場展開。他認為感知主體應該取代思維主體成為機器主體的中心議題。機器倫理的真正挑戰不在于意識、思維,而是基本的知覺。而且他進一步指出當代知覺哲學研究忽視了科學研究的重要性。這一轉向要繞開意識為主導的概念框架,而圍繞感知,尤其是達馬西奧的情感感知展開。他隨后以基本的視知覺中眼動過程尋找有用信息的例子展開,強調了在不自覺狀態下,感知具有的找尋關鍵信息與注意力轉移的兩大特征。隨后他分析了主體性意識和內容性意識各自的框架,強調了這兩類意識之間的張力以及分析哲學傳統對這一張力的忽視。而近來的神經科學中出現了全局工作空間理論和整合信息理論這些推進了意識研究的工作。最后,他回顧并強調了一種謙卑機器與感知之間的聯系對于當前AI研究的重要性。



山東大學哲學系主任吳童立副教授就“人工智能的主體資格”進行了發言。吳童立提出了一個另類的倫理問題,如果AI是主體,那么我們制造AI是否是道德的?他首先討論了AI的主體資格問題。主體概念長期以人類為模板,而對于主體的要求在吳童立看來至少有兩點是不必要的。其一是主觀的現象性,其二是塞爾式的原初意向性。在拋棄這兩點后,一個能夠感知外部狀況從而調整內部狀態且具有身體的機器就可以算作主體。吳童立隨后指出,在去除那兩個嚴苛的內在要求后,AI是有可能被視為主體的。然而這種主體缺乏終極自由,無法選擇自己的生存目的。這也因此使得人類在生產這種缺乏自由的主體的時面臨了倫理問題。

服務器藝術基金會藝術總監顧振清先生做了“向虛而生,人工智能與當代藝術”的發言。他首先談到了當代藝術中的機器人展覽,并試圖說明在藝術創作視角來看,似乎一種偽善、不道德的機器人才是藝術家期望見到的。接著他回顧了人類文明史在公園5世紀前這一軸心時代的道德觀念,以此說明道德觀念的相對性。接下來他回到一個不道德的撒謊機器人的理念構想上,他進而引用哥德爾不完備定理和撒謊者說明這一設想的困難。接下來他展開了人工智能時代向虛而生這一話題,通過藝術品上傳保護的例子試圖說明人類文明會在人工智能時代逐步邁向虛擬化和數字化,相應的意識上傳和數字永生等問題將值得我們慎重考慮。

獨立批評人袁園先生也從當代藝術的角度進行了發言,她的發言包括三個部分的主題。分別是機器和人的概念、主體、機器人與藝術的關系。她首先指出當今時代機器和人的二元區分已然崩潰。人的概念都應該讓位于智人,因為智人和機器人在同一個主體的光譜之上,處于一種混沌互滲的狀態。隨后他以康德對主體的四個發問為基礎,試圖將“人是什么”這一問題置于理解主體的首要位置,并強調智人的經驗結構將難以想象在未來的主體境況。她最后談到自60年代以來藝術家基于人工智能的創作。并延伸出三個問題,在她看來,不論是機器作為藝術還是藝術作為機器都是現實可行的。只有機器人作為藝術家的身份還缺乏合法性共識。

在本場的對話環節,劉曉力就人工道德主體的實在地位問題進行了發問。她認為《機器人倫理學》主要從人類主體角度去擬定人工道德主體的相關能力,如果在這個前提下,現在說機器已經是一個道德主體就不太現實?;谥熹J提及的謙卑機器,她進而提問,從達馬西奧的感知主體出發,感知與主體性意義的謙卑之間的轉換是如何實現的。朱銳就此回應,他指出我們應當去除這種人類中心的視角,并將那種笛卡爾式的自上而下的模式轉換為在生活世界中的落地。就謙卑的實現問題,他認為一個簡單的理解是將謙卑機器視為“有所不為”。換言之,機器能夠做到但卻不做,這便是一種謙卑。而這種謙卑實際上是通過感知世界中的對象和文化的多樣性實現的。隨后劉曉力說機器人的謙卑有可能是被設計而成的謙卑,而不是主動的主體意義的謙卑,這一區別仍然需要注意。在目前技術條件不成熟的風險期,倡導作為延展認知系統的機器人的倫理道德更可行。吳童立則就顧振清談論的道德在歷史上的相對性展開討論,他指出我們或許可以從人類兒童時期的道德發展模式獲得啟發。顧振清則進一步強調了這種道德感在未來可能是去人類中心化的。人類在未來的意義追求將需要擺脫自然人或者生物人的程序,而轉向數字化世界的虛擬永生。

640-22.jpeg

第二場圓桌對話:機器人倫理

第二場圓桌對話的主題是“機器人倫理”,由中國科學院科技戰略咨詢研究院李真真研究員主持。


首先,北京理工大學人文與社會科學學院范春萍老師做了關于機器人倫理層次思考的發言。這一話題由于其復雜性,使得共識難以在多專業的學者之間達成,而且相關的倫理思考甚至難以為人工智能的研究帶來足夠警醒。她類比了在環境倫理所處的境況,但最后還是指出應該在機器人倫理問題上去做一些奮爭。她認為當前人工智能專家的倫理辯護身份確實有了良性的變化,他們從辯護的角度變得更加批判和反思。她進而指出,人工智能這一技術是否向善必須取決于人類自身也向善。如果人類自身都是邪惡的,那么即便類腦人工智能幾乎復制了人類大腦,那么它們也難以向善。

北京理工大學人文與社會科學學院張君副教授探討了類似“1.0”這樣的軟件升級模式是否適用于機器人倫理。他首先討論了為什么需要思考這一問題。倫理學中諸如正義這樣的觀念并不適用于這種升級模式,所以我們不能隨意地將其應用于機器人倫理。隨后他以一個涉及分配正義的機器人案例,試圖說明升級模式不適用于倫理問題。公正、正義這樣的概念不適合比較級。最后他強調未來的機器人倫理的發展必須更加關注弱勢群體,因為倫理本身就有重視弱者的性質。



薛少華的發言著重于區分機器人倫理的三重含義。在第一重含義上,機器人倫理是從業者的職業規范。在第二重含義上,是將人類的倫理規范通過編程的方式嵌入到現在的人工智能和機器人的系統之中。在第三重含義上,機器人集群通過長時期的迭代演化,可能形成的自身的獨特行為規范。這種含義上的機器人倫理現在還主要在科幻作品及未來設想之中。

大連理工大學哲學系孫慧中老師就機器人倫理學研究方法進行了分析討論。她的發言首先回顧了薛少華所區分的三重含義,然后就傳統的框架問題進行了探討??蚣軉栴}是關于機器人如何合理的限制自身的推理范圍,盡管該問題在技術專家層面被基本解決,但在哲學家看來還尚未窮盡。對人來說的一些簡單的動作可能對于自上而下的機器人而言帶來相關性層面上的嚴重困擾。她回顧了丹尼特和福多對這一相關性問題的探討,試圖說明框架問題對于自上而下的人工智能進路的限制。因此,她提出我們應該更加重視一種混合進路。而在機器人作為道德主體的問題上,她強調我們應該給出一些明確的消極性設計,也就是機器人不應該做什么。最后,她展望了為了機器人和人的雙向接近過程。

在本場對話環節,范春萍補充了人工智能未來威脅性的一個看法。她指出人工智能專家基于現有邏輯去判斷機器人不會帶來嚴重威脅的看法是不合理的,因為顛覆性突破本身就不符合邏輯。薛少華則展望了機器人倫理的第四點含義,即人機協同工程中雙方之間的關系中應當遵循的倫理規范。劉曉力也就此繼續探討了在未來人機共在的和諧社會框架中,對機器人的需求與互相信任問題。

640-23.jpeg



第三場圓桌對話就“機器人未來”展開,由中國人民大學哲學院劉暢副教授主持。

復旦大學哲學學院王球副教授首先就“自動行為與機器人道德歸責的理由”進行了發言。他指出當前我們并不主張對機器進行道德歸責,而是將責任歸屬于制造商這些主體。這是因為我們通常接受了一種來自亞里士多德的看法,將有意志地控制行為視為道德責任的條件。但他對此有所質疑,并試圖用四個場景中對人們道德直覺的揭示來說明機器主體可能也負有道德責任。這一系列情境涉及背著書包的登山者、帶著8個月小孩的母親、帶著12歲熊孩子的母親、一個帶著護老機器人的老人。四個情境中,書包、兩名小孩、護老機器人都在古玩店中打碎了瓷器。在不同的情境中,道德責任的主體都有所滑移,而在最后一個例子中,我們的道德直覺取決于老人和護老機器人的關系。如果這個護老機器人是被老人長期訓練且形成了一定的模式,那么在這種人機耦合的關系中,護老機器人可能會承擔一部分道德責任。

上海交通大學哲學系周理乾副教授就“信息隱私與身份認同”進行了發言。他討論的主題涉及信息隱私的形而上學考察,即什么是信息隱私以及我們如何理解它的問題。他首先以身份信息被盜,騷擾電話與定位,軟件使用信息授權等三種情況為例,試圖說明信息隱私的不同面向。而對于信息隱私的理解在傳統上也分為還原論和整體性兩種,前者重視隱私被侵犯的不同倫理法律后果,后者則將隱私本身視為私有財產。但傳統看法都難以解釋類似垃圾郵件、公共場所的閉路電視監控這些例子,因為這里受侵犯的是消極的隱私。因此他認為我們應該支持一種本體論意義上的信息隱私定義,即將信息隱私定義為信息摩擦的函數。信息摩擦類比的是獲取私人信息的難度,而這和個人身份識別息息相關。信息因此不再應當被視為私有財產這樣的外在事物,而應當被視為個人的基本權利。

中央美術學院人文學院孫騫謙老師就“AI倫理與局部認知”進行了發言。他的發言包括三個部分,分別包括界定局部認知、人的局部如何落入到倫理考量的范圍內以及這種局部認知的倫理思考是否可以作為AI倫理的對應物。首先在界定局部認知時,他用這個概念涵蓋了一些認知科學傳統討論中的現象。他借用福多的中心認知系統和邊緣認知系統的區分,其中后者是更適合科學研究的。邊緣認知系統包含多個認知模塊,涉及信息封裝和加工的環節。那么我們是否會將一些倫理相關的認知思考帶入認知模塊之中了?他借用一些社會心理學中存在的案例試圖說明一些偏見和弱化的權力關系已經沉淀到了人的認知模塊之中。而這樣一種模式在他看來可以遷移到人工智能的一些情況中。盡管他承認當前的深度學習的過程和認知過程差異使得這里存在的只是一些理論空間。

640-24.jpeg

會議結束前,平臺首席專家劉曉力教授對一天的會議進行了總結和致謝。她首先代表哲學與認知科學跨學科交叉平臺,感謝大家積極參與討論、貢獻洞見。正是因為不同領域學者的共同參與才帶來了這場思想盛宴。這次“機器人倫理1.0”研討會的跨學科討論非常深入、富有啟發、令人受益匪淺。這種深度的跨學科對話也正是平臺建立的初衷之一。她相信這次會議只是一個開始,后面還會有2.0及3.0等會議。她殷切期待大家繼續關注、積極參與人民大學跨學科交叉平臺未來的建設與發展。

欲望爱人 <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <文本链> <文本链> <文本链> <文本链> <文本链> <文本链>