三年片免费观看影视大全,tube xxxx movies,最近2019中文字幕第二页,暴躁少女CSGO高清观看

人工智能的倫理思考匯總十篇

時間:2023-07-30 10:18:22

序論:好文章的創作是一個不斷探索和完善的過程,我們為您推薦十篇人工智能的倫理思考范例,希望它們能助您一臂之力,提升您的閱讀品質,帶來更深刻的閱讀感受。

人工智能的倫理思考

篇(1)

隨著我國教育的迅猛發展,作為科學教育重中之重的小學科學教育逐漸開始被大眾所關注,所以探索小學科學教育的新思路已成為教育改革的關鍵之一。多年來,我國不斷借鑒發達國家的教育改革理念與經驗,并進行本土化研究,促進我國教育發展。

一、研究背景

HPS教育作為西方20世紀80年代盛行的理論,引入中國已有20余年。作為極其受歡迎的教育理念,憑借著自身優勢在中國教育課程改革中占據了一席之地,也為中國科學教育提供了新思路。

(一)HPS的概念界定

HPS的提出源自科學內部對科學反思和科學外部人員對科學本質認識的思考。最初,HPS指的是科學史(HistoryofScience)和科學哲學(PhilosophyofScience)兩大學科領域,但在20世紀90年代科學建構論流行后,科學社會學與科學知識社會學被引入科學教育,HPS逐漸演化成科學史(HistoryofScience)、科學哲學(PhilosophyofScience)和科學社會學(SociologyofScience)三者的統稱[1]:科學史即研究科學(包括自然科學和社會科學)和科學知識的歷史;科學哲學則是對科學本性的理性分析,以及對科學概念、科學話語的哲學思辨,比如科學這把“雙刃劍”對人類社會的影響;科學社會學則討論科學處在社會大系統中,社會種種因素在科學發展過程中的地位和作用,這包括了政治、經濟、文化、技術、信仰等因素[2]。在國外,德國科學家和史學家馬赫最早提倡HPS教育,突出強調哲學與歷史應用至科學教學中的作用。我國HPS相關研究開始晚且研究規模較小,首都師范大學的丁邦平教授認為HPS融入科學課程與教學是培養學生理解科學本質的一個重要途徑[3]。

(二)HPS教育理念融入小學科學課程的必要性

運用科學史、科學哲學等進行教學是目前國際上小學科學教育改革的一種新趨勢。2017年,教育部頒布的《義務教育小學科學課程標準》標志著我國科學教育步入了新階段,其不僅要求達成科學知識、科學探究的相應目標,也要養成相應的科學態度,思考科學、技術、社會與環境的融洽相處。該標準提出了“初步了解在科學技術的研究與應用中,需要考慮倫理和道德的價值取向,提倡熱愛自然、珍愛生命,提高保護環境意識和社會責任感”。HPS教育與小學科學課程的結合是教學內容由知識到能力再到素養的過程,是小學科學教育的新維度,改變了小學科學課程的教學環境。將科學課程中融入HPS教育的內容,可以幫助學生理解科學本質,研究科學知識是如何產生的,科學對社會的多方面影響以及科學和科學方法的優、缺點等。當《小學課程標準》將科學態度和價值觀視為科學教育的有機組成部分時,小學科學課程就有望成為HPS教育的天然載體,同時為小學科學課程滲透HPS教育提出了挑戰。目前,我國小學科學課程雖已有部分設計融入了HPS教育理念,但該融入過程仍停留在表面,融入程度低,融入方式單一。所以,研究HPS教育理念融入小學科學課程十分有必要。

(三)HPS教育理念融入小學科學課程的可行性

縱觀國內外已有的研究,將HPS教育融入小學科學課程可分為基于傳統課堂模式的正式教育課程和基于科技館、研學機構等的非正式教育課程。由皖新傳媒、中國科學技術大學先進技術研究院新媒體研究院、中國科學技術大學出版社三方通力合作、聯合打造的《人工智能讀本》系列叢書自出版以來已發行八萬套,在安徽省多個市區的小學得以應用,是青少年人工智能教育上的一次全新探索。該套叢書分三年級至六年級共四套,涵蓋了16個人工智能前沿研究領域知識點,每一節課都設有場景引入、讀一讀、看一看、試一試4個模塊。小學《人工智能讀本》作為闡述新興科技的讀本,以親切的場景對話和可愛幽默的插畫等形式吸引了眾多小學生的興趣,不僅可作為學校科學課讀本,也可以應用于課外場景。本文則以小學《人工智能讀本》為例,對HPS教育進行初步摸索與實踐,以期對小學科學教育帶來教益。

二、HPS教育理念融入小學科學的典型案例

《人工智能讀本》作為HPS教育理念融入小學科學實踐的典型案例,側重引導學生多維度、科學辯證地認識人工智能,內容包括機器學習、決策職能和類腦智能,以及人工智能的不同發展階段,帶領學生思考人工智能帶來的倫理問題以及其他挑戰,培養學生正確的世界觀、人生觀和價值觀。本研究將以《人工智能讀本》六年級第四單元“人工智能倫理與其他挑戰”為例,分析HPS教育理念融入小學科學的實踐。

(一)科學史:提升課程趣味性

小學科學教育作為培養具有科學素養公眾的重要步驟,提升過程的趣味性則十分重要。過去傳統的小學科學教育注重知識的傳遞而忽略了學習過程,填鴨式教學導致學生失去對科學的興趣與探索欲,不利于公民科學素養的整體提高。而科學史作為研究科學(包括自然科學和社會科學)和科學知識的歷史,已經逐漸滲透到科學教育中來。科學史常常介紹科學家的事跡,某一知識誕生所面臨的困難和曲折過程,而將科學史融入課程可以帶學生重回知識誕生的時刻,切身體會科學。讀本作為在小學科學教育中不可或缺的工具,利用科學史內容,以敘事方式可以將科學哲學與科學社會學的思想融入教學過程中,在讀本中融入歷史,可以提升課程趣味性,幫助學生更加容易探求科學本質,感受科學家不懈努力、敢于質疑的精神,提升科學素養。例如《人工智能讀本》六年級第四單元“人工智能倫理與其他挑戰”引入部分即以時間順序展開,介紹人工智能的發展與面臨的困境。在“看一看”中機器人索菲亞是否可以結婚的故事不僅為本章節提供了豐富的內容,提升了課程的趣味性,而且還融入了科學與哲學,引發讀者對于人工智能的思考

(二)科學社會學:提升課程社會性

科學社會學是研究一切科學與社會之間的聯系與影響,包含科學對社會的影響和社會對科學的影響。科學是一種社會活動,同時也受到政治、經濟、文化等多方面影響,比如蒸汽機的誕生表明科學促進社會的發展。在科學教育的課堂中融入科學社會學不僅可以幫助學生理解科學問題,還可以通過介紹科學與社會之間的復雜關系,培養學生靈活、批判看待科學問題的思維能力。如六年級第四單元“人工智能倫理與其他挑戰”中,在介紹個人與技術的基礎上引入了政府和環境這兩個要素,使學生在更宏觀的背景下,獲得這樣一種認知:環境與技術之間有一把“雙刃劍”,個人與技術、政府與技術之間是相互促進的主客體關系。《人工智能讀本》并不全是說教性質的文字,在“試一試”中的辯論賽環節讓同學通過親身實踐,更加了解人工智能對于社會的多方面影響。通過對于科技是一把“雙刃劍”這一事實的了解,同學們可以更好地將學習知識與社會的背景聯系在一起,深刻體會科學中的人文素養,增強社會責任感。

(三)科學哲學:提升課程思辨性

以往研究發現,國內學科教材中關于科學史和科學社會學內容較多而且呈顯性,而對于科學哲學的融入內容不夠,且不鮮明。[3]科學哲學融入科學教育無疑可以提升學生的思辨性,幫助學生建立起對于科學正確而全面的認識。例如,《人工智能讀本》六年級第四單元“人工智能倫理與其他挑戰”中,引入人工智能倫理,通過介紹人工智能面對的挑戰、人工智能的具體應對策略,讓小學生了解人工智能技術發展的同時也要重視可能引發的法律和倫理道德問題,明白人與人工智能之間的關系以及處理這些關系的準則。通過“讀一讀”先讓學生明白倫理概念,再用一幅畫讓學生思考在算法的發展下,人類與機器人的關系如何定義,向學生傳遞樹立人類與人工智能和諧共生的技術倫理觀。通過這種方式,可以幫助學生逐步建立完整的科學觀,全面且思辨地看待科學,提升學生思辨性,進而提升科學素養。

三、HPS教育理念融入小學科學課程的實踐建議

《人工智能讀本》作為一套理論與實踐相結合,具有知識性與趣味性的兒童科普讀物,著重引導小學生培養科學創新意識,提升人工智能素養,產生求知探索欲望。但《人工智能讀本》作為HPS融入小學科學課程的初始,仍存在教育資源不充分、內容結合較淺等不足,為了將HPS教育更好融入小學科學課程,可從以下三方面加以改進。

(一)開發HPS教育資源

HPS教育需要教育資源的支撐。HPS教育資源來源廣泛,無論是學生的現實生活,還是歷史資料,都可以提供契機和靈感。《人工智能讀本》中收集了大量與人工智能相關的故事和現實案例,都可以作為教育資源,從各個角度達到科普的目的。在新媒體時代,進行HPS教育資源開發時,應當注意借助最新的信息與通信技術增強資源的互動性,如互動多媒體技術、虛擬現實技術、增強現實技術、科學可視化技術等。在傳統的科學課堂教學中,主要是通過圖片文字講解,實驗演示及互動來開展。這種形式對于現實中能接觸到的實驗內容,如常見的動植物、可操作的物理化學實驗等,比較容易開展。而對于地球與宇宙科學領域的知識,或者一些已經不存在的動植物,則只能通過圖片視頻進行展示,不容易進行實驗展示。通過虛擬現實技術、增強現實技術等,則可以虛擬出世界萬物,如不易操作的物理化學實驗、已消失的動植物等都可以通過虛擬現實的手段得以呈現。這些技術或能使教學內容變得生動形象,或通過營造沉浸感以使學生有更佳的情境體驗,或讓學生與教學資源進行交互從而自定義內容,服務于學生科學素養提升的終極目的。

(二)對小學科學教師進行培訓

HPS教育的關鍵是從社會、歷史、哲學等角度對自然科學內容進行重新編排,并不是將大量的內容或學科知識簡單相加,這對教師能力也提出了更高要求。目前,人工智能教學領域常常出現“學生不會學、老師不會教”的狀況,《人工智能讀本》作為內容翔實有趣的讀本可以彌補一部分缺失。但與此同時,也需要提升教師的教學能力與知識儲備。HPS教育理念不僅僅針對歷史中的科學人物,所有的學生主體也是歷史中的主體,他們也身處于社會中,并且對于生活中的各種科學現象有著自己的思考。所以教師身為引導者,需要注意到學生的思考,深入挖掘,鼓勵他們對所思內容進行反思并付諸實踐。科學史和科學哲學應當成為科學教師教育項目中的一部分,這能讓科學教師更好地理解他們的社會責任。為此,對職業科學教師進行HPS培訓便是必要的。

(三)多場景開展小學科學教育

科學素養不是空洞的,它來自學生的認識體驗,并從中獲得生動、具體的理解和收獲。《人工智能讀本》作為方便攜帶的讀本,不僅可以在小學科學課堂中作為教材使用,也可以應用在其他場景,如研學旅行、科技館等場所。課堂學習只是小學科學教育中的一個環節,家庭、科技館等也可以進行科學教育。例如,科技館與博物館可以以科學家和歷史科學儀器為主題舉辦展覽,展覽中融入HPS教育理念,學生在參觀和學習過程中學習有關科學內容。一些歷史上大型的科學實驗,學校教室或實驗室無法滿足條件,但在大型的場館中可以實現。例如,研學旅行作為目前科學教育中最受歡迎的方式之一,已被納入學校教育教學計劃,列為中小學生的“必修課”,正逐漸成為學生獲得科學知識的另一個途徑。研學旅行作為一種集知識性、教育性、趣味性和娛樂性為一體的旅游形式,通常伴隨著知識教育的過程,包括科學知識的普及,所以也是開展小學科學教育的重要場所。在該場景下,運用《人工智能讀本》等新興手段進行科學教育往往取得事半功倍的效果。

結語

目前,HPS教育理念已經積極嘗試運用到小學科學教育中,包括學校內的正式學習以及學校外如科技館、博物館、研學旅游中的非正式學習之中。其中,科技史以時間維度為線索創造豐富資源的同時也可以提升課程趣味性;科學社會學以科學與社會之間的相互關系幫助學生理解科學本質,提升科學素養;科學哲學則以哲學的視域審視科學的誕生提升學生思辨能力。未來,HPS教育結合小學科學則需要更深入,在資源開發、教師培訓以及應用場景等方面加以改進,為提升國民科學素養做出努力。

參考文獻:

[1]袁維新.國外科學史融入科學課程的研究綜述[J].比較教育研究,2005,26(10):62-67.

[2]張晶.HPS(科學史,科學哲學與科學社會學):一種新的科學教育范式[J].自然辯證法研究,2008,24(9):83-87.

篇(2)

人工智能,Artificial Intelligence,英文縮寫AI。在人工智能領域的經典教材,出版于2013年的《人工智能:一種現代的方法(第3版)》中,著名人工智能專家羅素和諾威格從4個方面對人工智能進行了定義,即:能夠像人一樣思考、像人一樣行動、合理地思考、合理地行動的機器。

人機大戰只是人工智能開始改變人們生活的一個小例子,事實上,以往只存在于科幻電影的未來世界,正在加速迎面而來,和現實熱烈擁抱,甚至讓人猝不及防。

“蘋果Siri、新聞閱讀軟件、在線翻譯等,都是人工智能技術的代表。”為人工智能搖旗吶喊的不止創新工場創始人李開復一人,微軟CEO薩提亞?納德拉、谷歌CEO桑達爾?皮查伊、百度創始人李彥宏、物理學家斯蒂芬?威廉?霍金……但凡人們叫得上名號的科技公司巨頭、計算機科學家無不在向人們訴說著同樣一個事實,“人工智能引領的第四次技術革命已經進入爆發的前夜”。

聚焦今天這個時間點,人工智能最耀眼的還是商業化的起步。隨著國外科技大佬對于人工智能各種應用場景的開發,國內互聯網三巨頭BAT也在加速布局,一場真正的AI商業化戰爭,已經蓄勢待發。

篇(3)

整個人類社會的文明史就是一部不斷創造的歷史。現在人類所有的一切進步無不得益于各種各樣大大小小的創造活動。人類逐漸認識到創造帶來的巨大福祉,創造、創新成為當今時代的主旋律。同時,不應忽視的是創造與道德的關系問題也日益凸顯。我國實施創新驅動發展戰略,創造與道德的關系問題的重要性、緊迫性不斷顯現。科學認識與正確處理創造與道德之間的關系問題,推進中國傳統道德的創造性轉化、創新性發展,形成有利于創造的良好道德風尚,既是進一步推進“大眾創業,萬眾創新”蓬勃發展的需要,也是構建社會主義和諧社會的需要,還是實現中華民族偉大復興“中國夢”的需要。

一、創造與道德關系問題的提出

從茹毛飲血到煎烤蒸燜,從樹穴洞居到高樓大廈,從刀耕火種到機械化作業……每一次人類社會的進步和發展都離不開創造。尤其是近代以來,“科學技術是第一生產力”,創造推動整個人類社會突飛猛進、日新月異。計算機網絡技術的迅猛發展對人類生活產生影響之廣與深前所未有,當今世界已經成為一個創新的世界,當今時代也已成為一個創新的時代。為了實現中華民族的偉大復興,中國順應潮流掀起“雙創”熱潮。但是,伴隨科技與創造的發展,某些挑戰人類道德的事件也時有發生,使人們不得不對創造進行更為深入的思考。如,美國“9?11恐怖襲擊事件”中,劫持飛機,并以飛機當武器撞擊美國紐約世界貿易中心和華盛頓五角大樓;國內屢屢曝光“地溝油”回收加工重新流回餐桌、“皮鞋酸奶”等危害食品安全事件,等等。在譴責這些不法分子的同時,我們不得不思考這算不算創造?這些惡性事件可不可以避免?創造與道德有關嗎?它們之間究竟是什么樣的關系?

創造是人類社會永遠向前的動力。人們在享受創造所帶來的福利的同時,也遇到了倫理道德方面的復雜問題。早在19世紀,馬克思就有深刻的論述,他說:“在我們這個時代,每一種事物好像都包含有自己的反面。我們看到,機器具有減少人類勞動和使勞動更有成效的神奇力量,然而卻引起了饑餓和過度的疲勞。財富的新源泉,由于某種奇怪的、不可思議的魔力而變成貧困的源泉。技術的勝利,似乎是以道德的敗壞為代價換來的。隨著人類愈益控制自然,個人卻似乎愈益成為別人的奴隸或自身的卑劣行為的奴隸。甚至科學的純潔光輝仿佛也只能在愚昧無知的黑暗背景下閃耀。我們的一切發現和進步,似乎結果是使物質力量成為有智慧的生命,而人的生命則化為愚鈍的物質力量。現代工業和科學為一方與現代貧困和衰頹為另一方的這種對抗,我們時代的生產力與社會關系之間的這種對抗,是顯而易見的、不可避免的和毋庸爭辯的事實。”不可否認,20世紀以來的創造,如飛機、計算機、手機等,讓我們感到舒適、便利和安逸的同時,也出現了類似馬克思所論述的情形,帶來了許多不容忽視的問題。正如組織曼哈頓工程的奧本海默,起初滿懷激情地從事原子彈的研制工作.但當原子彈試爆成功后,他感到自己成為釋放魔鬼的人,此后這種內疚心理一直伴隨著他。許多參與曼哈頓工程的研究者都曾感到良心的不安、自責,并對其道德倫理責任有了更為深刻的領悟。創造者在創造活動中不可避免地面臨倫理道德的沖擊,承擔著無可規避的道德責任。1949年國際科學協會聯合理事會通過的《科學家》對科學家的義務和責任作了明確規定:最大限度地發揮科學家的影響力,用最有益于人類的方法促進科學的發展,防止對科學的錯誤利用。

隨著現代科技的迅猛發展,創造已經成為當今時代的主題。環境污染、黑客襲擊、克隆實驗、核威脅、基因改造以及不可再生資源的無節制消耗等也悄然而至。人類逐漸認識到,由于科學技術高度的社會化,高速的商品化、產業化和全球化,自身所隱含的對人、自然和社會的積極的正價值和消極的負價值空前顯著,導致了大量新的倫理道德問題的產生,如環境倫理、太空倫理、網絡倫理、核倫理、生命倫理、生態倫理、基因倫理等。作為著重研究解決現實社會生活中道德問題的應用倫理學,其中就內在地包含創造與道德的關系問題研究。

當今,人工智能方面的創造一直是一項備受爭議的議題。據《華爾街日報》網絡版報道,2015年霍金等上百位專業人士,號召禁止人工智能武器的開發。公開信稱,如果任何軍事力量推動人工智能武器的開發,那么全球性的軍備競賽將不可避免。人工智能武器不像核武器一樣需要高昂的成本和難以獲得的原材料,一旦開發,人工智能武器很容易在各軍事力量中普及。所以,人工智能武器可能將在數年內,而非數十年內就能實現。他們表示,人工智能武器的禁令必須盡快頒布,以避免軍備競賽,這更甚于“控制人口數量的意義”。這一公開信事件表明,人類已經自覺意識到人工智能在給人類帶來巨大利益、造福人類的同時,也存在著巨大的潛在風險。人工智能一旦失控,就像打開“潘多拉之盒”,人工智能武器會對人類構成致命威脅,導致人類自身滅亡。人工智能問題的熱議進一步表明.創造與道德的關系問題是關系人類發展與生存的根本問題,人類必須正確處理好創造與道德的關系,以避免或減少對人類社會的生存與發展造成災難與傷害。

陶行知說:“處處是創造之地,天天是創造之時,人人是創造之人!”當今中國,創造已經成為主旋律、最強音。全國上上下下、各行各業,無時無刻不在從事著各種各樣的創造活動。如若不能正確處理好創造與道德的關系問題,層出不窮的倫理道德危機與社會危機不僅會阻礙創新創業的繁榮發展,更有可能危及人們的安全、健康和福祉。創新的中國,迫切呼喚著對創造與道德關系研究的深入與發展。

篇(4)

中圖分類號:TP18 文獻標識碼:A 文章編號:1007-3973(2013)001-085-03

1引言

人工智能(Artificial Intelligence,AI)自從20世紀50年代產生,經過長期發展,已經有了長足的進步,并且已經深入到社會生活的諸多領域,如語言處理、智能數據檢索系統、視覺系統、自動定理證明、智能計算、問題求解、人工智能程序語言以及自動程序設計等。隨著科學技術的不斷發展,現在的人工智能已經不再是僅僅具有簡單的模仿與邏輯思維能力,人們也越來越期待人工智能能夠幫助或者替代人類從事各種復雜的工作,加強人的思維功能、行為功能或是感知功能。這就要求人工智能具有更強的情感識別、情感表達以及情感理解能力。通俗的說,為了使得人工智能對外界的變化適應性更強,需要給它們賦予相應的情感從而能夠應對這個難以預測的世界。

在賦予人工智能“情感”的過程中,面臨著許多的問題,有科技層面上的,也有社會學層面的。本文在這里只討論其中一個比較基本的社會學問題:“人工智能情感約束問題”,即關注于如何約束賦予給人工智能的情感,不至于使其“情感泛濫”。情感指的是一種特殊的思維方式,人工智能具有了情感后的問題是:人工智能的情感是人類賦予的,人工智能自身并不會創造或者控制自己的情感。如果賦予人工智能的情感種類不合理,或者是賦予的情感程度不恰當,都有可能造成“情感泛濫”并導致一些災難性的后果。例如,當人工智能具有了情感之后,如果人類自身管理不恰當,有可能導致人工智能反過來傷害人類。盡管目前我們只能在一些科幻作品中看到這種情況發生,但誰也不能保證未來有一天會不會真的出現這種悲劇。

本文第二章對人工智能情感研究進行了概要性回顧,第三章對如何約束人工智能情感進行了嘗試性探討,最后一章對全文進行了總結。

2人工情感發展情況概述

隨著科學家對人類大腦及精神系統深入的研究,已經愈來愈肯定情感是智能的一部分。人工情感是以人類自然情感理論為基礎,結合人工智能、機器人學等學科,對人類情感過程進行建模,以期獲得用單純理性思維難以達到的智能水平和自主性的一種研究方向。目前,研究者的研究方向主要是人工情感建模、自然情感機器識別與表達、人工情感機理等四個方面的內容。其中,尤以人工情感機理的研究困難最大,研究者也最少。

目前人工情感在很多領域得到了應用和發展,比較典型的是在教育教學、保健護理、家庭助理、服務等行業領域。在教育教學方面比較典型的例子是德國人工智能研究中心發展的三個方案:在虛擬劇場、虛擬市場和對話Agent中引入情感模型和個性特征來幫助開發兒童的想象力及創造力。在保健護理方面比較典型的是家庭保健與護理方向,如Lisetti等人研制的一個用于遠程家庭保健的智能情感界面,用多模態情感識別手段來識別病人的情感狀態,并輸入不同媒體和編碼模型進行處理,從而為醫生提供關于病人簡明而有價值的情感信息以便于進行有效的護理。服務型機器人的典型例子是卡內基梅隆大學發明的一個機器人接待員Valerie。Valerie的面孔形象的出現在一個能夠轉動方向的移動屏幕上時可以向訪問者提供一些天氣和方位方面的信息,還可以接電話、解答一些問題;并且Valerie有自己的性格和愛好,情感表達較為豐富。當然這些只是人工情感應用領域中的幾個典型的例子,人工智能情感的潛力仍然是巨大的。

盡管關于人工情感的研究已經取得了一定的成果,給我們帶來了很多驚喜和利益,但由于情緒表現出的無限紛繁以及它與行為之間的復雜聯系,人們對它的運行機理了解的還不成熟,以致使得目前人工情感的研究仍面臨著諸如評價標準、情感道德約束等多方面問題。所以必須清楚的認識到我們目前對于人工情感的計算乃至控制機制并沒有一個成熟的體系。

3對人工智能的情感約束

正如上文所述,如果放任人工智能“情感泛濫”,很有可能會造成嚴重的后果。為了使人工智能技術更好的發展,使智能與情感恰到好處的結合起來,我們有必要思考如何對賦予人工智能情感進行引導或者約束。

3.1根據級別賦予情感

可以根據人工智能級別來賦予其情感,如低級別人工智能不賦予情感、高級別人工智能賦予其適當的情感。眾所周知,人工智能是一門交叉科學科,要正確認識和掌握人工智能的相關技術的人至少必須同時懂得計算機學、心理學和哲學。首先需要樹立這樣的一個觀點:人工智能的起點不是計算機學而是人的智能本身,也就是說技術不是最重要的,在這之前必須得先解決思想問題。而人工智能由于這方面沒有一個嚴格的或是量度上的控制而容易出現問題。從哲學的角度來說,量變最終會導致質變。現在是科學技術飛速發展的時代,不能排除這個量變導致質變時代的人工智能機器人的到來,而到那個時候后果則不堪設想。因此,在現階段我們就應該對人工智能的情感賦予程度進行一個約束。

根據維納的反饋理論,人工智能可以被分成高低兩個層次。低層次的是智能型的人工智能,主要具備適應環境和自我優化的能力。高層次的是情感型的人工智能,它的輸入過程主要是模仿人的感覺方式,輸出過程則是模仿人的反應情緒。據此我們可分別將機器人分為一般用途機器人和高級用途機器人兩種。一般用途機器人是指不具有情感,只具有一般編程能力和操作功能的機器人。那么對于一般用途的機器人我們完全可以嚴格的用程序去控制它的行為而沒必要去給他賦予情感。而對于高級層面的情感機器人來說,我們就適當的賦予一些情感。但即使是這樣一部分高層次的情感機器人,在賦予人工情感仍然需要考慮到可能會帶來的某些潛在的危害,要慎之又慎。

3.2根據角色賦予情感

同樣也可以根據人工智能機器人角色的不同選擇性的賦予其不同類型的情感。人類與機器合作起來比任何一方單獨工作都更為強大。正因為如此,人類就要善于與人工智能機器合作,充分發揮人機合作的最大優勢。由于計算機硬件、無線網絡與蜂窩數據網絡的高速發展,目前的這個時代是人工智能發展的極佳時期,使人工智能機器人處理許多以前無法完成的任務,并使一些全新的應用不再禁錮于研究實驗室,可以在公共渠道上為所有人服務,人機合作也將成為一種大的趨勢,而他們會以不同的角色與我們進行合作。或作為工具、顧問、工人、寵物、伴侶亦或是其他角色。總之,我們應該和這些機器建立一種合作互助的關系,然后共同完任務。這當然是一種很理想的狀態,要做到這樣,首先需要我們人類轉變自身現有的思維模式:這些機器不再是一種工具,而是平等的服務提供人。

舉例來說,當機器人照顧老人或是小孩的時候,我們應該賦予它更多的正面情緒,而不要去賦予負面情緒,否則如果機器人的負向情緒被激發了,對于這些老人或者小孩來說危險性是極大的;但是,如果機器人是作為看門的保安,我們對這種角色的機器人就可以適當的賦予一些負向的情緒,那么對于那些不按規則的來訪者或是小偷就有一定的威懾力。總之,在我們賦予這些智能機器人情感前必須要周到的考慮這些情感的程度和種類,不要沒有顧忌的想當然的去賦予,而是按分工、作用賦予限制性的情感約束,達到安全的目的。

3.3對賦予人進行約束

對人工智能情感賦予者進行約束,提高賦予者的自身素質,并定期考核,并為每一被賦予情感的人工智能制定責任人。

縱觀人工智能技術發展史,我們可以發現很多的事故都是因為人為因素導致的。比如,首起機器人殺人案:1978年9月的一天,在日本廣島,一臺機器人正在切割鋼板,突然電腦系統出現故障,機器人伸出巨臂,把一名工人活生生地送到鋼刀下,切成肉片。

另外,某些研究者也許會因為利益的誘惑,而將人工智能運用在不正當領域,或者人工智能技術落入犯罪分子的手中,被他們用來進行反對人類和危害社會的犯罪活動。也就是用于所謂的“智能犯罪”。任何新技術的最大危險莫過于人類對它失去控制,或者是它落入那些企圖利用新技術反對人類的人的手中。

因此為了減少這些由于人而導致的悲劇,我們需要對這些研究者本身進行約束。比如通過相應的培訓或是定期的思想政治教育、或是理論知識的學習并制定定期的考核制度來保證這些專家自身的素質,又或者加強對人工智能事故的追究機制,發生問題能立即查詢到事故方等等,通過這樣一系列強有力的硬性指標達到減少由于人為因素導致悲劇的目的。

3.4制定相應的規章制度來管理人工智能情感的發展

目前世界上并未出臺任何一項通用的法律來規范人工智能的發展。不過在1939 年,出生在俄國的美籍作家阿西莫夫在他的小說中描繪了工程師們在設計和制造機器人時通過加入保險除惡裝置使機器人有效地被主人控制的情景。這就從技術上提出了預防機器人犯罪的思路。幾年后, 他又為這種技術裝置提出了倫理學準則的道德三律:(1)機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;(2)在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令;(3)在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。這一“機器人道德三律”表現了一種在道德憂思的基礎上,對如何解決人工智能中有害人類因素所提出的道德原則,雖然得到很多人的指責,但其首創性還是得到公認的。盡管這個定律只是小說家提出來的,但是也代表了很多人的心聲,也是值得借鑒的。

那么對于人工智能情感的約束呢?顯然,更加沒有相應的法律法規來規范。那么,我們就只能在賦予人工智能情感的道理上更加的小心翼翼。比如,我們可以制定一些應急方案來防止可能導致的某些后果,也即出現了問題如何及時的處理之。另外我們在操作和管理上應更加慎重的去對待。也希望隨著科學技術的發展,能夠在不久的將來出臺一部相應的規章制度來規范人工智能情感的管理,使之更加精確化、合理化。

4結束語

人工智能的情感研究目的就是探索利用情感在生物體中所扮演的一些角色、發展技術和方法來增強計算機或機器人的自治性、適應能力和社會交互的能力。但是現階段對這方面的研究雖然在技術上可能已經很成熟,但是人工智能情感畢竟是模擬人的情感,是個很復雜的過程,本文嘗試性的在人工智能發展中可能遇到的問題進行了有益的探討。但是不可否認仍然有很長的道路要走,但是對于人工智能的發展勁頭我們不可否認,將來“百分百情感機器人”的問世也許是遲早的事情。

參考文獻:

[1] 趙玉鵬,劉則淵.情感、機器、認知――斯洛曼的人工智能哲學思想探析[J].自然辯證法通訊,2009,31(2):94-99.

[2] 王國江,王志良,楊國亮,等.人工情感研究綜述[J].計算機應用研究,2006,23(11):7-11.

[3] 祝宇虹,魏金海,毛俊鑫.人工情感研究綜述[J].江南大學學報(自然科學版),2012,11(04):497-504.

[4] Christine Lisett,i Cynthia Lerouge.Affective Computing in Tele-home Health[C].Proceedings of the 37th IEEE Hawaii International Conference on System Sciences,2004.

[5] Valerie.The Roboceptionist[EB/OL].http://.

[6] 張顯峰,程宇婕.情感機器人:技術與倫理的雙重困境[N].科技日報,2009-4-21(005).

[7] 張曉麗.跟機器人談倫理道德為時尚早[N].遼寧日報,2011-11-04(007).

[8] Peter Norvig.人工智能:機器會“思考”[J].IT經理世界,2012(Z1):331-332.

篇(5)

中圖分類號:J905 文獻標識碼:A 文章編號:1005-5312(2013)20-0140-01

一、科幻世界

影片為我們營造了一個未來的、虛構的科幻世界。無論是影片伊始科學家們在研究室里展示新型人工智能機器人,討論“能夠疼愛父母”的機器人小孩,還是對未來世界和未來“人類”的構想與描繪,都是對科學、對科技的大膽假設。影片中對高科技的彰顯,可謂讓人應接不暇。

在影片虛構的未來世界里,人工智能機器人為人類提供了各種各樣的服務,他們擁有與人類一樣的外形,有思想、有意識甚至有愛有疼痛。他們與人類一樣來自各行各業,為社會為人類的發展提供服務。這一切都是對人工智能這門科學發展到現階段的美好展望。

影片中對冰封2000年后的“未來”的描繪一樣讓我心曠神怡。未來人類的形象、智慧,未來世界的境況似乎都凌駕于現實之上又以優越于現實的形式而存在,這一切都顯示了科幻的美好。

二、倫理困境

觀影過程中我常有這樣一種想法:《人工智能》與其說是一部科幻片,不如說是一部極具科幻色彩的。《人工智能》對倫理的思考用蒙太奇的手法通過幾個鏡頭的表達層層推進。第一個鏡頭是大衛被馬丁激怒吞食菠菜。第二個鏡頭是大衛與馬丁落水后被遺棄游泳池的畫面。第三個鏡頭則是大衛被莫妮卡永遠地拋棄時的情景。

莫妮卡和亨利選擇了機器孩子大衛替代自己沉睡不醒的孩子馬丁,起初莫妮卡十分的抵觸、反對,大衛的人工智能系統也未被激活,他的行動例如大笑聲都十分僵硬的,直至莫妮卡決定接受他并且說出了激活碼的瞬間,大衛喊出了“媽媽”這個讓人心碎的單詞。大衛是機器,馬丁是人,他鄙視大衛,在馬丁的眼中,大衛僅僅是一個新開發的。馬丁時刻壓迫著大衛作為一個“人”所應有的那份權利。斯皮爾伯格用了大量的細節鏡頭來表現這種人與機器人之間的不平等性。

影片中對《機器屠宰場》的描繪是矛盾沖突的一個頂點。與人類有著類似外形的機器人以種種酷刑和死亡為代價為人類進行表演。機器人的形象與真人相似度極高,這樣的畫面讓我想起納粹對猶太人的屠殺同類的情景。在這里,影片似乎在昭示:我們生活的現實世界比電影殘酷得多。且不論其他生物,每年有多少孩子在饑餓中喪生,在病痛中,但只因為他是黑人、是孤兒、是殘疾,我們就悄悄地背過頭,把自己的疼痛感應器關掉了。

三、愛的輪回

篇(6)

1958年,10位美國年輕的學者在一起研討,正式提出人工智能這個概念。

人工智能經過了60年曲折的發展,有過令人興奮激動的時刻,也有令人非常沮喪的時刻,現在到了一個新的,這是沒有異議的。

特別值得一提的是,專用人工智能領域取得了突破性進展,今年,阿爾法狗是標志性之一,包括競賽性能的不斷提高,特別是在測試中已經超越人。

新版的人型機器非常的震撼人心,在地面上走,盡管歪歪扭扭,但走得還很穩;還有自動駕駛汽車,在雪地里,也可以走得很好;語音識別,這是科達訊飛一個典型的語音識別的例子,效果非常好;人臉識別,盡管還有一些挑戰,但是這幾年還是不錯的。

專用人工智能確實取得了突破性的進展,但人工智能的研究與應用依然任重道遠,要在通用人工智能方面取得巨大突破還需要盡洪荒之力,曾經有四句話描寫了人工智能目前的水平,有智能沒智慧,有智商沒情商,會計算不會算計,有專才無通才。

另外,人工智能產業化應用也有了很好的發展,2015年全球人工智能市場規模為1270億美元,今年預計1650億美元,到2018年預計超過2000億美元,發展非常之快。目前,人工智能已經上升到國家戰略高度。過去一年人工智能領域的十件大事

過去的一年里,人工智能領域有很多新的變化。

第一項,阿爾法狗。

第二項,各國政府高度重視人工智能發展,包括今年5月份美國白宮舉行的4場研討會。

第三項,IBM類腦超級計算機平臺,是基于前幾年的芯片。

第四項,軟銀320億美元收購ARM,這是很大的收購。

第五項,谷歌、facebook等開源人工智能基礎平臺反映了一個趨勢和動向。

第六項,創建公益性的人工智能機構OpenAI。

第七項,在學術方面,Science發表Bayesian Program 論文。

第八項,微軟深層殘差網絡奪冠2015年ImagnNet。

第九項,谷歌量子計算機取得重要突破,為人工智能計算搭建了一個平臺。

第十項,劍橋大學成立了人工智能倫理研究所。

怎樣通過這個標志性事件看目前人工智能發展的狀態,我將其概括成十段話。

人工智能十大趨勢動態

第一,人工智能熱潮全球化,從東方到西方,從發達國家到發展中國家,從大國到小國,都掀起了熱潮。

第二,產業競爭白熱化。

第三,投資并購密集化,過去一年的收購、投資,數不勝數。

第四,人工智能應用普適化,開始向各個領域滲透。

第五,人工智能的服務專業化,一個是研究通用化的人工智能,一個是專業化的人工智能。

第六,基礎平臺開源化,包括IBM、谷歌開源的平臺,是過去一年特別明顯的一個新的特征。

第七,關鍵技術硬件化,包括IBM的類腦計算平臺。

第八,技術方法集成化,單一的人工智能計算理論和方法不可能包打天下,集成創新勢在必行,阿爾法狗里集成了很多。

第九,學科創新協同化,多學科跨界融合交叉協同創新人工智能創新途徑,其中包括量子技術跟人工智能的結合。

第十,社會影響大眾化。

人工智能未來發展五大思考

第一,要保持警醒。熱潮下面尤其需要冷思考,阿爾法狗在圍棋上的表現,確實提高了人們對人工智能的期望,但是對人工智能希望太高,如果沒有實現就會非常失望。過去60年中我們有很多這樣的教訓,在熱潮下尤其需要冷靜的思考,有就一定會有低谷,這是發展的客觀規律,而任何一個時段不可能一直蓬勃,所以一定要保持冷思考。引用最新的新興技術成熟度曲線。智能機器人、認知等熱門技術正處于期望膨脹期,接下來可能是幻滅期,所以需要我們冷靜的思考。

第二,切忌跟風。我認為跟風難有大作為,這幾年風口熱好像說得很多,找風口不如找關口,發展的瓶頸在哪里,突破瓶頸就可能開創一個新天地,搶占先機,大家不要再跟風。

第三,不忘初心。對于人工智能來說是不忘初心繼續探索,回歸人工智能的本原,是要解決什么問題,別走偏了。所以從研究的內容到研究的目的,在回歸本原的過程中尤其要記著,信息科技與腦類科技的交匯,人腦智能機理的挖掘孕育著信息科技的重大變革。

第四,苦練內功。重視前沿基礎理論研究,現在是家喻戶曉,但是大家不要忘記不是那么火爆的時候在干什么,一直堅持,才有深度學習的今天,所以苦練內功很重要,不能被當下的熱點一葉障目。深度學習不等于AI,深度學習只是人工智能領域機器學習方向的一種方法,盡管現在效果很好,確實需要思考如何克服這個瓶頸,人工智能發展的下一個關口在什么地方。深度學習的成功不是理論方法的突破,而是在大數據和大規模計算資源驅動下的基于基礎理論的技術突破,其本質是通過映射對復雜函數進行逼近。

深度學習依舊存在明顯的局限性,尤其在任務的切換和對環境變化自身完善、對小樣本的舉一反三等方面,人工智能與人類還是相差甚遠。

第五,以史為鑒。丘吉爾說你能看到多遠的過去,你就能看到多遠的未來,你過去看的有多深,你對未來才能看得有多準,我認為是有道理的,所以這個時候就需要我們做一個思考。從淺層智能到深層智能;從專用人工智能到通用人工智能;從機器智能到混合智能;從數據驅動到數據和知識協同驅動;從線下智能到云上智能;從網下到網上。

人工智能在中國的發展

這些具體的趨勢實際上都反映在整個社會化大趨勢上,智能化是新一輪科技與產業革命的最顯著特征。

我們國家發展有很多機遇,天時地利人和,當然也有挑戰,我們的戰略思維、冒險精神還不夠,所以要思考這些問題,人工智能如何更好地服務社會。

篇(7)

“未來”作為一個時間概念,在人類的思想意識里一直都是前置的。幾乎所有人都知道,對于自己來說,“未來”是無可選擇的選擇。所以,每個人都對未來抱有美好的憧憬和無限的期待。如果您認真閱讀了《撞見未來》這本書就能體會到,在從猿類動物開始到人類長期的進化中,在今天,時間概念的“未來”已經走到了盡頭,“未來”也許從此不再僅僅屬于人類。我們面對的未來再也不是把今天當做起點的時間的射線,而是對各種概念、思想、意識進行完全的重構和解構的宏大場域。在這個場域里,一切都將被重新定義,包括我們人類,包括即將出現的人工智能概念下的超人,等等。從此,世界將不再是我們的,而是“未來”的。

時間概念的歷史就像是一個平衡木,幾千年來人類在上面艱難舞蹈。雖然常常忽左忽右,戰戰兢兢,甚至波折頗多,但今天我們終于走到了平衡木的盡頭。在這平衡木的盡頭,人類只要存在就不能自由滑落,而是必將如滑行到一定速度的飛機一樣騰空而起,舍棄時間,舍棄歷史,奔向“未來”。毫無疑問,信息技術、人工智能和量子科學把我們已經帶到了這樣一道門前,門前是我們,門后就是未來。作者初次談到《撞見未來》的時候,把它定義為關于未來學的著作。從他的努力來看,作者用洪荒之力和驚天勇氣將信息技術、人工智能和量子科學等一系列新科技知識和概念聚合起來,作為他書中的“未來”的“起點”。

在人類所認知的范圍內建立的邏輯和倫理體系中,人類在這個世界長期占有統治地位,概念、思想和意識幾乎是全人類的私屬財產,這已經成為一種普遍認同的客觀和自然。當宇宙倫理和更新的科技邏輯擺在大家面前,成為大家思考問題的依據的時候,人類在倫理上的優勢地位是否還能確保?這成了一個現實的問題。我是誰?我來自哪里?這些將不再是人類的自我追問,而是超人的來自未來的隔空喊話。作者試圖把這喊話盡可能清晰準確地傳給我們現在的人類,但人類從來沒有有意識地試圖把一些喊話傳給這個現實世界的其他生物。所以,我們和地球上的其他生命從來就沒有建立真正的共生關系。而今天,在人類即將走進未來場域的時候,我們需要和未來的一切共生、永生。

跨出這一步,進入共生和永生的人類最終將把時間和歷史從我們的頭腦中抽離,成為一種現實的物質。從此,人類不再慌張地一直奔跑在“未來”的身后,而是在“未來”的場域里舞蹈、歌唱。過去我們太慌張,經歷了太多的戰爭、瘟疫,承受了太久的饑餓、匱乏。現如今,《撞見未來》告訴我們這一切都將改變,作者系統分析了可再生、可分享、可替代等“七可”,為大家描述了一個思想和意識之外的全新世界。這個世界是我們人類新的家園嗎?在這個世界里的人類還將是不是今天的人類?我們在“未來”身后觀望,卻無法冷靜,被這種疑惑緊緊伴隨。

人類到底相信不相信未來

好R塢等機構的大制作下出品的各類著名災難片等等,超炫的未來描述和表現,讓太多人類幾乎都患上了未來恐懼癥。這使人分化成兩類:一種是徹底的虛無主義者,從來不相信有什么實在的未來,他們眼里的未來就是即將到來的明天,后天好像就與他們再無任何關系。一種是或輕易或全身心地把未來交給上帝的人。不管是信眾眼里的上帝還是牛頓眼中的上帝,這些人都將面向他托付自己的靈魂和終生。在人類歷史中,對于這個問題幾乎從無可解,更無中間路線可行。毫無疑問,這兩類人都不是“未來”的信徒,前一種人的“未來”只是他們預期的享樂,后一種人的“未來”只是他們心目中的想象。

《撞見未來》一書試圖找到這樣一條途徑,盡力把靠近真實的未來呈現在所有人面前。這是很困難的事情,于是作者就從他對全球能源互聯網的思考和探討,從他在學習和工作中的積累與沉淀出發,行囊里裝上信息科技、人工智能和量子科學等概念,走向未來。作為未來學概念下的研究成果,《撞見未來》里面顯然運用了許多預測手段。這些預測不是憑空而來,而是來自于作者系統的學習和長期的探討、思考。從《撞見未來》的系統表達來看,這種思考已經自成體系,能夠啟發人的心智,使人有能力、有胸懷去領悟未來。

在這個體系里,《撞見未來》的第一部分提到的“七可”源自具體,帶來的卻是顛覆,比如可再生、可替代、可預測、可分享等等,顯然超出了我們現有的理論體系和認知能力。雖然作者對此給予了很技術很系統的解釋,但讓人實實在在地信以為真,恐怕還有很長的路要走。我們的生活真的可以是這個樣子嗎?在更多人無法克服對未來的懷疑與恐懼的情況下,怎么去驗證它呢?面對這個問題,作者在書的第二部分給出了答案。這一部分的題目叫人類的解放事業。確實是,科技解放了人類,在這場行走中信息技術的傳播是第一功臣。那么解放之后是什么樣子?必然帶來自我的重生、經濟的革新、政治的重構、文化的轉型等等。

《撞見未來》的第三部分指出了未來場域下人所面臨的機遇和挑戰,這也許是人類面臨的最后一次最為宏大悲壯的選擇。最終,人類要么成為超人,要么被超人替代,從而進入被選擇的未來時空中。其實,在人類甚至生物歷史上,這些帶著生命概念的物種所有的選擇的正確率和準確率都是極低的。特別是在遙遠的上古時代,這種正確率和準確率極低的選擇為進化論提供了條件,因為這種高代價使每個物種都在慎重選擇,保持著漸變的演進態勢,這更多的體現的是一種對舊有體系的維持。

漸變是進化論的基礎,是一種相對機械的演進方式。而今天,日益發達的信息技術、人工智能和量子科學以及大數據、云計算、物聯網從技術上解決了選擇的準確性和正確性問題,突變成為常態,物質流動的高速度使選擇變得近乎悲壯,速度快得天翻地覆,常常是你生我死,死而復生的慘烈場面。隨著物質流動速度越來越快,對尋常世界的顛覆必將成為尋常的事情。《撞見未來》顯然準確地把握和科學地分析了這一點,作者在用思想和未來競賽,雖然無法分出輸贏,但總是比我們看得清晰、遼遠。

當算法和技術清算了倫理、邏輯等概念

科技的本質是發展了的工具。人類創造了工具,但工具也在改變著人類。從最初的石器到現代的信息技術、量子科學、人工智能,人類對于自己創造的工具或者今天的科技越來越難把握。直接的感受就是科學家們研究越深入,發現越多卻感覺對未來世界的了解越少,越無知,以至于幾乎無法把控,甚至是從來沒有把控過。這符合輪回的規律,未來世界的不可知是一種真理存在,跨越此世奔向彼世的人畢竟鳳毛麟角。技術進步和迷惑認識的剪刀差越大,我們距離未來世界一定就越近。于是,牛頓走向了神的世界。這種無力感是不是一種輪回?人類終將走到這個輪回的終點,我們的一切對于下一個輪回來說,就是洪荒世界。那么,下一個輪回所面臨的世界其實就是超人或者神的世界,牛頓只是比我們更早更透地看到了這一點。

在已經走進我們的信息技術、人工智能和量子科學的時代,一旦越過橫亙在我們面前的那道門檻走進“未來”,一切都重新定義之后,現實世界中的倫理、邏輯等一大堆人類運用嫻熟的概念就會突然失效。隨之而來的是大數據、蟲洞、量子力學、人工智能等撲面而來的概念,依托極其強大的科技、算法技術作為重構未來世界的詞匯將統治一切。由此造成人類所擁有的所有概念的集體失效,難道不是對人類的一次全面清算?這是必然?還是偶然?《撞見未來》告訴我們,這當然是一種必然,也是一次全面徹底的清算。就像我們走進一個殿堂之前,都會在門前稍作停留。不管你有意識還是無意識,這種停留既有整理衣冠的需要,也是整理情緒的表現。就像衣服上的灰塵和不良情緒一樣,在面向未來的這道門前,倫理、邏輯這些概念必將毫不可惜地被拋棄,被無情覆蓋。

在超人的世界里,全新的概念體系為我們建筑了一個什么樣的未來?這將不是我們所能掌控的話題,因為,隨著科學技術的發展,在“未來”世界,我們將失去主導地位,被超人所取代。眾多倫理、邏輯、概念集體失效的背后,是人類讓出占統治地位的主角位置。當然,當前對超人的塑造看似還掌控在我們的手里,幾乎可以不用杞人憂天。然而,人工智能終究有一天會超過我們人類,這個節點一定是人工智能能夠自我創造智能的那一天。讓人工智能模仿人是我們人類的事情,讓人工智能超越人將是人工智能自己的事情。《撞見未來》明確地告訴我們,科學技術已經進入幾何級的升級速度,這意味著科學技術在能量概念下將面臨著爆炸性的增長。那么,按照這個道理分析,這個節點距離人類還會遠嗎?

當人類被超人完全取代,退到配角地位,我們也許會重新認識這個世界。在宇宙倫理、超人邏輯作為規范的未來世界里,科學技術帶給我們的不僅是永生,還是全新算法下的變身。變身之后的我們人類在這個宇宙處于什么位置?是在宇宙的演藝廳的觀眾席上看超人肆意演出?還是被超人扔到各類動物或者其他生命形式充斥的紛亂舞臺?對此,作者在《撞見未來》一書中沒有明確的答案。畢竟,在量子時代,作為未來學概念下的預測技術還沒有脫離物理概念,問題的提出并未必然帶有方向。《撞見未來》描述的本來就是一個多維度視角下構建的關于“未來”的宏大場域,用二進制的傳統思維解答人類和未來命題顯然還顯無力。

人類為超人設置算法,但按照線性的發展趨勢來分析和認識,超人終有一天會有屬于自己的算法,或者他們終將牢牢掌控算法,直到“超”超人的出現。在人類的算法世界里,今天的我們并不比洪荒時代的人類掌控更多的人性,愛、恨、生、死,甚至夢境、幻想等等,在人類的世界里,總有那么一些的不可掌控的東西要交給神或者上帝。但在超人邏輯或未來宇宙邏輯下的算法技術中,今天的這些不能掌控必將被超人掌控。那么,什么人性,什么夢幻,都可能會物質化并技術地隨意組合。也許,超人的世界里從此彩虹不一定七色,開水未必L燙,雪山不再清冷,超人的世界不由我們假設,人類也不會懂。

超人是人類的再生還是毀滅

在概念上,大多數宗教強調的神性其實是放大了的人性,是人性自我掙脫意識的現實反映,或者說是人性自我救贖過程中的集體映像。那么超人是不是應該具有超人性?超人性是不是就是我們一直所崇敬的神性?那么,超人是不是也意味著就是我們想象中的“神”?人類造神幾千上萬年,被自己所創造的神統治了幾千上萬年,突然人類自己升級成為了“神”,會不會像嬰兒來到世界一樣,一切都是陌生和新鮮的,一切又都不是自己的,除了這條生命。超人跳出人類圈子,在“神”的世界里還要像一個嬰兒一樣,呀呀學語,蹣跚學步,邁出神的生命旅程的第一步。

連通現實和未來的通道就是物質,動力來自于科學技術。于是,死亡,從形而上走進形而下。作者在《撞見未來》一書中寫到,死亡成了物質的一種轉換形式,而不是生命的消亡。這種生命概念的絕對物化,是放在未來世界里重新構建的。有了物質的支撐,也許這個生命概念將會融入類似今天的操作系統、量子力學、信息技術等內容,那么,升級我們人類將成為非常技術的可能和撲面而來的現實,而不是手術刀和各類肌肉、臟器的生硬搏殺。血液里流淌了太多技術元素的超人還是不是人?如果超人是人,超人將意味人類的升級或者再生;如果超人不再是人,那么是不是就意味著我們人類將面臨覆滅,或者退回動物的群落,由超人取而代之?

超人的一小步,甩開人類千萬步,輕易跨越了人類和超人之間的千溝萬壑。隨著科技的發展、意識的升級、人與世界的重構,必將建立全新的邏輯和倫理體系,假設中的宇宙倫理、超人邏輯將成為超人的生存和發展準則,這必將給當下的道德體系和思想意識帶來無情的碾壓,一些基本的概念從此失去了意義,人類有可能從此不再崇高。這種不崇高使人徹底失去了積累萬年的萬物靈長之優越感,之后人類面臨的將是什么心情?也許,進入超人的輪回里,我們人類的區區幾萬年只是一個痕跡?一位院士曾經說過,不要說拯救地球,地球沒有問題,有問題的是人類,需要拯救的是人類。確實是,地球存在了幾十億年,而人類存在時間與之相比不過是那么短暫的一瞬,短暫到對地球的影響幾乎可以忽略不計。沒有人類,地球依然在,失去了人類,地球依然在。在我們還無法跳出我們的世界,遇到未來的挑戰時,超人會拯救我們嗎?

篇(8)

應該向誰追責呢?

讓我們先來談談責任問題吧。首先,我們可以模擬一個侵權(民事)責任問題,想象下,在不遠的將來可能會發生這樣一個場景:一輛無人駕駛拖拉機原本應該按照指令在A農民的田里播種,但是奇怪的是,它卻把種子播種到了B農民家的田里。

讓我們先假設A農民是完全按照操作手冊來使用那輛無人播種拖拉機的,同時,我們也假設A農民無需再做其他額外的操作,比如在農田交界處設置無線電信標,等等。那么現在,假設農民B要來控告這次錯誤播種事件(我們暫且不考慮諸如滋擾和侵犯等問題),會遇到哪些問題呢?。

實際上,有很多問題需要被回答,這個事故是農民A的責任嗎?可能不是;那么,是無人播種拖拉機廠商的責任嗎?有可能,但在此之前,我們是不是該明確與這些問題相關的責任和標準呢?比如無人播種拖拉機的行業標準是什么,制造商的產品規格是否符合相關標準呢?不僅如此,如果自己的土地被他人種植上了其他農作物,這是否算是財產損失,又是否能否追溯經濟賠償呢?

在一連串問題之前,我們其實是先假定了無人播種拖拉機里面的系統軟件是由制造商開發的。那么接下來又有新的問題出現了,如果那套人工智能系統是由第三方開發公司完成開發的,該如何處理?還有,系統內部的軟件代碼是由多人合作完成的,又該如何界定各自的職責?

隨著時間的推移,人工智能系統將會越來越不依靠傳統的經典算法和代碼,而且他們也會展示出更多我們無法預料到的行為,值得一提的是,這些行為沒有人可能預測得到,甚至包括人工智能系統的創造者也無法預料。但重要的是,可預見性,其實是處理責任過失問題中一個非常關鍵的組成部分。

為了能夠讓讀者更好地理解可預見性問題,我們才會假設了上面那個無人播種拖拉機的案例,或許十年、二十年之后,人工智能已經不再是簡單的種錯莊稼這件事兒了,它可能會是某個意外讓人們受傷,更嚴重一些,人工智能可能會不小心殺人。所以,如果我們的法律無法適時作出改變,那么未來將會導致更多問題出現。就拿上面那個人工智能種錯莊稼的事情為例,當無法實現可預見性,最終的結果就是沒人承擔責任!

責怪人工智能機器人

為什么我們不干脆去責怪機器人呢?畢竟,關于人工智能人格也有過討論,而且人工智能系統本身也有擔負刑事責任的可能。

但是,這種方法在實際應用時又有什么不一樣呢?這里,還是借用別人曾經說過的一句話吧。“人工智能系統真的會像著名小說家艾薩克·阿西莫夫筆下的機器管家那樣嗎?遵守法律,遵從道德良知,還能保護銀行存款?”

我們姑且不去討論人工智能系統是否可以被起訴,但人工智能制造商和開發商們必須受到監管。只有這樣,才有可能將一些無法歸責的各方,用嚴格責任賠償(注:嚴格責任賠償是指只要造成了損害,不論行為人有無過錯,都要承擔賠償責任。常見的適用于無過錯責任原則的,有從事高壓、劇毒、高速、放射等作業造成他人損害的。工傷是典型的適用無過錯責任原則的,也就是說只要勞動者在工作期間因公受傷了,排除勞動者個人主觀故意的因素之外,雇用單位無論有無過錯都要承擔工傷賠償的責任的。)約束起來,

實際上,在我們的日常生活里,嚴格責任賠償已經應用到了很多地方。當然除了這種責任賠償之外,如果需要對人工智能追責,其實也可以采用無過錯責任賠償和賠償方案池等方式。

規章制度

如果從監管的角度來看人工智能,那么你會發現,嚴格的安全標準,以及建立完善的安全認證流程也都是非常必要的。不過,如何設計一個合適的機構與流程框架,并且讓這個框架得以有效運行,依然是一個非常棘手的問題。

人工智能領域復雜難懂,而且外部世界對于人工智能研發圈子普遍缺乏認識,這也就是人工智能專家需要盡快創建行業框架的原因所在。實際上,這里所說的框架,就是規章制度,說通俗些也就是游戲規則。因此,這意味著人工智能顧問委員會需要和政府一起,盡快立法,建設行業標準。

我們不得不承認,人工智能行業存在巨大的潛在效益;但是標準和流程,需要不斷的創建、更新、并且執行,這樣才能達到一種持續性平衡,繼而最大限度地提高公共福利和安全;當然,也只有這樣,才不會扼殺創新,更不會出現不必要的法律負擔。

篇(9)

一、人工智能時代刑法構建的必要性

(一)刑事立法可以防控人工智能技術帶來的風險

人工智能與現實社會的聯系日益緊密,已經成為法律無法回避的領域,互聯網時代的發展推動了人工智能時代的到來,互聯網技術中的信息與數據是孕育人工智能的土壤。當今社會,人工智能技術已經滲透到生活的各個方面,我們的醫療、軍事、交通、城市建設等方面,處處都有人工智能的身影。當我們享受著先進技術帶來的好處時,也不能忽略其潛在的法律風險。因為這樣緊密的聯系就決定了人工智能會高頻率地參與人類社會的活動,那么當其參與的行為涉及刑法時,就需要立法來規制。

(二)刑事立法可以及時應對這一新生事物對于現行刑法的挑戰

不可否認,法律具有滯后性,新技術帶來的犯罪無法被現行的刑法及時規制,甚至會產生沖擊。只有通過立法及時修補法律的空白之處,解決刑法對于人工智能類犯罪的適用等問題,才可以保證這一技術的健康發展和合理使用。[1 ]

二、現行刑法規制人工智能犯罪的困境

(一)從刑事責任主體角度

在我國現行刑法中可以規制的人工智能類犯罪極其有限,僅限于行為人直接將人工智能當作工具進行生產、利用的情形,換言之,人工智能此時執行的一切操作僅為犯罪者的意志和行為的延伸,這種情形下的刑事責任主體為利用人。例如,紹興市破獲的全國首例利用人工智能侵犯公民個人信息案,犯罪團伙利用人工智能技術盜取數據,識別圖片,進行詐騙,竊取公民個人信息進行犯罪。在這個案件中,人工智能被當作工具直接被犯罪分子支配利用,可以根據刑法第二百五十三條之一侵犯公民個人信息罪對犯罪分子進行定罪。當然,即便如此,這樣的定罪依然存在瑕疵,后文第(二)節將從另一角度闡述。然而,真正棘手的問題是,當人工智能在無自然人利用、操縱時,或者違背利用者的初衷,自行發生了犯罪行為(如無人駕駛汽車涉及交通事故罪,手術機器人涉及醫療事故罪等),其刑事責任主體又該如何確定,是人工智能本身,還是其用戶,又或者是發明者,由于現行刑法刑事責任主體認定的局限性,這種情形下刑事責任主體的確定存在爭議。

(二)從罪名角度

不可否認,人工智能時代的到來產生了許多前所未有的行為方式,所以,針對以下三種情形,即便行為主體符合我國現行刑法對于刑事責任主體的認定(自然人、單位),因為缺乏與之相對應的罪名,也無法直接且有效的規制:首先,是犯罪主體濫用人工智能學習技術訓練其進行犯罪的情形。正如前文所述的,紹興市破獲的全國首例利用人工智能侵犯公民個人信息案,我們可以按照侵犯公民個人信息罪對犯罪分子進行定罪,但是其非法濫用人工智能技術的行為是無法規制的。其次,是由于人工智能的生產者、發明者在程序編寫等技術方面的問題,導致人工智能運行時發生危害社會安全的犯罪行為的情形。比如,2018 年3 月發生在亞利桑那州坦佩市的Uber無人駕駛汽車意外撞死一名行人的案例,[2 ]經后續調查給出的技術解釋是,由于技術限制,其識別系統會在惡劣環境下發生識別有誤,甚至無法識別的情況,Uber公司對其人工智能的某一算法設置上存在紕漏,但最終的審判結果卻是Uber公司不負刑事責任。這雖然是國外的案例,但也對我國刑事立法提供了思考的方向,或許有觀點認為,在我國發生類似案例,可以直接按照刑法第一百四十六條的相關規定按照生產、銷售不符合安全標準的產品罪來定罪。但筆者認為,人工智能本就屬于新興技術,其發展必然存在不成熟的因素,但也不能忽視其進步性,所以,在一定限度內,我們應該對人工智能產品所帶來的風險有一定程度上的容許,如此才有利于行業的發展,而這就需要設立新的罪名來解決。

三、人工智能刑事立法構建策略

(一)關于刑事責任主體認定

針對上文提出的,人工智能在無自然人利用、操縱時,或者違背利用者的初衷,自行發生的犯罪行為的責任主體認定問題,我們可以分為兩類討論:首先,是弱人工智能發生的犯罪行為。所謂“弱人工智能”是指沒有自主意識,缺乏創造性、遵循機械規律的人工智能。此類人工智能在無自然人利用、操縱時,或者違背利用者的初衷,自行發生的犯罪行為,多半是程序等技術的瑕疵造成的。此時,此類人工智能無法滿足犯罪主客觀一致的要求,不具有承擔刑事責任的能力,所以應該認定其發明者為刑事責任主體,因為發明者在發明此類弱人工智能時,可以且應當預見到人工智能的行為和潛在的風險,發明者此時具有確保其發明物不會危及公共安全和人身安全的義務。當然,也有例外情況,如果是由于他人(黑客等)惡意入侵的行為造成的犯罪,應當認定該介入因素切斷了原先的因果關系,應該認定入侵者為刑事責任主體。其次,是強人工智能發生的犯罪行為。所謂“強人工智能”是指具有獨立意識,有思考能力,通過學習可建立對于周圍環境的認識、判斷的自主運行的人工智能。這類人工智能的犯罪能夠符合客觀方面(危害行為、危害結果、因果關系、犯罪的時間、地點、方法)的要求,也能夠符合主觀方面(如意識因素、意志因素)的要求,應當認定其為刑事責任主體,獨立承擔刑事責任。首先,這類人工智能具有更強的學習能力,思考能力,它們可以通過學習和思考產生自主意志和是非判斷能力,已經不再是使用者意志和行為的延伸;其次,強人工智能在自主意識和判斷力的基礎上,完全有能力獲取其研發人未編入其程序的知識,而這些知識極有可能具有人身危害性,但這些內容是很難被及時預見并立刻刪除的;最后,基于前兩點的內容,我們完全有理由認為,強人工智能是具有可罰性的,此時的人工智能已經具有了自然人的倫理屬性,可以被當作“機械犯罪人”。我們可以對其執行刪除數據并且將該人工智能銷毀的刑罰。故針對強人工智能的犯罪,我們不必設立新的罪名,但需要出臺相關的司法解釋來調整、明確刑事責任主體的認定。比如,針對現行刑法的某些犯罪(如公共安全類犯罪、除外侵犯人身權利的犯罪、侵犯財產類型的犯罪等等)出臺司法解釋,增加強人工智能本體為刑事責任主體,并補充強人工智能的刑罰執行制度,只有完善了司法解釋,才不會使上述策略成為空中樓閣。

(二)關于新罪名的設立

1 .設立濫用人工智能技術罪隨著技術的發展,人類對于人工智能技術的依賴性會越來越大,這已是大勢所趨,但這勢必會引起該技術濫用的行為。就如全國首例利用人工智能侵犯公民個人信息案,犯罪分子利用人工智能,可以使傳統的犯罪行為更加快速,更加低成本,低風險。所以我們有必要設立濫用人工智能技術罪,在規制犯罪分子基本犯罪行為的基礎上,[3 ]該罪名應該納入刑法分則第六章妨害社會管理秩序罪中進行明確規定。2 .設立人工智能重大責任事故罪針對人工智能的生產者、發明者在程序編寫等技術方面的問題(主要針對弱人工智能),導致人工智能自行運行時發生危害社會安全的犯罪行為的情形,應該成立人工智能重大責任事故罪,規制發明者、生產者在發明、設計、生產環節中未完全按照行業標準和國家標準履行義務的行為。但是,結合前文所述對于新興技術發展的支持態度,應該對其中的生產方采取嚴格責任制,即如果生產商有足夠證據證明自己的生產過程是嚴格遵守現有的相關標準的,則可以免于承擔刑事責任。該罪名應該納入刑法第二章危害公共安全罪中進行明確規定。

四、結語

人工智能時代的到來既給我們以便利,同時也會給我們帶來法律的困擾,甚至對傳統的刑法帶來沖擊,相關的刑事立法可能會改變長久以來的傳統的刑事責任定義,這正是新興技術的發展對于刑事立法的挑戰,所以我們既要制裁人工智能類的犯罪,又不能阻礙該行業的發展,只有這樣,才是成功應對我國當下人工智能犯罪的刑法困境。

參考文獻

篇(10)

人機環境系統交互的產物

眾所周知,當前制約機器人科技發展的瓶頸是人工智能,人工智能研究的難點是對認知的解釋與建構,而認知研究的關鍵問題則是對自主和情感等意識現象的破解。

在真實的人機環境系統交互領域中,人的情景意識SA(Situation Awarensss)、機器的物理SA、環境的地理SA等往往同構于同一時空中(人的五種感知也應是并行的)。人機環境交互系統往往是由有意志、有目的和有學習能力的人的活動構成,涉及變量眾多、關系復雜,貫穿著人的主觀因素和自覺目的,所以其中的主客體界線常常模糊,具有個別性、人為性、異質性、不確定性、價值與事實的統一性、主客相關性等特點,其中充滿了復雜的隨機因素的作用,不具備重復性。

在充滿變數的人機環境交互系統中,存在的邏輯不是主客觀的必然性和確定性,而是與各種可能性保持互動的同步性,是一種得“意”忘“形”的招拆招和隨機應變能力。這種思維和能力可能更適合復雜的人類。凡此種種,恰恰是人工智能所欠缺的地方。

人機之間的不同之處

人與機器相比,人的語言或信息組塊能力強,具有有限記憶和理性;機器對于語言或信息組塊能力弱,具有無限記憶和理性,其語言(程序)運行和自我監督機制的同時實現應是保障機器可靠性的基本原則。人可以在使用母語時以不考慮語法的方式進行交流,并且在很多情境下可以感知語言、圖畫、音樂的多義性,如人的聽覺、視覺、觸覺等在具有辨別性的同時還具有情感性,常常能夠理解到只可意會不可言傳的信息或概念(如對哲學這種很難通過學習得到學問的思考)。機器盡管可以下棋、回答問題,但對跨領域情境的隨機應變能力很弱,對彼此矛盾或含糊不清的信息不能有效反應(缺少必要的競爭冒險選擇機制),主次不分,綜合辨析識別能力不足,不會使用歸納推理演繹等方法形成概念或提出新概念,更不用奢談產生形而上學的理論形式。

人與機器在語言及信息的處理差異方面,主要體現在把表面上無關的事物相關在一起的能力。盡管大數據時代可能會有所變化,但對機器而言,抽象表征的提煉,亦即基于規則條件及概率統計的決策方式與基于情感感動及頓悟冥想的判斷機理之間的鴻溝依然存在。

人工智能與哲學

人類文明實際上是認知的體現,無論是最早的美索不達米亞文明(距今6000多年),還是四大文明之后以西方為代表的現代科技力量,其原點都可以落實到認知領域上。歷史學家認為:以古希臘文化為驅動力的現代西方文明來源于古巴比倫和古埃及,其本質反映的是人與物(客觀對象)之間的關系;而古印度所表征的文明中常常蘊含著人與神之間的信念;排名最后的古代中國文明是四大古文明中唯一較為完整地綿延至今的文化脈搏,其核心道理反映的是人與人、人與環境之間的溝通交流。在這些人、機(物)、環境之間系統交互的過程中,認知數據的產生、流通、處理、變異、卷曲、放大、衰減、消逝無時無刻不在進行著……

有人說人工智能是哲學問題。這句話有一定的道理,因為“我們是否能在計算機上完整地實現人類智能”,是一個哲學問題。康德認為哲學需要回答三個問題:我能知道什么?我應該做什么?我可以期待什么?分別對應著認知、道德和信仰。哲學不是要追究“什么是什么”,而是追求為什么“是”和如何“是”的問題。哲學意義上的“我”也許就是人類研究的坐標原點或出發點,“我是誰”“我從哪里來”“要到哪里去”這些問題也許就是人工智能研究的關鍵瓶頸。

上一篇: 關于茶文化基本知識 下一篇: 教育規劃重要性
相關精選
相關期刊
主站蜘蛛池模板: 桃园县| 乌拉特前旗| 互助| 彝良县| 突泉县| 镇江市| 河西区| 榆树市| 星子县| 梁河县| 仁布县| 衡山县| 亚东县| 苗栗市| 万全县| 乌拉特中旗| 抚顺市| 永安市| 东乡族自治县| 宁河县| 鹤庆县| 郓城县| 东丽区| 江华| 浦东新区| 东源县| 上饶县| 东乌| 海林市| 东乌珠穆沁旗| 同心县| 政和县| 永年县| 邻水| 景泰县| 鄂伦春自治旗| 宜兰县| 万山特区| 泉州市| 绥宁县| 庆阳市|