能猜透你心思的機器人 心智模擬理論在機器人中的應用
想象一下,你站在電梯里面,電梯門已經開始關上了,突然你看到走廊盡頭有一對夫婦朝你跑來,你在他們大喊之前就從他們的步伐和肢體語言中知道他們在趕你這部電梯,作為一個樂于助人的人,你用手擋住了門。在那一剎那,你讀懂了別人的意圖,并采取行動予以協助;這是那些人工智能機器設計師只能羨慕的人類本能行為。但隨著研究人員嘗試用各種方法創造具有預測社交能力的人工智能(AI),以幫助人工智能更好地與人互動,這種情況可能最終會得到改變。
例如,未來的行李員機器人將能夠根據酒店客人微妙甚至無意識的行為來預測他們的需求和意圖,而不僅僅是對一堆口頭命令做出反應。布里斯托爾西英格蘭大學的機器人倫理學教授艾倫·溫菲爾德(Alan Winfield)說,機器人會以一臺無意識機器的理解程度去“理解”周圍發生的事情。
溫菲爾德希望通過“心智模擬理論”(simulation theory of mind)來發展機器人的這種行為,這是一種人工智能方法,可以讓機器人內部模擬人、物和其他機器人的預期需求和動作,并利用結果(與預先編程的指令一起)來確定適當的反應。換句話說,這些機器人會運行一個內嵌程序,將它們自己的行為與其他物體和人的行為結合起來。
溫菲爾德說:“我制造的機器人可以模擬自己和其他機器人的內心世界。在機器人體內植入模擬的想法……是讓機器人可以真正地預測未來的一種非常巧妙的方式,。”
“心靈理論”是哲學家和心理學家用來描述通過想象自己處于某物或某人的位置來預測自我和他人行為的能力。溫菲爾德認為,讓機器人做到這一點,將有助于他們推斷周圍的人的目標和愿望——比如意識到這對正在跑步的夫婦確實想要乘坐電梯。
這將Winfield的方法與機器學習區別了開來,機器學習中,人工智能系統可能會使用,例如,一個人工神經網絡,它可以訓練自己以滿足用戶期望的方式執行所需的動作。這種方式的一種日益普遍的形式就是“深度學習”,這涉及到構建一個大型神經網絡,在某種程度上,它可以自動學習如何解讀信息和選擇適當的響應。
而基于模擬的方法依賴于預先編程的內部模型。溫菲爾德用一個“結果引擎”來描述心智系統的模擬理論。換句話說,裝備了該系統的機器人可以回答關于預測行動的簡單的“如果”的問題。例如,如果它模擬左轉,它可能會檢測到它會撞到附近的墻。為了使這一預測成為可能,這些機器人被預先編程,它們掌握了基本的物理知識,以便了解物體碰撞時會發生什么。所以溫菲爾德說他的機器人有一點“常識”。
目前,機器人只能在相對簡單的情況下使用心理模擬理論。在今年1月發表的一篇論文中,溫菲爾德和他的同事描述了一項實驗,在實驗中,機器人被設計成能夠在更安全的走廊里移動(也就是說,不會撞到任何東西),并被賦予了預測附近其他機器人潛在移動動作的能力。這對于機器人來說并不是新的功能,但在這種情況下,溫菲爾德的機器模擬了它自己的避碰策略的后果,以確保它們自己是安全的。溫菲爾德在他的研究中承認,這項工作仍處于初級階段,“距離成為一個完整的解決方案還有很長的路要走”。例如,他的行為猜測機器人穿過走廊的時間比直接走到另一邊的機器人所需的時間要長50%。盡管如此,他還是認為“基于模擬的內部建模是人工心智理論發展過程中一個強大而有趣的起點。”
溫菲爾德也承認,人們對心智理論還不是很了解。溫菲爾德今年6月發表在《機器人與人工智能前沿》(Frontiers in Robotics and AI)上的一項研究稱,科學家對人類大腦“導致思維理論產生的神經或認知過程”知之甚少。然而,他認為完全理解這些過程,并不是開發能夠執行相似功能的人工智能的必要條件。
Winfield說,心智模擬理論的一個主要潛在優勢是,它可以幫助機器人與人類更好地交流——隨著自動化越來越多地進入人類的生活,這一特性將變得越來越重要。例如,有些人可能想讓機器人在事后解釋自己的行為——這一點人工智能通常無法做到,因為“深度學習”人工神經網絡的內部工作非常復雜,可能會讓人類在很大程度上置身于決策過程之外。那么幫助老人或病人的機器人呢?理想情況下,這種機器可以自發地向老年人發出警告,宣布它即將接近,以避免警報或混亂。就像一個護士說:“我要再給你一個枕頭,這樣你就可以坐起來吃藥了。”這是一個只會做出行為的機器人和一個在采取行為前會考慮這種行為的機器人之間的區別。
研究人員正試圖開發一種可以用人類語言來解釋它們的決策過程的機器學習系統。例如,一個基本模型有一個人工智能程序,它能確定圖像是否顯示了一頓健康的飯菜,并解釋其答案:“不”,因為圖像中包含了熱狗;“是”,因為它能檢測到蔬菜的存在。但這類編程還處于初級階段,遠未達到普及的程度。
卡內基梅隆大學機器人研究所的助理教授Henny Admoni沒有參與這項新研究,但他同意這種能力是有用的。Admoni說:“像Winfield所實現的模擬理論這樣的東西有一個好處,那就是系統可以對它學到了什么,或者為什么做了什么作出解釋。”
加州理工大學(California Polytechnic State University)倫理學與新興科學研究小組(Ethics and Emerging Sciences Group)研究員 Julie Carpenter沒有參與Winfield的實驗,但Julie認為人們會更容易相信一個可以更清晰和準確地解釋自己行為的機器人,“你必須相信,另一個個體和你有相似的目標——你們正在朝著同一個目標努力。”
現在Winfield已經制造出了能夠執行內部模擬簡單動作決定的機器人,他的下一步是讓這些機器人能夠口頭描述他們的意圖或過去的動作。如果一個機器人能夠傾聽另一個機器人的意圖陳述,并通過模擬正確地解釋這些陳述的話,那這將會是一個很好的實驗。這個過程包括一個機器人口頭描述一個動作——比如“我要扶著電梯門”——另一個機器人聽到這個消息,然后在內部模擬動作和結果:電梯門會保持開著。
如果它們能以這種方式相互理解,那么理論上它們離理解我們又近了一步,Winfield說:“對這個實驗我感到非常激動。”
本文來源前瞻網,轉載請注明來源?。▓D片來源互聯網,版權歸原作者所有)
1、凡本網注明“來源:***(非前瞻網)”的作品,均轉載自其它媒體,轉載目的在于傳遞更多的信息,并不代表本網贊同其觀點和對其真實性負責。
2、如因作品內容、版權和其它問題需要同本網聯系的,請在30日內進行。
征稿啟事:
為了更好的發揮前瞻網資訊平臺價值,促進諸位自身發展以及業務拓展,更好地為企業及個人提供服務,前瞻網誠征各類稿件,歡迎有實力機構、研究員、行業分析師、專家來稿。(查看征稿詳細)
網友評論
0評論
網友評論僅供其表達個人看法,并不表明前瞻網同意其觀點或證實其描述。