動物可以幫助人工智能變得更聰明?是時候談「獸工智能」了

作者:STEPHANIE    發表日期:2018-05-27 16:19:13

  文|雷宇

  來源|智能相對論

  電影《怪醫杜立德》里的杜立德博士有一項神奇的本領——無需藉助任何科學儀器的輔助便可與動物交流,起因是他聽懂了鳥語,給一隻受傷的貓頭鷹拔掉了刺,後來被各種動物知道了,隨即他的診所便給動物們看起了病。

  隨着劇情的發展,一隻猴子告訴他馬戲團的獅子要跳樓自殺,於是杜立德博士趕緊跑去馬戲團。

  救下了馬戲團想要跳樓的老虎。

  拋開電影本身的喜劇色彩,這個設定也是很正確的,因為貓頭鷹和猴子是電影傳話的關鍵人物,而現階段人類對一些鳥類和一些靈長類的行為與語言理解是最透徹的。

  電影照進現實,可能沒那麼容易

  隨着科技發展,像杜立德博士一樣的與動物溝通交流變得越來越趨近現實。最近,來自華盛頓大學和艾倫人工智能研究所的團隊就合力開發了新的神經網絡模型,可以來理解和預測狗的行為。研究人員在狗身上安裝了 GoPro 相機用於記錄狗的行為,並且通過在四條腿和尾巴上安裝的傳感器來傳遞運動數據。

  通過對狗的肢體動作內容和在 GoPro 上記錄的內容進行比對分析,由此可以知曉狗在什麼樣的動作下看到了什麼,並對其行為進行預測。

  而在預測狗的行為之前,人們在狗的語言識別上已經進行了不少研究,甚至可以聽懂它們講話。

  生物學家 Slobodchikoff 創辦了一家名為 Zoolingua 的公司, 該公司開發了一種算法,可以將土撥鼠的聲音轉為英語。他認為對土撥鼠叫聲的研究同樣可以用到貓狗身上,原理很簡單,即收集大量的狗狗視頻,然後用這些素材來訓練人工智能算法,用人工來標記每一種叫聲和搖尾巴的動作表達什麼意思,最終將其翻譯出來。

  這是典型的有監督學習方式,需要的大數據首先要通過人工標註,但是由於採樣的範圍和機器內存等的局限性,這種方式在翻譯的準確度和豐富性方面尚有待提高。相較之下,為實現人狗溝通而設計的No More Woof耳機要更勝一籌。

  No More Woof是由北歐發明與發現協會( NCID )開發的,應用的是三個不同技術領域的最新技術的組合,即腦電圖傳感、微運算和特殊腦機接口軟件。這些傳感器是腦電圖錄音機,先錄下狗大腦內流動的離子電流造成的電壓波動,再將其傳到一部微型電腦上,把它們進行解釋。

  但這裏依然有幾個問題尚未解決。首先是腦機接口至今尚未取得突破性進展,而使用在狗身上顯然是外置的,在識別精度上可能依然達不到預期。其次,以上兩種翻譯機均只能識別一些簡單的表達(後者強一些),比如「我餓了」、「我很累」、「我想出去散步」等。最重要的是,就現階段的技術,還不能像電影里的交互,你能聽懂狗,但狗卻不能聽懂你。

  從技術上說,識別動物的表情、動作、叫聲並不難,現在的 AI 算法可以快速對這些信息進行識別並分類,但更難的是正確解讀這些信息表達的含義。人類對於動物行為和語言的認知程度並不相同,短時間內難以全部理解,甚至一度遭遇瓶頸,那麼對動物的語音乃至行為的研究又該向何處發展呢?

  與其一味解讀,不如認它做老師?

  我們對動物的了解,可能比我們知道的要少得多,因此,向它們學習,也許是現階段人工智能的突破點。智能相對論(ID:aixdlun)分析師雷宇將其稱為「獸工智能」,那麼「獸工智能」到底是怎麼回事?

  1.動物可以幫助人工智能變得更聰明

  本文預測動物行為的研究證明,當狗看到不同的物體時,身體的反應是不同的,狗能清楚地表現出視覺智能,能識別食物、障礙物、人類以及動物。這種不同反應我們在現實生活中也很常見,而既然狗能夠這麼聰明地識別出不同目標,那麼神經網絡也能夠被訓練成同樣聰明。

  因此在後續實驗中,探究人員進一步嘗試把神經網絡訓練得「像狗一樣」,並讓其在不同場景中識別物體,進一步發現,通過這種學習方式,深度神經網絡可以識別出室內或者室外等不同場景,並且能夠理解怎樣在不同場景下行走,路線怎樣更合理,而這一學習原理顯然可以遷徙到機械人自主行走領域。

  訓練機器讓神經網絡懂得如何智能識別物體是一項艱難的任務,因為它需要大量先驗知識,這對於機器來說學習起來相當耗費時間,如今狗知道這些規則,那麼人們將不必再從基礎來訓練神經網絡,通過觀察狗的行為就能掌握這些規則。

  眾所周知,如今AI技術應用上最火的是兩種,一是智能語音,二是機器視覺。但人類目前在觸覺、味覺和嗅覺領域這三個領域中的進展特別緩慢,尤其是味覺和嗅覺,屬於小眾需求,目前只有一些特殊領域的機器需要用到,因此整個研發投入都不足。

  就機器識別而言,人是視覺動物,所以感覺視覺比較靠譜。而動物之間的識別,不一定靠視覺。嗅覺、味覺、觸覺、聽覺都有可能。比如老鼠,由於皮層無褶皺,神經元分層也比靈長類少,視覺皮層占的比例非常小,因此只能看到鼻尖前面一點點。但它嗅覺很發達,它可以通過嗅覺來識別其他物種。

  去年7月,一位尼日利亞科學家研製出了一種新型AI晶片,可以讓計算機擁有嗅覺識別能力,比如識別出爆炸物氣味等等。但是官方披露的資料的極少,至今也沒太大的動靜,估計現狀不容樂觀,起碼是不能做到大規模的商用。

  而一旦商用,機器嗅覺將必須讓AI先看到物體這一步驟省略,直接透過現象窺視隱藏物體的本質。如此一來,未來公共場合中的毒品將無處遁形。

  2.動物可以開拓全新的學習機制

  圖片來自公眾號視覺求索

  上圖a是一隻被研究人員在日本發現和跟蹤拍攝的野生烏鴉。它找到了堅果,需要砸碎,可是這個任務超出它的物理動作的能力。於是它發現一個訣竅,把果子放到路上讓車軋過去(圖b),就可以完成「鳥機交互」了。但是雖然堅果被軋碎了,但它到路中間去吃是一件很危險的事。它又開始觀察了,見圖c。最後他發現了紅燈停綠燈行,過馬路要走斑馬線這一邏輯複雜的機制,搞清楚之後,烏鴉就選擇了一根正好在斑馬線上方的一根電線,蹲下來了(圖d)。它把堅果拋到斑馬線上,等車子軋過去,然後等到行人燈亮了(圖e)。這個時候,車子都停在斑馬線外面,它終於可以從容不迫地走過去,吃到了地上的果肉(圖f)。

  這個過程既沒有大數據訓練的,也沒有所謂監督學習,但是烏鴉硬是解決了世界頂級科學家都解決不了的完全自主智能。這是與當前很多機器學習,特別是深度學習完全不同的機制。

  那我們如何向烏鴉一樣聰明呢?其實可以採用一些搜索進化算法的辦法來解決

  首先我們很確定的知道,建造一個和烏鴉的腦子一樣強大的電腦是可能的——我們的大腦就是證據。但如果太難完全模擬,那麼我們可以模擬出烏鴉大腦的演化過程。

  這種方法叫作「基因算法」。它建立一個反覆運作的表現/評價過程,就好像生物通過生存這種方式來表現,並且以能否生養後代為評價一樣。一組電腦將執行各種任務,最成功的將會「繁殖」,把各自的程序融合,產生新的電腦,而不成功的將會被剔除。經過多次的反覆後,挑選出最接近於樣本的甚至超越樣本的電腦。

  這個方法的缺點也很明顯,人類主導的演化會比自然快很多很多,演化需要經過幾十億年的時間,而我們卻只想花幾十年時間,因此我們現階段具備的技術優勢是否能使模擬演化可行還有待商榷。

  電影中的杜立德博士因為動物而重拾了快樂,他們始終平等而坦誠。但現實生活的殘酷在於,人工智能的受益方是人,「獸工智能」也是。

  【完】

  智能相對論(微信id:aixdlun):深挖人工智能這口井,評出鹹淡,講出黑白,道出深淺。重點關注領域:AI+醫療、機械人、智能駕駛、AI+硬件、物聯網、AI+金融、AI+安全、AR/VR、開發者以及背後的晶片、算法、人機交互等。


本文來源:http://new.qq.com/omn/20180418A0PM2R.html

本文固定鏈接: http://www.makeup-time.com/108753.html
轉載請注明:STEPHANIE 2018-05-27 16:19:13 於 綜合資訊站 發表

上一篇: :下一篇
返回頂部