機器人在交流中,很快形成『自己』的語言,監控的人無法理解。你怎麼想?

機械智能,比如下圍棋的,是不懂圍棋的人的作品,那麼,超過人是為必然,結果,對人安全嗎?有辦法保證安全嗎?
3 個回答
整木家居马龙图
2017-06-28

機器人目前還無法自動生成自己的語言。現在是類似微信公眾號的自動回覆功能。類似QQ小冰。

人類研發的機器人隨著技術智能程序的精化和升級,必然會越來越會說人類的語言。如果人類無法理解它說的話。一個是說明它自己通過計算機在進化,要警惕它自己的變異和異常行為。機器模仿人類的行為和需要最終會實現。但人類對機器人的控制力也是一個最核心的問題。

景151276607
2017-06-28

現在看到的機器之間的“交流內容”還不能認為機器之間進行了有意義的交流。機器之間的交流並不可怕,事實上許多交流是我們認為設計的。人們對機器形成『自己』的語言感到恐懼的原因是語言不僅僅是交流的工具,而且是思維的工具並且與意識有千絲萬縷的關係。人類的不同陣營正是通過語言的交流彼此瞭解個自的意圖,消除疑慮進而消除恐懼的。所以,機器在產生自己的意圖和目的之前,機器之間的語言並不可怕。然而,人們是忍不住自己的慾望的,讓自己設計的機器人具備自己的意圖或目的可能是提升自己的機器人的市場競爭力的最有效方法。考慮思維的加速回報定律,機器人一旦獲得推進自身進化的內在動機,她們超越人類可能不需要一個週末的時間。不是機器人,是人類的一些聰明人已經躍躍欲試了。

钟振余
2017-06-28

這與百度或Google上搜索"最合適"的答案一樣的原理。機器人上增加了語音識別功能,搜索答案轉換成語音表達。至於機器人能否象人一樣隨著時空變換回答也改變,或者象人一樣具有情感的回答,這是區別人和機器人的差別所在。這就是"圖靈"標準,幾十年前圖靈就已定出簡單的區分標準。

相關推薦

推薦中...