#本文僅代表作者觀點(diǎn),不代表IPRdaily立場(chǎng)#
原標(biāo)題:2018年人工智能領(lǐng)域研發(fā)熱點(diǎn)回眸
引言
從2006年加拿大Hinton教授提出深度學(xué)習(xí)技術(shù)開(kāi)始[1],到2012年ImageNet競(jìng)賽在圖像識(shí)別領(lǐng)域帶來(lái)的突破[2],如今,人工智能的第三次發(fā)展浪潮到來(lái)。不同于80年代隨著神經(jīng)網(wǎng)絡(luò)而來(lái)的技術(shù)進(jìn)步無(wú)法走進(jìn)現(xiàn)實(shí)的困境,這一次的發(fā)展浪潮真正帶來(lái)了技術(shù)的落地,商業(yè)化道路也走得更加順暢。隨后的每一年,人工智能技術(shù)都在突飛猛進(jìn)地發(fā)展,應(yīng)用成果如雨后春筍般涌現(xiàn)。海量的數(shù)據(jù),不斷優(yōu)化的算法,以及與之匹配發(fā)展的計(jì)算機(jī)運(yùn)算能力,都為更多的發(fā)展可能性及應(yīng)用可能性提供了廣闊的舞臺(tái)。而隨著人工智能在越來(lái)越多的方面落地,人們?cè)絹?lái)越多地感受到人工智能對(duì)于生活的改變,接受程度逐漸提升。
01 人機(jī)融合智能
除了技術(shù)產(chǎn)品化的道路拓寬以外,當(dāng)下的人工智能還有許多亟待發(fā)展和研究的方向。它的以下特點(diǎn)推動(dòng)它在第三次發(fā)展浪潮中前往更具突破性的階段,分別為:從人工知識(shí)表達(dá)技術(shù)到大數(shù)據(jù)驅(qū)動(dòng)知識(shí)學(xué)習(xí);從處理單一的數(shù)據(jù)到跨媒體認(rèn)識(shí)、學(xué)習(xí)和推理;從追求“機(jī)器智能”到邁向人機(jī)混合的增強(qiáng)智能;從聚焦“個(gè)體智能”到基于互聯(lián)網(wǎng)絡(luò)的群體智能;從機(jī)器人到自主無(wú)人系統(tǒng)[3]。
其中,人機(jī)混合的增強(qiáng)智能即為將人類(lèi)智能與人工智能進(jìn)行結(jié)合,邁向新的智能階段,此為人機(jī)融合智能。近年來(lái),人機(jī)融合越來(lái)越成為人工智能領(lǐng)域的熱詞。2018年10月11日,美國(guó)“防務(wù)一號(hào)”網(wǎng)站發(fā)表刊文表示美國(guó)軍方高級(jí)情報(bào)員越來(lái)越擔(dān)心中國(guó)在人工智能等“提升人類(lèi)效率”方面的研究[4]。美國(guó)國(guó)防情報(bào)局(DIA)局長(zhǎng)羅伯特?阿什利(Robert Ashley)在舉行的美國(guó)陸軍協(xié)會(huì)(Association of the U.S. Army)年度會(huì)議上表示,“人機(jī)融合”是顛覆性技術(shù)的一個(gè)“關(guān)鍵領(lǐng)域”,將會(huì)影響美國(guó)的國(guó)家安全。他認(rèn)為“中國(guó)在研究神經(jīng)網(wǎng)絡(luò)和人工智能方面所作的努力是一個(gè)分階段的過(guò)程,希望最終達(dá)到‘人與機(jī)器的融合’的程度”[5]。
圖1 機(jī)器人向著人機(jī)融合的方向發(fā)展[4]
Fig. 1 Robot is developing towards the direction of human-machine fusion
在人工智能研究的領(lǐng)域,更快的計(jì)算并不是我們希望達(dá)到的最終目的,而讓計(jì)算機(jī)變得越來(lái)越與人融合,最終達(dá)到人機(jī)融合智能,才是最終的發(fā)展方向。當(dāng)前人工智能雖然普及了眾多的應(yīng)用形式,但是依然以計(jì)算為中心、難以突破意識(shí)壁壘,而能夠融合意識(shí)與計(jì)算特性的人類(lèi)智能和人工智能融合智能體,即為人機(jī)融合智能。
人機(jī)融合智能研究是智能技術(shù)發(fā)展到一定程度的產(chǎn)物,它既包括人工智能的技術(shù)研究,也包括機(jī)器與人、機(jī)器與環(huán)境及人、機(jī)、環(huán)境之間關(guān)系的探索。人機(jī)融合智能研究不僅僅要考慮機(jī)器技術(shù)的高速發(fā)展,更要考慮交互主體-人類(lèi)的思維與認(rèn)知方式,讓機(jī)器與人類(lèi)各司其職,互相促進(jìn),這才是人工智能真正的前景與趨勢(shì)[6]。
02 群體智能
在上文中提到的人工智能發(fā)展的特點(diǎn)中,人工智能是從聚焦“個(gè)體智能”到基于互聯(lián)網(wǎng)絡(luò)的群體智能。群體智能是源于對(duì)螞蟻、蜜蜂等為代表的社會(huì)性昆蟲(chóng)的群體行為的研究,最早被用在細(xì)胞機(jī)器人系統(tǒng)的描述中。它具有分布式無(wú)中心的控制,并且群體自組織性[7]。
在自然界中,集群的方式可以讓簡(jiǎn)單的生物展現(xiàn)出驚人的復(fù)雜性、效率甚至創(chuàng)造力。在人工智能領(lǐng)域,可以通過(guò)這種方法產(chǎn)生一種新的智能,像超級(jí)專(zhuān)家一樣“共同思考”。通過(guò)隨機(jī)擴(kuò)散搜索、蟻群優(yōu)化、粒子群優(yōu)化等算法,群體智能已應(yīng)用在了無(wú)線(xiàn)通信、醫(yī)療、無(wú)人駕駛、藝術(shù)創(chuàng)作等方面[8]。
如今,Unanimous A.I.公司就在致力于研究群體智能,希望能夠?qū)?shù)百人的知識(shí)、智慧、洞察以及知覺(jué)通過(guò)算法連接起來(lái)。該公司研制的SWARM平臺(tái)等軟件可以通過(guò)實(shí)時(shí)閉環(huán)控制系統(tǒng)將分布式網(wǎng)絡(luò)組織成“人群”,能夠聚集人類(lèi)參與者的集體智慧以得出意見(jiàn)。它成功預(yù)測(cè)了奧斯卡,超級(jí)碗比賽,以及法國(guó)大選的結(jié)果[9]。該系統(tǒng)對(duì)2017-2018賽季20周的NHL曲棍球比賽進(jìn)行了預(yù)測(cè),得到了85%的成功率,超過(guò)了維加斯博彩市場(chǎng)的22%[10]。除了比賽和票選等預(yù)測(cè)活動(dòng),該群體智能方法還應(yīng)用到了醫(yī)療領(lǐng)域,其診斷肺炎的準(zhǔn)確率比單獨(dú)工作的放射科醫(yī)生團(tuán)隊(duì)高出22%[11]。
圖2 進(jìn)行肺炎診斷的ASI(人工群體智能) [11]
Fig. 2 ASI(Artificial Swarm Intelligence) in the diagnosis of pneumonia
03 認(rèn)知計(jì)算
認(rèn)知是人與世界交互的重要過(guò)程,認(rèn)知計(jì)算旨在模仿人類(lèi)大腦的計(jì)算系統(tǒng),讓計(jì)算機(jī)像人一樣認(rèn)知和思考。只有實(shí)現(xiàn)了認(rèn)知計(jì)算,才能真正實(shí)現(xiàn)可以學(xué)習(xí)并與人類(lèi)自然交互的系統(tǒng)。從20世紀(jì)開(kāi)始,人們通過(guò)單一用途的機(jī)械系統(tǒng)指示機(jī)器的行動(dòng),此為“制表時(shí)代”;在20世紀(jì)50年代進(jìn)入了“編程時(shí)代”,人們通過(guò)編程的方式控制計(jì)算設(shè)備;從2011年起,人們就將認(rèn)知計(jì)算列為了人工智能發(fā)展的目標(biāo),開(kāi)始進(jìn)入“認(rèn)知時(shí)代”。在群體智能方面,我們借鑒了螞蟻等生物的啟示,而在認(rèn)知計(jì)算里,我們依然要聚焦于生物,研究認(rèn)知的整個(gè)過(guò)程。在認(rèn)知計(jì)算中,系統(tǒng)通過(guò)大規(guī)模的學(xué)習(xí),有目的、理性、自然地與人類(lèi)進(jìn)行互動(dòng)。認(rèn)知計(jì)算讓機(jī)器不僅僅通過(guò)編程來(lái)執(zhí)行指令,而是通過(guò)與人類(lèi)的互動(dòng)以及它們對(duì)環(huán)境的體驗(yàn)來(lái)學(xué)習(xí)和推理。它能夠模擬人類(lèi)的思維過(guò)程,理解世界的模糊性和不確定性。通過(guò)權(quán)衡來(lái)自多個(gè)來(lái)源的信息和想法,進(jìn)行推理并提供假設(shè)[12][13]。
IBM的Watson系統(tǒng)是其中最有名的認(rèn)知系統(tǒng)。它通過(guò)篩選大量的數(shù)據(jù)庫(kù)獲取信息,以問(wèn)答的形式幫助用戶(hù)回答對(duì)復(fù)雜問(wèn)題的見(jiàn)解。通過(guò)認(rèn)知計(jì)算的方式,它可以不斷地從用戶(hù)互動(dòng)中獲取數(shù)據(jù),變得更加聰明。它目前已經(jīng)成為了一個(gè)具有認(rèn)知計(jì)算能力的生態(tài)系統(tǒng),可不斷地衍生出各種行業(yè)解決方案,被應(yīng)用于醫(yī)療、天氣預(yù)測(cè)法律顧問(wèn)等方面。今年該平臺(tái)被用在了教育領(lǐng)域,瑞典的一個(gè)研究小組開(kāi)發(fā)出了一個(gè)使用IBM Watson系統(tǒng)的學(xué)習(xí)并行編程的助手,在實(shí)際教學(xué)實(shí)驗(yàn)中獲得了學(xué)生的好評(píng)[14]。
認(rèn)知計(jì)算的發(fā)展需要我們不斷地對(duì)人的認(rèn)知過(guò)程進(jìn)行研究。其中,態(tài)勢(shì)感知的研究也屬于認(rèn)知計(jì)算領(lǐng)域。態(tài)勢(shì)感知將人的認(rèn)知過(guò)程分為三個(gè)獨(dú)立的層次,分別為:對(duì)環(huán)境中元素的感知,對(duì)當(dāng)前形勢(shì)的理解,對(duì)未來(lái)狀況的預(yù)測(cè)[15]。通過(guò)建模和結(jié)構(gòu)化的思想,可以將人的認(rèn)知過(guò)程量化為態(tài)勢(shì)感知程度。除此之外,人們也在不斷的通過(guò)其他方式對(duì)人類(lèi)的認(rèn)知過(guò)程進(jìn)行量化,試圖通過(guò)計(jì)算機(jī)來(lái)進(jìn)行模擬和計(jì)算。認(rèn)知學(xué)可能是人工智能下一步發(fā)展的突破口。
04 情感計(jì)算
在計(jì)算機(jī)的認(rèn)知、學(xué)習(xí)、記憶和言語(yǔ)的水平都在逐漸提高的同時(shí),我們也必須意識(shí)到,讓計(jì)算機(jī)具有能夠感知和理解人的情感,并且針對(duì)人的情感做出相應(yīng)合適反應(yīng)的能力,是讓計(jì)算機(jī)具有更高的、全面的智能的必經(jīng)之路。早在2006年,在Minsky的著作《情感機(jī)器》中就提出“人工智能=認(rèn)知智能+情感智能”的說(shuō)法[16]。情感計(jì)算的加入能夠大大拓寬人工智能的應(yīng)用領(lǐng)域。根據(jù)手段的不同,情感計(jì)算研究主要分為基于視覺(jué),基于語(yǔ)音,基于文本及基于腦補(bǔ)信息和多模態(tài)信息的情感分析。
圖3 通過(guò)多種可穿戴運(yùn)動(dòng)傳感器捕捉微妙的心臟運(yùn)動(dòng)[18]
Fig. 3 Capture subtle cardiac motions by multiple
wearable motion sensors
許多研究機(jī)構(gòu)及情感計(jì)算工具公司都在不斷對(duì)情感計(jì)算領(lǐng)域進(jìn)行探索,例如:麻省理工學(xué)院媒體實(shí)驗(yàn)室,Microsoft VIBE團(tuán)隊(duì),Emotient公司等。他們力求達(dá)到更精準(zhǔn)的情緒識(shí)別,并且不斷開(kāi)拓新的應(yīng)用領(lǐng)域。從研究設(shè)備上,由于得到更多樣的可穿戴設(shè)備支持,今年有許多有關(guān)可穿戴設(shè)備進(jìn)行情感測(cè)量的研究涌現(xiàn),例如:通過(guò)可穿戴設(shè)備獲取運(yùn)動(dòng)心率進(jìn)行情感評(píng)估[17],或進(jìn)行壓力和睡眠評(píng)估[18];還有在皮膚布置傳感器的表皮機(jī)器人作為新的可穿戴設(shè)備[19]。從技術(shù)上,深度學(xué)習(xí)也大量應(yīng)用在了情感計(jì)算上。例如:將CaltureNet方法應(yīng)用于對(duì)自閉癥兒童的面部情感識(shí)別[20];將深度卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于語(yǔ)音頻譜圖上進(jìn)行語(yǔ)音情感分析[21]。從情緒的研究上,也有更多針對(duì)心理疾病的專(zhuān)門(mén)研究,例如:自殺沖動(dòng)的數(shù)字化表征研究[22];能夠影響和參與自閉癥治療的機(jī)器人感知研究[23]。更加多元化的研究方向,以及更加專(zhuān)門(mén)的應(yīng)用領(lǐng)域的研究,標(biāo)志著情感計(jì)算的發(fā)展也在不斷走向成熟。
05 智能機(jī)器人
過(guò)去幾年,波士頓動(dòng)力公司一直引領(lǐng)著機(jī)器人動(dòng)作控制的發(fā)展。在2017年,該公司的人形機(jī)器人Atlas已經(jīng)可以進(jìn)行完美的后空翻,而今年它又展示了令人驚嘆的跑酷特技表演[24]。在該公司今年新公布的視頻中,Atlas可以跳上多層的平臺(tái),將重心從右腳移到左腳,在上臺(tái)階時(shí)又將重心移回左腳。除此之外,Atlas今年還可以走出倉(cāng)庫(kù),在草坪上進(jìn)行跑步動(dòng)作,這證明了該機(jī)器人在不平坦地面上的平衡性,穩(wěn)定型以及導(dǎo)航能力。截止到目前,Atlas已經(jīng)可以完成拿起和放下箱子,跳過(guò)障礙物,在人類(lèi)的干擾推動(dòng)中保持平衡等等高難度行為[25]。
圖4 波士頓動(dòng)力公司Atlas機(jī)器人 [25]
Fig. 4 Atlas of Boston Dynamics
同樣產(chǎn)生于波士頓動(dòng)力公司的SpotMini曾經(jīng)是機(jī)器人領(lǐng)域最火的四足機(jī)器人,而今年,ANYbotics公司的ANYmal吸引了人們的眼球。它具有很強(qiáng)的自動(dòng)移動(dòng)和操作能力,能夠安全地與環(huán)境交互,適用于室內(nèi)外場(chǎng)所的檢查操作,在自然地形等進(jìn)行搜索或救援任務(wù),還能進(jìn)行舞臺(tái)娛樂(lè)活動(dòng)[26]。今年ANYmal在位于大西洋東北部的北海的海上配電平臺(tái)進(jìn)行了為期一周的檢查實(shí)驗(yàn),它能夠進(jìn)行儀表、杠桿、油、水位,各種視覺(jué)和熱測(cè)量等檢查[27]。隨著機(jī)器人技術(shù)的發(fā)展,機(jī)器人的職業(yè)功能實(shí)現(xiàn)的越來(lái)越好,越來(lái)越多的人類(lèi)工作可能會(huì)被機(jī)器人取代。同時(shí),機(jī)器人也能夠更加準(zhǔn)確地模擬人類(lèi)的動(dòng)作,我們可以預(yù)見(jiàn),未來(lái)將有更多的仿生機(jī)器人能夠被創(chuàng)造出來(lái)。人類(lèi)與機(jī)器人共存,與機(jī)器人進(jìn)行合作甚至融合的時(shí)代,總有一天會(huì)來(lái)到。
圖5 ANYbotics公司的ANYmal機(jī)器人[26]
Fig. 5 ANYmal of ANYbotics
06 智慧城市
隨著城市體量變得越來(lái)越大,規(guī)劃和管理也變得越來(lái)越復(fù)雜,世界各地的許多城市規(guī)劃?rùn)C(jī)構(gòu)都已經(jīng)開(kāi)始將數(shù)字化作為解決城市問(wèn)題的手段。因此人工智能技術(shù)也具有了更多的應(yīng)用場(chǎng)景。智慧城市的普及和建設(shè),能夠提升城市中資源運(yùn)用的效率,優(yōu)化城市管理和服務(wù),緩解“大城市病”,從整體上改善市民的生活質(zhì)量。目前,智慧城市技術(shù)和規(guī)劃已經(jīng)在新加坡,迪拜,阿姆斯特丹,巴塞羅那,紐約等各國(guó)家和城市實(shí)現(xiàn)。而在中國(guó),從2017年黨的十九大報(bào)告中提出建設(shè)智慧社會(huì)以來(lái),已有290個(gè)城市入選了國(guó)家智慧城市試點(diǎn)。17年底,雄安新區(qū)也與百度共同打造智能出行試點(diǎn)示范,希望共同將雄安新區(qū)打造為AI City智能城市新標(biāo)桿[28]。
在迅速發(fā)展的浪潮中,智慧城市也存在著一些問(wèn)題。根據(jù)文獻(xiàn)分析和調(diào)查顯示,在智慧城市的發(fā)展規(guī)劃討論中,人們更多關(guān)注于技術(shù)的使用和實(shí)施,對(duì)于城市居民的具體情況和他們?nèi)绾螀⑴c智慧城市的發(fā)展過(guò)程等問(wèn)題考慮不足[29]。在一些智慧城市的建設(shè)過(guò)程中,甚至?xí)捎趯?duì)傳統(tǒng)的破壞而遭到當(dāng)?shù)鼐用竦姆磳?duì),例如墨西哥的托蘭特辛特拉[30]。有一些問(wèn)題可能會(huì)由于規(guī)劃者無(wú)視城市的實(shí)際發(fā)展造成,這可能導(dǎo)致發(fā)展計(jì)劃對(duì)公民缺少吸引力。在后續(xù)更多人工智能應(yīng)用落地的過(guò)程中,需要更加腳踏實(shí)地,加強(qiáng)對(duì)居民的溝通和宣傳,更多的讓技術(shù)的實(shí)際惠及者——城市公民參與進(jìn)智慧城市的規(guī)劃和設(shè)計(jì)中,打造更高滿(mǎn)意度,真正提升城市效率的智慧城市。
07 人工智能醫(yī)療
在醫(yī)療領(lǐng)域,不斷進(jìn)步的模式識(shí)別技術(shù)和深度學(xué)習(xí)算法催生出了許多輔助醫(yī)療設(shè)備及技術(shù)。在很多醫(yī)療場(chǎng)景下,人工智能的加入都帶來(lái)了效果的提升。這些設(shè)備有一些能夠獨(dú)立進(jìn)行判斷輸出結(jié)果,有一些能夠輔助醫(yī)生進(jìn)行決策和操作。在人工智能醫(yī)療預(yù)測(cè)場(chǎng)景,加拿大的一項(xiàng)針對(duì)前列腺切除術(shù)后康復(fù)情況的預(yù)測(cè)實(shí)驗(yàn)中,機(jī)器學(xué)習(xí)算法比傳統(tǒng)的統(tǒng)計(jì)模型表現(xiàn)出了很好的效果,預(yù)測(cè)更準(zhǔn)確。在推行自動(dòng)預(yù)測(cè)工具后,人工智能醫(yī)療可針對(duì)患者進(jìn)行個(gè)性化的治療[31]。
人工智能的應(yīng)用越來(lái)越優(yōu)化,人們開(kāi)始思考和探討醫(yī)生職業(yè)的可替代性。在輔助設(shè)備的效果評(píng)價(jià)上,眾多的實(shí)驗(yàn)開(kāi)始將其與人類(lèi)醫(yī)生的手法進(jìn)行比較評(píng)價(jià)。不過(guò)在大部分的實(shí)驗(yàn)結(jié)果中,人類(lèi)醫(yī)生的表現(xiàn)依然優(yōu)于人工智能的表現(xiàn)。在德國(guó)的一項(xiàng)實(shí)驗(yàn)中,針對(duì)皮膚鏡黑瘤識(shí)別任務(wù),包括30名專(zhuān)家在內(nèi)的58位皮膚科醫(yī)生中,大部分醫(yī)生的表現(xiàn)均優(yōu)于卷積神經(jīng)網(wǎng)絡(luò)。但是無(wú)論醫(yī)生的經(jīng)驗(yàn)如何,他們均能從人工智能輔助圖像分類(lèi)設(shè)備中受益[32]。
在診斷、治療、醫(yī)療流程輔助、健康管理、藥物研發(fā)等方面,人工智能均有很大發(fā)展?jié)摿?。人工智能的參與能夠減輕和優(yōu)化醫(yī)生的工作,讓更多的人可以享受到更高水平的醫(yī)療。
越來(lái)越多的人工智能應(yīng)用的落地,在各個(gè)領(lǐng)域都在為人們的生活帶來(lái)可見(jiàn)的提升。人們對(duì)于新技術(shù)應(yīng)用的意識(shí)提高,構(gòu)建了一個(gè)更加以用戶(hù)創(chuàng)新、開(kāi)放創(chuàng)新、大眾創(chuàng)新、協(xié)同創(chuàng)新為特征的創(chuàng)新生態(tài)。人工智能也依然處在飛速發(fā)展中,向著“可知”、“可控”、“可用”、“可靠”的方向發(fā)展[33]。通過(guò)未來(lái)地不斷研究,希望人與人工智能不斷融合,向著真正的強(qiáng)人工智能邁進(jìn)一步。
參考文獻(xiàn)(References)
[1] Hinton G E, Osindero S, Teh Y W. A fast learning
algorithm for deep belief nets[J]. Neural computation, 2006, 18(7): 1527-1554.
[2] Krizhevsky A, Sutskever I, Hinton G E. Imagenet
classification with deep convolutional neural networks[C]//Advances in neural
information processing systems. 2012: 1097-1105.
[3] 吳飛, 陽(yáng)春華, 蘭旭光, et al. 人工智能的回顧與展望[J]. 中國(guó)科學(xué)基金, 65535(3).
[4] Patrick Tucker. Defense Intel Chief Worried About
Chinese ‘Integration of Human and Machines’[EB/OL].2018/12/26].https://www.defenseone.com/technology/2018/10/defense-intel-chief-worried-about-chinese-integration-human-and-machines/151904/.
[5]Robert Ashley [EB/OL]. 2018-10-10 [2018/12/26]https://www.ausa.org/ausa2018.
[6] 劉偉. 人機(jī)智能融合:人工智能發(fā)展的未來(lái)方向[J]. 人民論壇·學(xué)術(shù)前沿, 2017(20):32-38.
[7] Beni G, Wang J. Swarm intelligence in cellular robotic
systems[M]//Robots and Biological Systems: Towards a New Bionics?. Springer,
Berlin, Heidelberg, 1993: 703-712.
[8] Kennedy J. Swarm intelligence[M]//Handbook of nature-inspired
and innovative computing. Springer, Boston, MA, 2006: 187-219.
[9][EB/OL][2018/12/26]https://unanimous.ai/publications/
[10] Louis Rosenberg, Gregg Willcox. Artificial Swarm
Intelligence vs Vegas Betting Markets[EB/OL][2018/12/26]. https://11s1ty2quyfy2qbmao3bwxzc-wpengine.netdna-ssl.com/wp-content/uploads/2018/08/Artificial-Swarm-Intelligence-vs-Vegas-Betting-Markets-DeSE2018-f3.pdf.
[11] Rosenberg L, Willcox G, Halabi S. Artificial Swarm
Intelligence employed to Amplify Diagnostic Accuracy in Radiology[J]. EMCON
2018, 2018: 6.
[12] Thorsten Schroeer, Cognitive computing: Hello Watson
on the shop floor [EB/OL] 2017-05-09 [2018/12/26]. https://www.ibm.com/blogs/internet-of-things/iot-cognitive-computing-watson/.
[13] Kelly J E. Computing, cognition and the future of
knowing[J]. Whitepaper, IBM Reseach, 2015: 2.
[14] Memeti S , Pllana S . PAPA: A Parallel Programming
Assistant Powered by IBM Watson Cognitive Computing Technology[J]. Journal of
Computational Science, 2018:S1877750317311493.
[15] Endsley M R. Toward a theory of situation awareness in
dynamic systems[J]. Human factors, 1995, 37(1): 32-64.
[16] Minsky M. The emotion machine[J]. New York: Pantheon,
2006, 56.
[17] Hernandez J, McDuff D, Quigley K S, et al. Wearable
Motion-based Heart-rate at Rest: A Workplace Evaluation[J]. IEEE journal of
biomedical and health informatics, 2018.
[18] Sano,A., Taylor,S., Jaques,N., Chen,W.,
Lopez-Martinez,D., Nosakhare,E., Rudovic,O., Umematsu,T., and Picard,R., Mood,
Stress and Sleep Sensing with Wearable Sensors and Mobile Phone[C]// The 40th
International Conference of the IEEE Engineering in Medicine and Biology
Society (EMBC), 2018.
[19] Dementyev A, Hernandez J, Choi I, et al. Epidermal
Robots: Wearable Sensors That Climb on the Skin[J]. Proceedings of the ACM on
Interactive, Mobile, Wearable and Ubiquitous Technologies, 2018, 2(3): 102.
[20] Ferrer E C, Schuller B, Picard R W. CultureNet: A Deep
Learning Approach for Engagement Intensity Estimation from Face Images of
Children with Autism[J].
[21] Zhang S, Zhang S, Huang T, et al. Speech Emotion Recognition Using Deep Convolutional
Neural Network and Discriminant Temporal Pyramid Matching[J]. IEEE Transactions
on Multimedia, 2018, 20(6): 1576-1590.
[22] Kleiman E M, Turner B J, Fedor S, et al. Digital phenotyping of suicidal thoughts[J].
Depression and anxiety, 2018. Rudovic O, Lee J, Dai M, et al.
[23] Personalized machine learning for robot perception of
affect and engagement in autism therapy[J]. arXiv preprint arXiv:1802.01186,
2018.
[24] Sam Blum, Boston Dynamics’ Atlas Can Now Chase You Up
the Stairs [EB/OL] 2018-10-12[2018/12/26]. https://www.popularmechanics.com/technology/robots/a23725726/boston-dynamics-atlas-parkour/.
[25][EB/OL][2018/12/26] https://www.bostondynamics.com/atlas.
[26][EB/OL][2018/12/26] https://www.anybotics.com/anymal/.
[27] Péter Fankhauser, World’s First Autonomous Offshore
Robot[EB/OL] 2018-10-25 [2018/12/26] https://www.anybotics.com/2018/10/25/worlds-first-autonomous-offshore-robot/
[28]魯暢,高博,雄安新區(qū)與百度將共同打造智能出行試點(diǎn)示范[EB/OL]2018/12/26. http://www.xinhuanet.com/fortune/2017-12/20/c_1122143193.htm.
[29] Marrone M , Hammerle M . Smart Cities: A Review and
Analysis of Stakeholders’ Literature[J]. Business & Information Systems
Engineering, 2018.
[30] Madeleine Wattenbarger, The Mexican town that refused
to become a smart city [EB/OL] 2018-10-16 [2018/12/26] https://www.theguardian.com/cities/2018/oct/16/the-mexican-town-that-refused-to-become-a-smart-city.
[31] Wong N C, Lam C, Patterson L, et al. Use of machine
learning to predict early biochemical recurrence after robot‐assisted prostatectomy[J]. BJU
international, 2018.
[32] Haenssle H A , Fink C , Schneiderbauer R , et al. Man
against machine: diagnostic performance of a deep learning convolutional neural
network for dermoscopic melanoma recognition in comparison to 58
dermatologists[J]. Annals of Oncology, 2018.
[33]周琳,胡喆,林小春,“中國(guó)智,世界能”[N].浙江日?qǐng)?bào),2018/12/26,http://society.people.com.cn/n1/2018/0920/c1008-30305072.html
來(lái)源:《科技導(dǎo)報(bào)》2019
作者:劉偉 倪桑
編輯:IPRdaily趙珍 校對(duì):IPRdaily縱橫君
“投稿”請(qǐng)投郵箱“iprdaily@163.com”
「關(guān)于IPRdaily」
IPRdaily成立于2014年,是全球影響力的知識(shí)產(chǎn)權(quán)媒體+產(chǎn)業(yè)服務(wù)平臺(tái),致力于連接全球知識(shí)產(chǎn)權(quán)人,用戶(hù)匯聚了中國(guó)、美國(guó)、德國(guó)、俄羅斯、以色列、澳大利亞、新加坡、日本、韓國(guó)等15個(gè)國(guó)家和地區(qū)的高科技公司、成長(zhǎng)型科技企業(yè)IP高管、研發(fā)人員、法務(wù)、政府機(jī)構(gòu)、律所、事務(wù)所、科研院校等全球近50多萬(wàn)產(chǎn)業(yè)用戶(hù)(國(guó)內(nèi)25萬(wàn)+海外30萬(wàn));同時(shí)擁有近百萬(wàn)條高質(zhì)量的技術(shù)資源+專(zhuān)利資源,通過(guò)媒體構(gòu)建全球知識(shí)產(chǎn)權(quán)資產(chǎn)信息第一入口。2016年獲啟賦資本領(lǐng)投和天使匯跟投的Pre-A輪融資。
(英文官網(wǎng):iprdaily.com 中文官網(wǎng):iprdaily.cn)
本文來(lái)自《科技導(dǎo)報(bào)》2019并經(jīng)IPRdaily.cn中文網(wǎng)編輯。轉(zhuǎn)載此文章須經(jīng)權(quán)利人同意,并附上出處與作者信息。文章不代表IPRdaily.cn立場(chǎng),如若轉(zhuǎn)載,請(qǐng)注明出處:“http://islanderfriend.com/”
文章不錯(cuò),犒勞下辛苦的作者吧