Cosero[1]是德國(guó)波恩大學(xué)的Sven Behnke團(tuán)隊(duì)根據(jù)家庭環(huán)境中的日常操作任務(wù)而研制的一款仿人操作機(jī)器人(如圖1(a)(b))。機(jī)器人底部配備了四輪獨(dú)立轉(zhuǎn)向行走機(jī)構(gòu),以便在靈活的通過(guò)狹窄通道,上部配備了兩個(gè)7自由度機(jī)械臂已完成擬人的操作,并在夾持器末端裝有紅外測(cè)距傳感器已達(dá)到對(duì)抓取目標(biāo)的距離探測(cè),在頂端安裝有Kinect相機(jī),以實(shí)現(xiàn)對(duì)目標(biāo)環(huán)境的3D感知。Cosero通過(guò)底盤(pán)的激光雷達(dá)進(jìn)行導(dǎo)航和定位,采用法線估計(jì)和場(chǎng)景分割相結(jié)合的方法對(duì)目標(biāo)進(jìn)行3D點(diǎn)云分割,采用無(wú)碰撞抓取方法[1]對(duì)目標(biāo)物體進(jìn)行抓取(如圖1(c)(d))。在論文[2]中,作者運(yùn)用Cosero進(jìn)行零件分揀搬運(yùn)實(shí)驗(yàn),通過(guò)2D激光雷達(dá)導(dǎo)航到作業(yè)點(diǎn),通過(guò)RGB-D相機(jī)對(duì)目標(biāo)進(jìn)行識(shí)別分割,規(guī)劃抓取路徑和抓取姿態(tài)估計(jì)(如圖1(e))。在論文[3]中,作者采用深度學(xué)習(xí)方法對(duì)目標(biāo)進(jìn)行姿態(tài)估計(jì),并完成了提壺灌溉,人機(jī)交互和使用工具等復(fù)雜任務(wù)(如圖1(f))。Schwarz[4]介紹了Cosero基于深度學(xué)習(xí)方法的目標(biāo)姿態(tài)估計(jì)和RGB-D SLAM等感知測(cè)量。
機(jī)器人、無(wú)人機(jī)、自動(dòng)駕駛汽車等加快落地,智慧城市深入建設(shè),更是為傳感器產(chǎn)業(yè)帶來(lái)了難以估量的龐大機(jī)遇
中國(guó)移動(dòng)聯(lián)合產(chǎn)業(yè)合作伙伴發(fā)布《室內(nèi)定位白皮書(shū)》,對(duì)室內(nèi)定位產(chǎn)業(yè)發(fā)展現(xiàn)狀及面臨的挑戰(zhàn),深入分析了垂直行業(yè)的室內(nèi)定位需求,并詳細(xì)闡述了實(shí)現(xiàn)室內(nèi)定位的技術(shù)原理, 及室內(nèi)定位評(píng)測(cè)體系
下一個(gè)十年,智能人機(jī)交互、多模態(tài)融合、結(jié)合領(lǐng)域需求的 NLP 解決方案建設(shè)、知識(shí)圖譜結(jié)合落地場(chǎng)景等將會(huì)有突破性變化
自然語(yǔ)言處理技術(shù)的應(yīng)用和研究領(lǐng)域發(fā)生了許多有意義的標(biāo)志性事件,技術(shù)進(jìn)展方面主要體現(xiàn)在預(yù)訓(xùn)練語(yǔ)言模型、跨語(yǔ)言 NLP/無(wú)監(jiān)督機(jī)器翻譯、知識(shí)圖譜發(fā)展 + 對(duì)話技術(shù)融合、智能人機(jī)交互、平臺(tái)廠商整合AI產(chǎn)品線
NVIDIA解決方案架構(gòu)師王閃閃講解了BERT模型原理及其成就,NVIDIA開(kāi)發(fā)的Megatron-BERT
基于內(nèi)容圖譜結(jié)構(gòu)化特征與索引更新平臺(tái),在結(jié)構(gòu)化方面打破傳統(tǒng)的數(shù)倉(cāng)建模方式,以知識(shí)化、業(yè)務(wù)化、服務(wù)化為視角進(jìn)行數(shù)據(jù)平臺(tái)化建設(shè),來(lái)沉淀內(nèi)容、行為、關(guān)系圖譜,目前在優(yōu)酷搜索、票票、大麥等場(chǎng)景開(kāi)始進(jìn)行應(yīng)用
通過(guò)使用仿真和量化指標(biāo),使基準(zhǔn)測(cè)試能夠通用于許多操作領(lǐng)域,但又足夠具體,能夠提供系統(tǒng)的有關(guān)信息
優(yōu)酷智能檔突破“傳統(tǒng)自適應(yīng)碼率算法”的局限,解決視頻觀看體驗(yàn)中高清和流暢的矛盾
姚霆指出,當(dāng)前的多模態(tài)技術(shù)還是屬于狹隘的單任務(wù)學(xué)習(xí),整個(gè)訓(xùn)練和測(cè)試的過(guò)程都是在封閉和靜態(tài)的環(huán)境下進(jìn)行,這就和真實(shí)世界中開(kāi)放動(dòng)態(tài)的應(yīng)用場(chǎng)景存在一定的差異性
Tube Feature Aggregation Network(TFAN)新方法,即利用時(shí)序信息來(lái)輔助當(dāng)前幀的遮擋行人檢測(cè),目前該方法已在 Caltech 和 NightOwls 兩個(gè)數(shù)據(jù)集取得了業(yè)界領(lǐng)先的準(zhǔn)確率
根據(jù)各種指法的具體特點(diǎn),對(duì)時(shí)頻網(wǎng)格圖、時(shí)域網(wǎng)格圖、頻域網(wǎng)格圖劃分出若干個(gè)不同的計(jì)算區(qū)域,并以每個(gè)計(jì)算區(qū)域的均值與標(biāo)準(zhǔn)差作為指法自動(dòng)識(shí)別的特征使用,用于基于機(jī)器學(xué)習(xí)方法的指法自動(dòng)識(shí)別
新加坡國(guó)立大學(xué)NExT中心的王翔博士分析了知識(shí)圖譜在個(gè)性化推薦領(lǐng)域的應(yīng)用背景,并詳細(xì)介紹了課題組在個(gè)性化推薦中的相關(guān)研究技術(shù)和進(jìn)展,包括基于路徑、基于表征學(xué)習(xí)、基于圖神經(jīng)網(wǎng)絡(luò)等知識(shí)圖譜在推薦系統(tǒng)中的融合技術(shù)