行人檢測作為計算機視覺領(lǐng)域最基本的主題之一,多年來被廣泛研究。盡管最先進的行人檢測器已在無遮擋行人上取得了超過 90% 的準確率,但在嚴重遮擋行人檢測上依然無法達到滿意的效果。究其根源,主要存在以下兩個難點:
嚴重遮擋的行人框大部分為背景,檢測器難以將其與背景類別區(qū)分;
給定一個遮擋行人框,檢測器無法得到可見區(qū)域的信息;
Tube Feature Aggregation Network(TFAN)新方法,即利用時序信息來輔助當前幀的遮擋行人檢測,目前該方法已在 Caltech 和 NightOwls 兩個數(shù)據(jù)集取得了業(yè)界領(lǐng)先的準確率。
核心思路
利用時序信息輔助當前幀遮擋行人檢測
目前大部分行人檢測工作都集中于靜態(tài)圖像檢測,但在實際車路環(huán)境中大部分目標都處于運動狀態(tài)。針對嚴重遮擋行人的復雜場景,單幀圖像難以提供足夠有效的信息。為了優(yōu)化遮擋場景下行人的識別,地平線團隊提出通過相鄰幀尋找無遮擋或少遮擋目標,對當前圖像中的遮擋行人識別進行輔助檢測。
實驗新方法
Proposal tube 解決嚴重遮擋行人檢測
如下圖,給定一個視頻序列,首先對每幀圖像提取特征并使用 RPN(Region Proposal Network)網(wǎng)絡(luò)生成 proposal 框。從當前幀的某個 proposal 框出發(fā),依次在相鄰幀的空間鄰域內(nèi)尋找最相似的proposal框并連接成 proposal tube。
姚霆指出,當前的多模態(tài)技術(shù)還是屬于狹隘的單任務(wù)學習,整個訓練和測試的過程都是在封閉和靜態(tài)的環(huán)境下進行,這就和真實世界中開放動態(tài)的應(yīng)用場景存在一定的差異性
優(yōu)酷智能檔突破“傳統(tǒng)自適應(yīng)碼率算法”的局限,解決視頻觀看體驗中高清和流暢的矛盾
通過使用仿真和量化指標,使基準測試能夠通用于許多操作領(lǐng)域,但又足夠具體,能夠提供系統(tǒng)的有關(guān)信息
基于內(nèi)容圖譜結(jié)構(gòu)化特征與索引更新平臺,在結(jié)構(gòu)化方面打破傳統(tǒng)的數(shù)倉建模方式,以知識化、業(yè)務(wù)化、服務(wù)化為視角進行數(shù)據(jù)平臺化建設(shè),來沉淀內(nèi)容、行為、關(guān)系圖譜,目前在優(yōu)酷搜索、票票、大麥等場景開始進行應(yīng)用
NVIDIA解決方案架構(gòu)師王閃閃講解了BERT模型原理及其成就,NVIDIA開發(fā)的Megatron-BERT
自然語言處理技術(shù)的應(yīng)用和研究領(lǐng)域發(fā)生了許多有意義的標志性事件,技術(shù)進展方面主要體現(xiàn)在預訓練語言模型、跨語言 NLP/無監(jiān)督機器翻譯、知識圖譜發(fā)展 + 對話技術(shù)融合、智能人機交互、平臺廠商整合AI產(chǎn)品線
下一個十年,智能人機交互、多模態(tài)融合、結(jié)合領(lǐng)域需求的 NLP 解決方案建設(shè)、知識圖譜結(jié)合落地場景等將會有突破性變化
中國移動聯(lián)合產(chǎn)業(yè)合作伙伴發(fā)布《室內(nèi)定位白皮書》,對室內(nèi)定位產(chǎn)業(yè)發(fā)展現(xiàn)狀及面臨的挑戰(zhàn),深入分析了垂直行業(yè)的室內(nèi)定位需求,并詳細闡述了實現(xiàn)室內(nèi)定位的技術(shù)原理, 及室內(nèi)定位評測體系
機器人、無人機、自動駕駛汽車等加快落地,智慧城市深入建設(shè),更是為傳感器產(chǎn)業(yè)帶來了難以估量的龐大機遇
Cosero是德國波恩大學的Sven Behnke團隊根據(jù)家庭環(huán)境中的日常操作任務(wù)而研制的一款仿人操作機器人基于深度學習方法的目標姿態(tài)估計和RGB-D SLAM等感知測量
機器人的學習分為三個部分的軌跡預測包括示教者的手部運動軌跡、示教者的身體移動軌跡以及被操作物體的運動軌跡
通過2D激光雷達信息采用Hector SLAM實現(xiàn)機器人對地圖的感知和自主導航規(guī)劃,通過頂部的RGB-D相機采集目標物體深度和RGB圖像信息