深度學(xué)習加速推進(jìn)智慧城市建設
來(lái)源:數字音視工程網(wǎng) 編輯:鐘詩(shī)倩 2017-05-03 10:48:55 加入收藏 咨詢(xún)

所在單位: | * |
姓名: | * |
手機: | * |
職位: | |
郵箱: | * |
其他聯(lián)系方式: | |
咨詢(xún)內容: | |
驗證碼: |
|
視頻結構化助力智慧城市建設
從技術(shù)角度來(lái)說(shuō),智慧城市就是感知、分析和提取城市系統的各種信息并做出相對應反饋的一整套城市管理系統,其中,原始的視頻數據是城市系統信息的重要組成部分?,F如今,海量視頻數據已成必然,需要一套可以自動(dòng)從視頻中提取結構化信息的方案,把視頻、圖像“翻譯”成機器可以理解的語(yǔ)言,并進(jìn)行保存,確保后續提供給上層應用平臺調用和處理的素材。
視頻結構化的意義
視頻或者圖像數據,從前端傳感器直接獲得,從技術(shù)上來(lái)說(shuō),是一種非結構化信息。只有在實(shí)現結構化處理之后,才能將其中有價(jià)值的數據直觀(guān)、高效的保存、處理和應用。
在智慧城市建設中,有成千上萬(wàn)路監控攝像頭或者傳感器,晝夜不停地監視或采集其他原始數據。其中,會(huì )產(chǎn)生海量的音視頻數據,需要監控管理平臺處理。即便人力充沛的情況下,面對龐大的視頻數據,要求快速、準確地從海量數據中找到有效的信息,幾乎是不可能的。受制于肉眼識別勞動(dòng)強度的極限,在發(fā)生緊急事件時(shí),人力調配和視頻資源往往存在矛盾,不依靠計算機自動(dòng)進(jìn)行篩選,必然造成貽誤戰機。
視頻結構化就是實(shí)現將海量視頻中的人、車(chē)目標進(jìn)行提取并識別的過(guò)程。一旦有重要事件發(fā)生,系統就可在數據庫中快速查找到關(guān)鍵的“人”、“車(chē)”、“物”等相關(guān)音視頻線(xiàn)索。針對海量監控視頻錄像的事后分析,傳統以人海戰術(shù)為主的視頻線(xiàn)索查找,顯然不能滿(mǎn)足高效查找,正面臨巨大挑戰,急需一種更為高效的、自動(dòng)的、智能的系統實(shí)現上述需求。
深度學(xué)習介紹
過(guò)去幾年中,得益于高速的計算芯片(GPU)及大量的標注數據,作為當下最流行的機器學(xué)習方法,深度學(xué)習在各個(gè)應用領(lǐng)域中都取得了突破性的成績(jì),未來(lái)人們會(huì )擁有大量的AI,各種為私人定制的AI,包括醫療領(lǐng)域,制造業(yè)領(lǐng)域,在商業(yè)方面也會(huì )有各式各樣的AI應用產(chǎn)生,包括:營(yíng)銷(xiāo),供應鏈,預測及人力資源等,AI會(huì )以各種不同的方式出現在我們身邊,例如:機器人,無(wú)人機和一些小型機器,AI將使機器更具智能化,使其變得更加安全易用。未來(lái)的AI發(fā)展速度將超越摩爾定律。由于幾乎所有的人工智能領(lǐng)域的問(wèn)題都可以轉化為分類(lèi)問(wèn)題,因此機器學(xué)習的基本步驟可分為如下形式:
如上圖所示機器學(xué)習是一個(gè)級聯(lián)串行結構,因此每一環(huán)節的處理結果都會(huì )影響到最后的分類(lèi)效果,在傳統的機器學(xué)習中針對其中的各個(gè)環(huán)節都有其各自獨立的算法。由于上述方法具有各自獨立性,因此傳統機器學(xué)習算法在處理問(wèn)題時(shí)需要對各個(gè)環(huán)節進(jìn)行優(yōu)化,并通過(guò)組合優(yōu)化方法在各個(gè)模塊中選取最優(yōu)的組合方式。
與傳統機器學(xué)習相比深度學(xué)習可以把機器學(xué)習中的各個(gè)部分合成一個(gè)整體結構,通過(guò)統一的訓練方法(Backpropagation)對其中所有的參數進(jìn)行調節。當前人們所指的深度學(xué)習主要是以CNN(卷積網(wǎng)絡(luò ))為核心的一系列應用算法,其算法結構如下圖所示:
上圖中的每一層都是采用卷積方式與某一卷積核進(jìn)行卷積所得到的結果,每一結果代表了從原始圖像所提取的特征,通過(guò)級聯(lián)方式對圖像或信號進(jìn)行特征提取,最后得到人們想要的分類(lèi)結果。
結合深度學(xué)習技術(shù),實(shí)現視頻結構化
在安防行業(yè)中,通過(guò)深度學(xué)習對視頻進(jìn)行結構化信息提取,完成了傳統算法無(wú)法完成的功能,算法效果也得到大幅度提高。
在安防大數據背景下,大華推出“DeepSense睿智”系列的視頻結構化服務(wù)器,可搭載8塊Tesla-P4卡(176 TOPS),2顆E5系列CPU,128G內存,4個(gè)千兆網(wǎng)口,功耗在1600W左右,支持2+2冗余電源。其最大可支持192路1080P高清實(shí)時(shí)視頻分析,完成結構化信息提取。
“DeepSense睿智”系列的視頻結構化服務(wù)器主要功能是把實(shí)時(shí)視頻進(jìn)行結構化分析。將復雜場(chǎng)景中的人、機動(dòng)車(chē)、非機動(dòng)車(chē)分離(共可區分轎車(chē)、面包車(chē)、公交車(chē)、卡車(chē)、貨車(chē),2輪非機動(dòng)車(chē)、3輪非機動(dòng)車(chē)、行人等類(lèi)型),全方位提取車(chē)輛特征,如車(chē)型、車(chē)系、車(chē)身顏色、車(chē)牌顏色、車(chē)牌號碼識別、主副駕駛是否系安全帶、是否打電話(huà)、有無(wú)遮陽(yáng)板、有無(wú)年檢標、有無(wú)掛墜、有無(wú)紙巾盒;針對行人,“DeepSense睿智”服務(wù)器可以多方面分析其相關(guān)特征,包括性別、表情、年齡段、服飾特征(上下衣著(zhù)顏色、眼鏡)、攜帶物特征(背包、打傘)、運動(dòng)特征等。同時(shí),也可以針對符合像素要求的人臉、車(chē)輛號牌,進(jìn)行識別。
傳統的CV算法在處理視頻算法時(shí),往往先用檢測或者比較簡(jiǎn)單的識別算法,將目標從背景中提取出來(lái)。然后,通過(guò)識別算法分辨是否是正常目標,最后判斷目標類(lèi)型。
而利用深度學(xué)習技術(shù),可直接通過(guò)分類(lèi)器,將目標從背景中識別出來(lái)再進(jìn)行跟蹤,同時(shí)可以直接得到目標類(lèi)別。這種模式下,目標檢測的準確率和跟蹤的穩定性都能夠大幅度提高。
同時(shí),算法不需要根據不同目標類(lèi)型調用不同模塊進(jìn)行目標分割或者特征提取,可直接利用目標識別結果,進(jìn)行特征識別,直接獲得相應的目標屬性。
深度學(xué)習技術(shù)顛覆傳統算法,輕松完成視頻結構化信息提取。除此之外,結合深度學(xué)習本身的技術(shù)特色,還對車(chē)輛信息提取、人臉識別等已有功能進(jìn)行改善,效果尤為明顯。
在這之前,人臉識別在傳統算法中,有非常好的效果。在預處理之后,通過(guò)提取特定的特征并對特征值進(jìn)行訓練,最后得到分類(lèi)器,進(jìn)行識別。深度學(xué)習優(yōu)化了人臉識別的方案,將比較依靠專(zhuān)家選擇的特征提取模塊簡(jiǎn)化,通過(guò)輸入樣本即可直接訓練得到分類(lèi)器。
智能交通卡口或者電警攝像頭智能抓拍車(chē)輛圖片,并識別車(chē)輛號牌字符、車(chē)輛顏色、車(chē)輛類(lèi)型等數據。引入深度學(xué)習技術(shù)之后,車(chē)輛的車(chē)系信息、年款等信息也被開(kāi)發(fā)出來(lái),更多的車(chē)輛信息被挖掘,為后續平臺應用提供的更多的數據支撐。
特點(diǎn)和優(yōu)勢
“DeepSense睿智”系列視頻結構化服務(wù)器,應用深度學(xué)習算法,支持192路實(shí)時(shí)全高清視頻處理,同時(shí)搭載英偉達最新Tesla®P4 GPUs,極大的提高了安防行業(yè)的算法應用和硬件配置,夯實(shí)了智慧城市和城市數據大腦等建設提供智能化服務(wù)的基礎。同時(shí),服務(wù)器集群設計,充分考慮到可擴展性和云架構的兼容性,并發(fā)計算能力和服務(wù)器臺數成正比例增加。另外,服務(wù)器集成度高,相對每路視頻分析的功耗非常低。以上這些完全符合大數據計算的高要求。
另外,算法訓練和應用都在英偉達統一平臺進(jìn)行搭建,節約研發(fā)開(kāi)發(fā)成本,統一智能化效果,為行業(yè)提供了一套應用深度學(xué)習技術(shù)、快速研發(fā)產(chǎn)品的新方案,為使用GPU方案進(jìn)行深度學(xué)習研發(fā)的公司樹(shù)立了榜樣。
評論comment