FREE HD XXXX CHINA麻豆,麻豆FREE HD XXXX CHINESE,国产CHINESEHDXXXX麻豆

<ol id="yfay2"><object id="yfay2"></object></ol>
  • <dd id="yfay2"><track id="yfay2"></track></dd>
    <nav id="yfay2"></nav>

    <progress id="yfay2"><pre id="yfay2"><rt id="yfay2"></rt></pre></progress>

      <form id="yfay2"><span id="yfay2"></span></form>
    1. <li id="yfay2"></li>
      <form id="yfay2"><tr id="yfay2"><kbd id="yfay2"></kbd></tr></form>

      bg line bg line

      【大家之言】超高清及后超高清時代媒體網絡技術發展趨勢

      本文針對超高清和后超高清時代的媒體網絡技術發展趨勢,提出了MC2廣義智能媒體網絡服務模型。介紹了模型中媒體內容、通信網絡和媒體計算等關鍵因素的協同發展關系以及為解決高真實、高通量、低延時等技術問題所需要的一系列關鍵技術,最后給出了一些代表性的智能媒體網絡應用場景。

      引言

      [中國,深圳,2020年7月7日] 媒體服務是一種通過記錄、處理和傳播等方式來幫助人們感知和連接世界的技術手段。隨著信息技術的高速發展,媒體網絡不斷迭代演進,以滿足人類日益增長的精神文化需求。為進一步了解媒體網絡的技術發展趨勢,有必要從視覺感知體系出發,思考媒體網絡體系主要要素間的動態關系,探索構建一種媒體、網絡、計算協同發展的研究模型。

      視頻媒體發展歷史及未來趨勢

      1.1 人類視覺感知體系

      人類主要通過視、聽、嗅、味、觸等感官對刺激物的反應來形成對外部世界的認知。視覺感知是其中最為具象的呈現方式,占據了人類超過90%的信息來源。由人眼的構造和視覺特性可知,視網膜是人們感知光線的主要介質。視網膜上的視錐細胞和視桿細胞決定了光譜、空間、時間和亮度等人眼感知范圍,這些感知范圍與明暗適應、視覺暫留、連帶集中和心理學等人眼視覺特性共同組成了人類視覺感知體系。

      1.2 視頻媒體發展歷史與未來趨勢

      視頻媒體是以人類視覺感知體系為基礎,以不斷滿足視覺感知為目標發展起來的。電視的誕生第一次用電信號方式實現了動態圖像的遠程傳送,將順序靜止圖像序列變成了動態電視視頻。電視視頻技術的發展經歷了從黑白到彩色,模擬到數字,標清到高清,隔行到逐行的歷史過程。分辨率、幀率、色域、視場等技術參數由低到高的提升帶動了用戶視覺感知質量不斷逼近真實水平。

      超高清視頻技術的到來將視覺感知質量帶到了新的高度。國際和國內主要超高清技術規格(ITU-R BT.2020《超高清晰度電視系統節目制作和國際交換用參數值》和GY/T 307-2017《超高清晰度電視系統節目制作和交換參數值》)將視頻技術擴展到了一個多維度指標體系。體系中不僅規定了空間特性(有效像素數7,680×4,320和3,840×2,160、幅型比16:9),更明確了時間特性(幀率24/1.001至120Hz、逐行掃描)、色域覆蓋范圍(三基色色域覆蓋率57.3%)和量化比特深度(10比特和12比特)等一系列指標。在家庭、移動及手持等應用場景和高標準8K超高清晰度視頻規格(7,680×4,320、100/120fps、HDR、WCG、10比特)之下,用戶已觀察不到靜態圖像的像素點和動態圖像的卡頓抖動,還可以看到全面的明暗及色彩覆蓋??梢哉J為在高標準8K超高清晰度視頻規格下,用戶視覺感知質量已經基本達到了真實水平。

      二維平面的視覺感知達到真實之后,用戶需要追求更高層次的交互性、實時性和自由性需求。這些需求將促使視頻媒體技術向強化用戶參與的視覺通信和互動媒體方向發展。在后超高清時代里,媒體內容技術評價指標將從二維平面發展到三維立體、從單視點發展到多視點,從零自由度、三自由度發展到六自由度,從三維建模發展到實時渲染,從高延時發展到超低延時,從虛實結合發展到數字孿生。這些新一代智能媒體網絡技術將帶來應用場景和商業模式的重構,從而創造出一種極具用戶粘性、超越真實水平的媒體服務。媒體服務感知和連接真實世界的過程見圖1所示。

      MC2智能媒體網絡時代的定義及關鍵技術

      2.1 MC2智能媒體網絡定義與要素間的關聯關系

      媒體內容在質量和數量上的爆發式增長促進了通信網絡和媒體計算的快速增長,進而催生了“E=MC2”這一廣義的智能媒體網絡模型。。

      “E=MC2”模型中的“E”指媒體服務效率(Efficiency),包括在不同應用場景下用戶視覺感知質量、服務分發速率和獲取內容時延等服務體驗;“M”指媒體內容(Media),代表由內容質量和數量增加帶來的數據規模的變化;第一個“C”指通信網絡(Communication),代表不同節點通過協議有機相連后形成的媒體內容分發體系架構;第二個“C”指媒體計算(Computing),代表采用各種高性能智能化的算法和引擎對各類媒體數據進行分析、理解和處理的能力。

      要實現視覺感知質量提升必定帶來數據負荷的增加,不斷增加的數據負荷會給網絡帶寬帶來巨大壓力。為了提升網絡分發速率和降低服務時延,需要新型通信網絡體系架構和分發機制來感知、理解和預測媒體內容、網絡模態和用戶行為,對內容進行聚合和分流以緩解寬帶壓力。要實現任何時間、任何地點、任何終端的各種媒體應用場景就需要高性能、低功耗、高集成度的媒體計算平臺。由此構成了“內容驅動通信網絡媒體計算、通信網絡感知媒體內容分流媒體計算、媒體計算豐富應用場景優化通信網絡”的相互促進、協同發展的“E=MC2”智能媒體網絡模型見圖2所示。

      2.2 MC2智能媒體網絡的關鍵技術

      要提升“E=MC2”中媒體服務效率的關鍵在于解決系統運行所涉及的高真實、高通量和低延時三大難題,要解決這三大挑戰需要進一步探討和研究智能媒體網絡領域的一系列關鍵技術。

      2.2.1 高真實性的媒體制作

      高真實性的媒體制作首先需要確立融合主客觀的二元評價體系??陀^評價主要聚焦亮度、對比度、顯示均勻性、動態清晰度、靜態清晰度等各類硬件測試數據,主觀評價主要包括面向用戶感知的膚色顯示、MEMC運動補償、分區控光、高動態范圍、三基色色域等一系列感知指標,兩者有機結合可以有效地引導內容制作及呈現終端的性能改善。同時,高真實性媒體制作從采集、存儲、編輯、調色、編碼及輸出等全鏈路流程都需要一致性控制,以及對多格式視頻編碼標準制作的持續兼容(國內外現有視頻編碼標準AVC、HEVC、AVS/+/2、VP9和AV1等和新一代視頻編碼標準AVS3、VVC、EVC和LCEVC等,我國新一代AVS3視頻編碼標準通過基礎塊劃分、幀間幀內編碼和濾波器等架構設計實現了進一步的編碼效率提升,是未來8K超高清晰度視頻編碼主要技術方案之一)。再次,除了傳統音視頻媒體內容制作,基于新型AI實時渲染引擎的內容制作更將重建媒體內容制作流程,形成利用機器學習對視頻內容和用戶行為進行偵測、分析、理解、分類、預測和輸出的虛實結合實時渲染的新型內容生成方式。

      2.2.2 云邊端協同化的網絡架構

      高真實性的媒體制作必然帶來海量數據。8K120fps超高清視頻內容未壓縮碼率超過40Gbps,壓縮后碼率也高達200Mbps,3D點云編碼則包括三維平面的大量差異化、稀疏化和不規則的無序特征數據。這些指數級增加的內容數據都將消耗大量的網絡帶寬和媒體計算資源,從而對媒體服務效率產生嚴重影響。為了提升網絡服務效率,需要新型的云邊端協同化網絡架構來保障網絡分發性能。云邊端架構通過將原來位于媒體數據源一側的復雜媒體處理分解為簡單子單元,聚合分類后動態地分配到邊緣端,然后利用邊緣端的計算能力對視頻內容和用戶行為進行處理,新增的邊緣端處理能力可以顯著地提高網絡峰值服務速率、減少轉發路由時延、提升計算響應時間、節省終端計算能耗和計算存儲,將云端的計算壓力全面下沉,將用戶端的計算壓力全面上載,使智能媒體網絡高通量、低延時服務成為可能,從而保證用戶感知體驗的最優化,實現高真實性海量媒體分發和毫秒級編碼延遲傳送。此外,新型媒體網絡還可通過網絡感知實現分級編碼、并行編碼等方式實現聯合保障服務效率提升。

      2.2.3 全場景高性能本地智能計算

      智能媒體網絡應用場景的構建離不開用戶端本地媒體計算處理平臺的保障,這些媒體處理計算平臺需要具備計算表達、視頻解碼、計算處理和感知計算能力。計算表達控制著每個媒體內容像素,AI PQ曲線提升著畫面的對比度和明暗程度。視頻解碼用以實現對國際國內主流的高效視頻編解碼標準。計算處理可以對解碼后YUV數據進行亮度、對比度、飽和度、銳利度、噪聲抑制處理,為PQ提供參數優化及動態補償,海量NPU算力用以支撐多樣化AI人臉識別、場景檢測等大量豐富應用場景。感知計算將成為連接物理世界和智能世界的關鍵樞紐,以拓展用戶與家庭、城市、汽車各種智慧化場景廣泛連接。這些計算能力分別通過多核CPU、GPU、AI NPU、高性能多格式解碼引擎和AI PQ視頻圖像處理核得以實現并形成高性能、高集成度、低功耗的全場景高性能芯片方案,為智能媒體網絡系統提升服務效率和創造靈活應用場景提供強大的運算支撐。

      智能媒體網絡應用場景

      3.1 8K 120P超高清視頻

      目前國內中央廣播電視總臺為代表的電視臺及制作機構已開展了8K超高清視頻制作分發測試。以數字電視國家工程研究中心為代表的相關單位也開展了積極實踐,完成了國內首個8K 120fps超高清晰度高幀率演示片制作,短片支持7680×4320、120fps、10比特、BT.2020色域和HDR規格,分別用“極速棒球”、“芭蕾建筑”和“淬火鑄劍”為主題制作了高速運動場景、人物皮膚及建筑紋理對比和高動態范圍細節呈現等不同場景,如圖3至圖8所示。上海海思在2019年9月荷蘭阿姆斯特丹歐洲廣播影視設備展IBC上成功發布了全球首顆支持8K 120fps的SoC芯片Hi3796C V300并通過實時解碼的方式演示了該段8K 120fps碼流,完整地體現出了超高清晰度及高幀率的順滑感。AVS數字音視頻編解碼技術標準工作組也同期完成了AVS3視頻編碼標準的研制工作。上述內容、芯片和標準的進展也標志著我國在高質量8K技術上已經處于世界領跑的地位。

      3.2 8K+AI+AR/融合網絡

      通過高性能的媒體計算平臺實現了8K解碼、AI計算和AR呈現結合,形成了豐富多樣的超高清晰度智能增強現實的應用模式。在家庭娛樂方面,用戶可以通過多人連線同步觀賞體育比賽或同一部體育比賽多個視角同步呈現,還可以與遠在千里之外的親人一起連線互動體感游戲,暢享高真實、準實時的各種零距離溝通體驗,還可以通過AI攝像頭采集超高清視頻并同步進行智能化動作捕捉、骨骼識別、運動分析及姿勢矯正,用新型媒體網絡服務提供全新居家健身體驗,見圖9、圖10所示。在戶外旅游方面,也可以連接云端AI服務器將全景或多視角視頻即時分享給親朋好友,讓好友足不出戶即可體驗世界各地風光美景。

      3.3 基于點云的視覺互動媒體通信

      基于點云編碼的全新一代視覺互動媒體是未來媒體交互體驗的重要應用。應用通過多個傳感器獲取對象的顏色、深度、紋理等信息,采用3D點云編碼渲染傳輸表達出物體、場景的幾何結構和屬性特征,構建出虛實結合的逼真場景,見圖11所示。通過多自由度多視點感知、高空間和時間分辨率、低視覺通信延時的特點,進一步實現與對象的遠程實時真實交互。這些新型視覺互動媒體可以廣泛地應用于虛實融合的立體會議系統、圓桌論壇、比賽直播、遠程教育和醫療診斷等豐富的智能媒體網絡應用場景,見圖12所示。借助基于人工智能的實時渲染引擎、深度學習算法及海量云邊端服務,可以聯合提供變換無窮的視覺應用和信息交互場景。

      結束語

      在“E=MC2”的智能媒體網絡的架構下,隨著媒體內容、通信網絡和媒體計算關鍵技術的不斷突破和相互促進,媒體網絡的服務效率將顯著提升,各種新興的應用場景將持續繁榮。目前,智能媒體網絡時代仍處于新一輪產業興起與爆發的前期,不僅是廣播電視行業,未來更多新型行業都將受惠于智能媒體網絡系統技術發展,通過媒體服務的感知與連接帶動各個行業進入全新發展階段。未來的智能媒體網絡將不僅引領各個領域的技術創新還將承擔承擔更多的社會責任,為用戶提供更加美好的生活體驗和為社會進步發展貢獻更多的作用。

      FREE HD XXXX CHINA麻豆,麻豆FREE HD XXXX CHINESE,国产CHINESEHDXXXX麻豆