
2022年11月4日,“CSIG圖像圖形中國行”來到了深圳北理莫斯科大學,本次活動由中國圖象圖形學學會主辦,深圳北理莫斯科大學工程系承辦。深圳北理莫斯科大學工程系程杞元、賈云得教授主持會議,深圳北理莫斯科大學校長李和章致辭。北京大學田永鴻教授、深圳大學黃繼武教授、中國科學院自動化所徐常勝研究員及大連理工大學盧湖川教授受邀作報告,本次會議得到了廣泛關注,吸引了來自校內100余位師生前來參會。
來自大連理工大學的盧湖川教授首先代表中國圖象圖形學會向深圳北理莫斯科大學承辦此次活動表示了感謝,并對學會的發(fā)展進行了全面的介紹。隨后,他在此次會議上作了題目為“一網通吃:跟蹤與分割大一統(tǒng)”的報告。報告指出:通用人工智能(AGI)實現(xiàn)1個網絡完成多個不同的任務,可以更好的挖掘模型特性、泛化能力,是未來發(fā)展趨勢。該報告介紹了其團隊圍繞多任務通用視覺模型Unicorn,實現(xiàn)的單目標跟蹤(SOT)與分割(VOS),多目標跟蹤(MOT)與分割(MOTS)四個任務的大一統(tǒng)。
來自深圳大學的黃繼武教授進行了題為“圖像取證”的報告。報告首先針對現(xiàn)代生活中通過功能強大的圖像編輯工具,普通用戶可以很方便地對圖像內容進行變換或篡改,以此生成偽造圖像而不為人們的視覺所感知這種現(xiàn)狀進行分析。隨后從多媒體取證的研究背景開始,介紹圖像取證所關心的問題并探討了深度學習應用到圖像取證領域所面臨解決的問題。最后,以實驗室在偽造篡改圖像定位方面的工作為例子,介紹了應對這些挑戰(zhàn)上的一些研究情況。
來自中國科學院自動化研究所的徐常勝研究員帶來了題為“視頻理解中的關系學習研究”的報告。報告介紹到視頻理解是一個融合視頻底層特征信息和高層語義信息的過程,并服務于用戶的不同需求。高效的視頻理解技術可以使計算機智能地完成各種視頻相關的任務,如視頻監(jiān)控、視頻娛樂等。報告的核心內容是圍繞如何設計有效的關系學習方法來進行視頻理解展開。自底向上地重點研究了視頻中的三種關系結構信息:首先針對視頻中的物體層面,研究了物體表觀中的結構化關系建模;接著以物體為紐帶,深入挖掘了視頻中的物體-語義關系信息,從而實現(xiàn)了視頻高層語義的自動提取;最后,探索了視頻語義-用戶興趣之間的關系,完成了視頻的個性化服務。
來自北京大學深圳研究生院的田永鴻教授帶來的報告題目為“神經形態(tài)視覺:計算視覺與腦科學的深度融合”。報告指出:自2012年ImageNet競賽中提出AlexNet模型以來,深度學習與計算視覺的緊密結合已經接近十年,取得了大量有價值的技術突破。然而,計算視覺仍不能解決很多領域的挑戰(zhàn)性難題,同時基礎模型的顛覆性革新日益減少。基于“攝像機的生物學原型是視網膜”這一事實,我們應該學習生物視網膜的結構和機制,重新審視適合新型應用的視覺成像理論和信息表示處理方法。我們稱這一計算視覺與腦科學深度融合的領域為神經形態(tài)視覺(neuromorphic vision)。報告詳細介紹了神經形態(tài)視覺的概念、相關研究問題和一些最新進展。
會上,深圳北理莫斯科大學賈云得教授、陸耀教授、程杞元教授、北京大學田永鴻教授、深圳大學黃繼武教授、中國科學院自動化所研究員徐常勝研究員、大連理工大學盧湖川教授等專家學者、與會師生圍繞“計算機視覺技術”進行了相關研討與交流。“CSIG 圖像圖形中國行”在深圳北理莫斯科大學取得了圓滿的成功。
深圳北理莫斯科大學版權所有 - 粵ICP備16056390號 - 粵公網安備44030702002529號